Vijesti o umjetnoj inteligenciji, 20. februar 2026

Pregled vijesti o umjetnoj inteligenciji: 20. februar 2026

💰 Nvidia navodno planira udio od 30 milijardi dolara u mega rundi finansiranja OpenAI-ja

Navodno se Nvidia približava investiciji od otprilike 30 milijardi dolara u OpenAI kao dio gigantskog povećanja - vrste cifre koja vam natjera oči da trepnu "čekaj, šta?".

Izvještaji to prikazuju kao odmak od ranijeg, još uvijek nefinaliziranog aranžmana super veličine, pri čemu se veliki dio novca na kraju vraća u računarstvo. AI stek počinje da liči na kornet sladoleda koji se sam liže... ili se barem tako čini. ( Reuters )

🧠 Dionice sajber industrije padaju nakon što je Anthropic predstavio "Claude Code Security"

Anthropic je predstavio Claude Code ponudu usmjerenu na sigurnost, a reakcija tržišta je bila... nervozna, a imena iz oblasti sajber sigurnosti navodno su prihvatila implikaciju da bi alati zasnovani na vještačkoj inteligenciji mogli prodrijeti u dijelove naslijeđenog sigurnosnog toka rada.

Zanimljiv dio je okvir: manje „AI pomaže sigurnosnim timovima“ i više „AI postaje sigurnosni proizvod“, što je suptilan, ali pomalo brutalan zaokret ako danas prodajete mjesta i pretplate. ( Bloomberg.com )

📵 Anthropic zateže šrafove za pristup trećih strana Claude pretplatama

Anthropic je ažurirao pravne uslove kako bi razjasnio ograničenja u vezi s korištenjem "upravljačkih pojaseva" trećih strana s Claude pretplatama - u osnovi, manje rupa u zakonu za wrapper aplikacije i neslužbene integracije.

Ako gradite na osnovu Claudea, to zvuči kao blagi podsjetnik da vlasnik platforme može - i hoće - promijeniti granice kada modeli prihoda postanu nejasni. Iritantno za kreatore, predvidljivo za preduzeća, obje stvari mogu biti istinite. ( The Register )

🔍 Microsoftovo istraživanje tvrdi da ne postoji jedinstven pouzdan način za otkrivanje medija generiranih umjetnom inteligencijom

Članak Microsoft Researcha upozorava da ne postoji čarobna tehnika za pouzdano razlikovanje medija generiranih umjetnom inteligencijom od autentičnog sadržaja i da pretjerano povjerenje u bilo koji detektor može imati kontraefekt.

Zaključak djeluje pomalo sumorno: detekcija će biti slojevita, vjerovatnosna i suprotstavljena - poput filtriranja neželjene pošte, ali s većim ulozima i više haosa. ( Redmondmag )

🧪 Google Gemini 3.1 Pro se predstavlja s naglaskom na "skok razmišljanja"

Gemini 3.1 Pro je bio dostupan na internetu, a Google je predstavio poboljšano osnovno razmišljanje i široku dostupnost svojih proizvoda i API-ja, plus prava na hvalisanje standardima o kojima će se definitivno raspravljati na internetu.

Ono što je važno, tiho, jeste da li developeri to osjećaju u svakodnevnim radnim procesima - manje neobičnih promašaja, bolji dugoročni zadaci, manje "zvučalo je samouvjereno, ali... ne." ( Notebookcheck )

🏛️ Najveći graditelji umjetne inteligencije pretvaraju se u neke od najvećih lobista

Velike laboratorije za vještačku inteligenciju povećavaju troškove lobiranja, forsirajući regulatorne pristupe s kojima mogu živjeti - i, da, to vjerovatno znači pravila koja izgledaju "odgovorno" bez uništavanja rasta.

To je klasičan proces: izgraditi nešto što će oblikovati svijet, a zatim potrčati do političkog stola prije nego što neko drugi postavi plan. Nije zlo, nije svetac, samo... izuzetno ljudski. ( Forbes )

Često postavljana pitanja

Šta signalizira Nvidijino prijavljeno učešće od 30 milijardi dolara u mega rundi finansiranja OpenAI-ja?

To nagovještava da bi najveći igrači u svijetu umjetne inteligencije mogli kliziti u čvršću vertikalnu isprepletenost, gdje je finansiranje usko povezano s pristupom računarstvu. Izvještavanje prikazuje strukturu kao pomak od ranijeg, još nefinaliziranog, predimenzioniranog plana. U praktičnom smislu, kapital koji "podiže rundu" može funkcionirati i kao mehanizam za plaćanje infrastrukture, omekšavajući granicu između investitora i dobavljača. Slijedi veća kontrola, posebno u vezi s poticajima i rizikom ovisnosti.

Zašto su se sajber akcije zaljuljale nakon što je Anthropic predstavio Claude Code Security?

Čini se da je ovaj potez povezan s onim što lansiranje implicira: sigurnosni proizvodi zasnovani na umjetnoj inteligenciji mogli bi zamijeniti dijelove postojećih sigurnosnih tokova rada, a ne samo da ih dopune. Ta priča se razlikuje od priče „AI pomaže analitičarima“ jer ukazuje na direktno zamjenjivanje proizvoda. Ako se preduzeće oslanja na mjesta i pretplate za naslijeđene alate, tržišta mogu protumačiti ponude sigurnosti zasnovane na umjetnoj inteligenciji kao oblik pritiska na maržu. Dublja anksioznost je prelazak s prodaje alata na prodaju rezultata.

Mogu li i dalje koristiti aplikacije omotača trećih strana s Claude pretplatama nakon ažuriranja Anthropicovih uvjeta?

Ažuriranje pooštrava ograničenja u vezi s "upotrebom" trećih strana i neslužbenim integracijama, ostavljajući manje prostora za omotačke aplikacije. Ako vaš proizvod ovisi o usmjeravanju pristupa pretplati putem treće strane, postaje razumno ponovo provjeriti koji obrasci korištenja ostaju dozvoljeni. Uobičajena zaštita je izgradnja na službenim API-jima i dokumentiranim integracijama, tako da ste manje izloženi kada se uslovi pooštre. Promjene politika tretirajte kao ponavljajući rizik platforme, a ne kao jednokratno iznenađenje.

Postoji li siguran način za otkrivanje medija generiranih umjetnom inteligencijom?

Microsoftovo istraživanje tvrdi da ne postoji jedan pouzdan detektor tipa magičnog metka i da pretjerano samopouzdanje u bilo koju metodu može imati loše posljedice. U mnogim protocima, sigurniji pristup ostaje slojevit: višestruki signali, probabilističko bodovanje i stalno ponovno testiranje kako se modeli razvijaju. Detekcija s vremenom postaje suparnička, slično filtriranju neželjene pošte, ali s većim ulozima. Rezultati najbolje funkcioniraju kao indikatori rizika, a ne kao konačni dokazi.

Šta bi programeri trebali očekivati ​​od Google Gemini 3.1 Pro prezentacije o "skoku logičkog zaključivanja"?

Praktični test je da li se model čini pouzdanijim u svakodnevnim radnim procesima: manje čudnih promašaja, bolje rukovanje dugoročnim zadacima i manje „pouzdano, ali pogrešno“. Najavljena poboljšanja i referentne vrijednosti pružaju vrijedan kontekst, ali svakodnevna pouzdanost često je važnija od tvrdnji s rang-liste. Stabilan pristup je validacija u odnosu na vlastite zadatke, upute i opremu za evaluaciju. Obratite pažnju na konzistentnost pod šumnim, nesavršenim ulazima.

Zašto velike laboratorije za vještačku inteligenciju pojačavaju lobiranje i šta bi to moglo promijeniti?

Kako sistemi umjetne inteligencije postaju sve ekonomski i društveno značajniji, veliki proizvođači vrše pritisak za regulatorne pristupe pod kojima mogu djelovati. To se često prevodi u zagovaranje „odgovornih“ pravila koja i dalje održavaju rast i brzinu proizvoda. Uzorak je poznat: prvo graditi, a zatim ubrzano oblikovati okvir politike prije nego što se on stvrdne. Za sve ostale, raste pritisak na transparentnost, konkurenciju i način na koji se troškovi usklađenosti na kraju raspoređuju.

Jučerašnje vijesti o umjetnoj inteligenciji: 19. februar 2026

Pronađite najnoviju umjetnu inteligenciju u službenoj trgovini AI Assistant

O nama

Nazad na blog