🏛️ Trump nalaže američkim agencijama da odbace Anthropicovu umjetnu inteligenciju dok Pentagon naziva startup rizikom za opskrbu ↗
Američki predsjednik naredio je saveznim agencijama da prestanu koristiti Anthropicovu tehnologiju, s obaveznim periodom postepenog ukidanja koji pretvara prekid veze s dobavljačima u pravi politički trenutak. Pentagon je Anthropic označio kao "rizik za lanac snabdijevanja" - upečatljiva etiketa za veliku američku laboratoriju za umjetnu inteligenciju. ( Reuters )
Anthropic je signalizirao da će se usprotiviti tom potezu, a epizoda baca svjetlo na veću borbu: sigurnosna pravila kompanije naspram vladinih zahtjeva za maksimalnom fleksibilnošću. Ako ste poslovni kupac koji posmatra sa strane, ključni problem je jednostavan - kada je kupac država, uslovi države obično određuju vrijeme. ( Reuters )
⚖️ Pentagon proglasio antropogenu prijetnjom nacionalnoj sigurnosti ↗
Ova verzija dodaje više teksture pristupu u stilu crne liste i šta on znači za izvođače radova - ne samo agencije - koji dodiruju federalni ekosistem. To je vrsta pravila koja se brzo širi, poput tinte u vodi, osim što je tinta papirologija nabavke. ( The Washington Post )
Također postoji direktan sukob oko toga da li politike korištenja dobavljača modela mogu ograničiti vojne primjene, posebno u osjetljivim slučajevima upotrebe. Reakcija industrije zvučala je napeto; presedan je ono što uznemirava ljude, a ne samo jednu kompaniju koja je izdvojena. ( The Washington Post )
☁️ OpenAI i Amazon najavljuju strateško partnerstvo ↗
OpenAI je najavio strateško partnerstvo s Amazonom koje donosi OpenAI-jevu Frontier platformu na AWS, proširujući područje gdje korisnici mogu pokretati i upravljati sistemima OpenAI klase. Ako ste pratili „ko šta hostuje“ u AI-u, ovo se čita kao promjena moći koja smanjuje glas dok premješta mnogo namještaja. ( OpenAI )
Također se pojavljuje kao odgovor na pritisak potražnje - više infrastrukturnih opcija, više distribucijskih puteva, manje autoputeva s jednom trakom. Ostaje da se vidi da li ovo olakšava implementaciju ili jednostavno daje svima više mogućnosti za pogrešno konfiguriranje. ( OpenAI )
🧠 OpenAI pokreće stateful AI na AWS-u, signalizirajući promjenu moći kontrolne ravni ↗
Computerworldov stav: „stateful AI“ na AWS-u je više od hostinga - radi se o tome gdje se nalazi kontrolna ravan i ko orkestrira identitet, memoriju i tok rada kroz sesije. Stateful sistemi mogu se osjećati mnogo više „agentski“, kako za bolje tako i za o-ne-šta-je-to-upravo uradilo. ( Computerworld )
Podtekst je konkurentska geometrija: oblaci žele posjedovati sloj platforme, laboratorije za vještačku inteligenciju žele posjedovati površinu proizvoda, a kupci žele da se on ne pokvari u 2 ujutro. Svi žele volan - čak i ako se pretvaraju da ga ne žele. ( Computerworld )
🔐 'Tiha' promjena ključa Google API-ja otkrila je podatke o AI-u Gemini-ja - CSO ↗
Sigurnosno upozorenje kruži oko ključeva Google Cloud API-ja i Geminija - s izvještajima da promjene u načinu na koji ključevi funkcioniraju (ili se tretiraju) mogu pretvoriti pretpostavke o "sigurnosti za ugradnju" u veliki, puzeći rizik. Uznemirujući dio je koliko lako možete sve raditi "kao što ste oduvijek radili", a ipak završiti izvan zaštitnih ograda. ( CSO Online )
Istraživači su ukazali na široko rasprostranjene otkrivene ključeve u različitim organizacijama, što je manje pojedinačna greška, a više podsjetnik da integracije umjetne inteligencije proširuju radijus djelovanja dosadnog upravljanja starim tajnama. To su neprivlačne stvari koje najčešće grizu. ( SC Media )
📱🎶 Gemini Drops: Nova ažuriranja aplikacije Gemini, februar ... ↗
Ažuriranje Googleove aplikacije Gemini predstavlja poboljšanja Gemini 3.1 i način razmišljanja "Deep Think" namijenjen rješavanju teških naučnih i inženjerskih problema, uz ograničavanje na pretplatničke nivoe. Pametniji način rada, viša ograda, klasična kombinacija. ( blog.google )
Također: Lyria 3 se spominje kao muzički model koji može generirati kratke pjesme iz teksta ili slika u beta verziji. Šarmantno je da isti ekosistem koji nudi hardcore razmišljanje također nudi brze, prilagođene zvučne zapise - dvije brzine, jedan gearbox. ( blog.google )
Često postavljana pitanja
Šta mijenja prestanak korištenja antropogene tehnologije od strane američkih saveznih agencija?
To pretvara izbor dobavljača u pravilo nabavke, s definiranim vremenskim okvirom za postepeno ukidanje umjesto ad-hoc odluka donesenih od strane svakog tima pojedinačno. Pentagonov okvir "rizika lanca snabdijevanja" podiže uloge i signalizira da podobnost može biti oblikovana više politikom nego zaslugama proizvoda. Za kupce, to naglašava kako zahtjevi javnog sektora mogu nadjačati preferirani operativni model dobavljača.
Kako bi oznaka Pentagona za "rizik lanca snabdijevanja" mogla uticati na izvođače radova i dobavljače?
Izvještaji sugeriraju da utjecaj nije ograničen samo na agencije; može se proširiti na izvođače radova koji se preklapaju s federalnim ekosistemom. Čak i ako nikada ne kupite model direktno, vaš stack može naslijediti ograničenja kroz glavne ugovore, klauzule o flow-down-u i provjere usklađenosti. Zbog toga "ko šta koristi" brzo postaje problem papirologije, a ne samo debata o arhitekturi.
Šta bi poslovni kupci trebali učiniti ako se ključni dobavljač umjetne inteligencije nađe pod federalnom zabranom nabavke umjetne inteligencije?
Započnite mapiranjem mjesta gdje se provajder pojavljuje: direktna upotreba API-ja, ugrađene funkcije i zavisnosti od dobavljača. Izradite plan zamjene koji pokriva krajnje tačke modela, predloške upita, osnovne linije evaluacije i odobrenja upravljanja, tako da postepeno ukidanje ne postane prekid rada. U mnogim cjevovodima, postavke s dva provajdera i prenosive apstrakcije smanjuju radijus eksplozije kada se politika promijeni preko noći.
Mogu li se politike korištenja dobavljača umjetne inteligencije sukobiti s vladinim ili vojnim zahtjevima?
Da - ova situacija naglašava direktan sukob oko toga da li pravila korištenja dobavljača modela mogu ograničiti osjetljive aplikacije. Vlade često insistiraju na maksimalnoj fleksibilnosti, dok laboratorije mogu provoditi stroža ograničenja u određenim slučajevima upotrebe. Ako pružate usluge klijentima iz javnog sektora, planirajte ugovorne uslove koji daju prioritet zahtjevima misije i mogu zahtijevati različite kontrole ili garancije.
Šta partnerstvo OpenAI-Amazon znači za područja gdje možete koristiti OpenAI sisteme?
Proširuje područja u kojima korisnici mogu upravljati sistemima OpenAI klase donošenjem OpenAI Frontier platforme na AWS. Praktično, to može značiti više opcija infrastrukture i manje jednosmjernih puteva implementacije. Također može preusmjeriti odgovornosti: više kontrola za podešavanje identiteta, pristupa i operacija, što može podržati otpornost, ali i povećati rizik konfiguracije.
Šta je „stateful AI“ na AWS-u i zašto je kontrolna ravan bitna?
„Stateful“ AI podrazumijeva sisteme koji mogu prenositi kontekst između sesija, što se u stvarnim radnim procesima može činiti više kao agenti. Pitanje kontrolne ravni fokusira se na to ko orkestrira identitet, memoriju i radni tok sesije: vaš oblak, AI laboratorija ili vaš vlastiti sloj platforme. To je važno za upravljanje, otklanjanje grešaka i odgovor na incidente kada nešto krene po zlu u 2 ujutro.
Kako "tiha" promjena Google API ključa može dovesti do rizika od izlaganja podataka Geminija?
Ako se ponašanje ključeva ili očekivanja u vezi s rukovanjem ključevima promijene, prakse koje su se nekada činile sigurnima - poput ugrađivanja ključeva - mogu postati opasne, a da timovi to ne primijete. Izvještaji ovo opisuju kao problem upravljanja tajnama, pojačan integracijama umjetne inteligencije, a ne kao jednu izoliranu grešku. Uobičajeni pristup je tretiranje svih ključeva kao visokorizičnih, česta rotacija i čuvanje na strani servera iza strogih kontrola pristupa.
Šta je novo u ažuriranju aplikacije Gemini za februar 2026. i ko ga dobija?
Google ističe poboljšanja Geminija 3.1 i način razmišljanja "Duboko razmišljanje" (Deep Think) pozicioniran za teže probleme u nauci i inženjerstvu. Ažuriranje također naglašava ograničavanje na pretplatničke nivoe, što znači da mogućnosti i pristup mogu varirati ovisno o planu. Odvojeno, Lyria 3 se spominje kao muzički model koji može generirati kratke pjesme iz teksta ili slika u beta verziji, proširujući kreativne alate aplikacije.
Često postavljana pitanja
Šta mijenja prestanak korištenja antropogene tehnologije od strane američkih saveznih agencija?
To pretvara izbor dobavljača u pravilo nabavke, s definiranim vremenskim okvirom za postepeno ukidanje umjesto ad-hoc odluka donesenih od strane svakog tima pojedinačno. Pentagonov okvir "rizika lanca snabdijevanja" podiže uloge i signalizira da podobnost može biti oblikovana više politikom nego zaslugama proizvoda. Za kupce, to naglašava kako zahtjevi javnog sektora mogu nadjačati preferirani operativni model dobavljača.
Kako bi oznaka Pentagona za "rizik lanca snabdijevanja" mogla uticati na izvođače radova i dobavljače?
Izvještaji sugeriraju da utjecaj nije ograničen samo na agencije; može se proširiti na izvođače radova koji se preklapaju s federalnim ekosistemom. Čak i ako nikada ne kupite model direktno, vaš stack može naslijediti ograničenja kroz glavne ugovore, klauzule o flow-down-u i provjere usklađenosti. Zbog toga "ko šta koristi" brzo postaje problem papirologije, a ne samo debata o arhitekturi.
Šta bi poslovni kupci trebali učiniti ako se ključni dobavljač umjetne inteligencije nađe pod federalnom zabranom nabavke umjetne inteligencije?
Započnite mapiranjem mjesta gdje se provajder pojavljuje: direktna upotreba API-ja, ugrađene funkcije i zavisnosti od dobavljača. Izradite plan zamjene koji pokriva krajnje tačke modela, predloške upita, osnovne linije evaluacije i odobrenja upravljanja, tako da postepeno ukidanje ne postane prekid rada. U mnogim cjevovodima, postavke s dva provajdera i prenosive apstrakcije smanjuju radijus eksplozije kada se politika promijeni preko noći.
Mogu li se politike korištenja dobavljača umjetne inteligencije sukobiti s vladinim ili vojnim zahtjevima?
Da - ova situacija naglašava direktan sukob oko toga da li pravila korištenja dobavljača modela mogu ograničiti osjetljive aplikacije. Vlade često insistiraju na maksimalnoj fleksibilnosti, dok laboratorije mogu provoditi stroža ograničenja u određenim slučajevima upotrebe. Ako pružate usluge klijentima iz javnog sektora, planirajte ugovorne uslove koji daju prioritet zahtjevima misije i mogu zahtijevati različite kontrole ili garancije.
Šta partnerstvo OpenAI-Amazon znači za područja gdje možete koristiti OpenAI sisteme?
Proširuje područja u kojima korisnici mogu upravljati sistemima OpenAI klase donošenjem OpenAI Frontier platforme na AWS. Praktično, to može značiti više opcija infrastrukture i manje jednosmjernih puteva implementacije. Također može preusmjeriti odgovornosti: više kontrola za podešavanje identiteta, pristupa i operacija, što može podržati otpornost, ali i povećati rizik konfiguracije.
Šta je „stateful AI“ na AWS-u i zašto je kontrolna ravan bitna?
„Stateful“ AI podrazumijeva sisteme koji mogu prenositi kontekst između sesija, što se u stvarnim radnim procesima može činiti više kao agenti. Pitanje kontrolne ravni fokusira se na to ko orkestrira identitet, memoriju i radni tok sesije: vaš oblak, AI laboratorija ili vaš vlastiti sloj platforme. To je važno za upravljanje, otklanjanje grešaka i odgovor na incidente kada nešto krene po zlu u 2 ujutro.
Kako "tiha" promjena Google API ključa može dovesti do rizika od izlaganja podataka Geminija?
Ako se ponašanje ključeva ili očekivanja u vezi s rukovanjem ključevima promijene, prakse koje su se nekada činile sigurnima - poput ugrađivanja ključeva - mogu postati opasne, a da timovi to ne primijete. Izvještaji ovo opisuju kao problem upravljanja tajnama, pojačan integracijama umjetne inteligencije, a ne kao jednu izoliranu grešku. Uobičajeni pristup je tretiranje svih ključeva kao visokorizičnih, česta rotacija i čuvanje na strani servera iza strogih kontrola pristupa.
Šta je novo u ažuriranju aplikacije Gemini za februar 2026. i ko ga dobija?
Google ističe poboljšanja Geminija 3.1 i način razmišljanja "Duboko razmišljanje" (Deep Think) pozicioniran za teže probleme u nauci i inženjerstvu. Ažuriranje također naglašava ograničavanje na pretplatničke nivoe, što znači da mogućnosti i pristup mogu varirati ovisno o planu. Odvojeno, Lyria 3 se spominje kao muzički model koji može generirati kratke pjesme iz teksta ili slika u beta verziji, proširujući kreativne alate aplikacije.