Indonezija blokira pristup Muskovom AI chatbotu Grok zbog deepfake slika ↗
Indonezija je privremeno blokirala Grok nakon što je korišten za generiranje nekonsenzualnih deepfakeova seksualnog karaktera - uključujući slike usmjerene na žene i djecu. Vlada je to predstavila kao problem ljudskih prava i javne sigurnosti, a ne kao manju tehnološku neugodnost.
Problem je jasan: ako alat može "skinuti" stvarne ljude na komandu, teret dokazivanja se preokreće. Platforme moraju pokazati da to mogu spriječiti, a ne samo obećati da razmišljaju o tome.
Elon Musk kaže da Velika Britanija želi ugušiti slobodu govora dok se X suočava s mogućom zabranom ↗
Britanski ministri otvoreno su uvodili novčane kazne - pa čak i blokirali X - nakon što je Grok korišten za generiranje seksualno eksplicitnih slika bez pristanka. Musk je uzvratio poznatim okvirom za slobodu govora... ali pravni stav u Velikoj Britaniji prelazi iz "kluba za debatu" u "rok za usklađivanje"
Ofcom se podstiče da brzo reaguje, a zakonodavci ukazuju na isti sumorni obrazac: kada se slike prošire, šteta ne čeka strpljivo ažuriranje politike.
🧑💻 OpenAI navodno traži od izvođača radova da postave stvarne radove s prošlih poslova ↗
OpenAI, zajedno s partnerom za podatke o obuci, navodno traži od izvođača radova da postave stvarne radne artefakte iz prošlih (i trenutnih) poslova - poput dokumenata, proračunskih tablica, prezentacija, repozitorija. Navedeni cilj je procjena i poboljšanje AI agenata na zadacima kancelarijskog tipa.
Ljepljivi dio je očigledan i pomalo nadrealan: izvođačima radova se kaže da sami čiste osjetljive informacije. To je mnogo povjerenja u brzo rastući proces - kao da nekoga zamolite da s ljubavlju deaktivira bombu koristeći rukavice za pećnicu.
🗂️ OpenAI traži od izvođača radova da uploaduju radove iz prošlih poslova kako bi procijenili performanse AI agenata ↗
Poseban izvještaj se bavi istim sistemom i razlozima zašto on uznemirava advokate za privatnost i intelektualno vlasništvo. Čak i ako svi postupaju u dobroj vjeri, "uklonite povjerljive stvari" je nejasna instrukcija kada imate posla sa stvarnim korporativnim dokumentima.
To također nagovještava širu strategiju: AI agenti više nisu samo pričljivi kopiloti - oni se obučavaju da oponašaju zamršenu, višestruku stvarnost stvarnog posla. Praktično, da. Također pomalo... jao.
🏦 Allianz i Anthropic Forge uspostavljaju globalno partnerstvo za unapređenje odgovorne umjetne inteligencije u osiguranju ↗
Allianz i Anthropic su najavili globalno partnerstvo usmjereno na tri smjera: produktivnost zaposlenika, operativnu automatizaciju putem agentske umjetne inteligencije i usklađenost po dizajnu. Osiguranje je papirologija sa zubima, tako da "agentski" ovdje u osnovi znači automatizaciju složenih radnih procesa bez gubitka revizorskih tragova.
Ideja je: uradite kul automatizaciju, ali sačuvajte račune. U reguliranim industrijama, to je jedini način da se ovo skalira, a da se ne pretvori u pinjatu o odgovornosti.
🕵️♂️ Izjava kao odgovor Grok AI-u na X ↗
Britanski regulator za zaštitu podataka kaže da je kontaktirao X i xAI tražeći pojašnjenje o tome kako rukuju ličnim podacima i štite prava ljudi, s obzirom na zabrinutost oko sadržaja koji generira Grok. Nije stvar samo u "moderiranju sadržaja" - već i u tome da li se podaci ljudi obrađuju zakonito i da li su prava zaštićena.
Ovo je vrsta regulatornog poteza koji zvuči pristojno, a zatim tiho postaje izuzetno ozbiljan ako odgovori budu nejasni... ili izbjegavajući, ili oboje.
Često postavljana pitanja
Zašto je Indonezija blokirala pristup Grok AI-u?
Indonezija je privremeno blokirala Grok nakon što je navodno korišten za generiranje nepristranih seksualnih deepfakeova, uključujući slike usmjerene na žene i djecu. Zvaničnici su ovaj potez predstavili kao pitanje ljudskih prava i javne sigurnosti, a ne kao manji tehnološki spor. Osnovna poruka je da "popravit ćemo to kasnije" nije dovoljno kada alati mogu proizvesti trenutnu, nepovratnu štetu.
Šta Velika Britanija razmatra nakon što su se na X-u pojavili deepfakeovi koje je generirao Grok?
Britanski ministri javno su raspravljali o kaznama, pa čak i o mogućnosti blokiranja X nakon što je Grok korišten za kreiranje seksualno eksplicitnih slika bez pristanka. Politički i regulatorni ton se pomjera ka provedivom poštivanju propisa, a ne ka otvorenoj debati. Poenta na koju se zakonodavci stalno vraćaju je tajming: kada se slike prošire, žrtve se suočavaju sa štetom mnogo prije nego što platforme objave ažurirane politike.
Šta znači kada regulatori "prebace teret dokazivanja" na alate za umjetnu inteligenciju za obradu slika?
Ideja "obrnutog tereta dokazivanja" je da platforme možda moraju pokazati da mogu spriječiti određene štete - poput generiranja slika "svlačenja" bez pristanka - umjesto da jednostavno obećavaju zaštitne mjere. U praksi, ovo gura kompanije ka dokazivim kontrolama, mjerljivom provođenju zakona i jasnom rješavanju grešaka. To također signalizira da je "namjera" manje važna od opipljivih rezultata i ponovljive prevencije.
Kako platforme mogu smanjiti rizik od deepfakeova generiranih umjetnom inteligencijom bez pristanka?
Uobičajeni pristup je slojevita prevencija: ograničavanje upita i rezultata vezanih za stvarne ljude, blokiranje zahtjeva za stil "skidanja" te otkrivanje i zaustavljanje pokušaja generiranja seksualiziranih slika bez pristanka. Mnogi cjevovodi dodaju ograničenja brzine, jače praćenje identiteta i zloupotrebe te brze tokove rada za uklanjanje nakon što se sadržaj proširi. Cilj nije samo jezik politike, već alati koji izdržavaju upotrebu od strane suparnika.
Zašto OpenAI-jevi otpremanja stvarnih radnih dokumenata od strane izvođača radova izazivaju uzbunu?
Izvještaji navode da OpenAI (s partnerom za podatke o obuci) traži od izvođača radova da postave stvarne radne artefakte - dokumente, proračunske tablice, prezentacije i repozitorije - kako bi procijenili i poboljšali AI agente za kancelarijske zadatke. Zabrinutost je što se izvođačima radova govori da sami čiste osjetljive detalje, što može biti sklono greškama. Advokati za privatnost i intelektualno vlasništvo brinu se da je ova instrukcija za "uklanjanje povjerljivih stvari" previše dvosmislena za stvarne korporativne materijale.
Koji je značaj Allianzovog partnerstva s Anthropicem na "agentskoj umjetnoj inteligenciji" u osiguranju?
Allianz i Anthropic su opisali globalno partnerstvo usmjereno na produktivnost zaposlenika, operativnu automatizaciju korištenjem agentske umjetne inteligencije i usklađenost po dizajnu. Tokovi rada u osiguranju su složeni i strogo regulirani, tako da "agentski" često podrazumijeva automatizaciju višestepenih procesa bez gubitka odgovornosti. Naglasak na revizijskim tragovima i "čuvanju računa" odražava praktičnu stvarnost: automatizacija se skalira samo u reguliranim industrijama kada je i dalje provjerljiva i odbranjiva.