🤖 Čelnik hardvera OpenAI-a podnosi ostavku nakon dogovora s Pentagonom ↗
Šefica odjela za hardver i robotiku u OpenAI-u, Caitlin Kalinowski, odstupila je s dužnosti nakon dogovora kompanije s Pentagonom, rekavši da taj potez nije dobio dovoljno interne rasprave prije nego što su modeli odobreni za korištenje u tajnim obrambenim mrežama. Njena glavna briga bila je prilično direktna - ljudski nadzor, granice nadzora i rizik od prebrzog napredovanja smrtonosne autonomije. ( Reuters )
OpenAI tvrdi da sporazum uključuje dodatne zaštitne mjere i da i dalje zabranjuje domaći nadzor i upotrebu autonomnog oružja. Ipak, ostavka čini da cijela stvar manje liči na glatko ažuriranje politike, a više na zatvaranje protivpožarnih vrata usred sastanka. ( Reuters )
🏗️ Oracle i OpenAI odustaju od plana proširenja podatkovnog centra u Teksasu, izvještava Bloomberg News ↗
Oracle i OpenAI su navodno odustali od planova za proširenje svog velikog podatkovnog centra za umjetnu inteligenciju u Abileneu u Teksasu nakon što su se pregovori o finansiranju odužili, a potrebe OpenAI-ja za računarstvom su se promijenile. Lokacija je bila dio šireg projekta izgradnje infrastrukture Stargatea, tako da ovo nije nimalo malo. ( Reuters )
Postojeći kampus je i dalje u funkciji, a kompanije kažu da se šira izgradnja višegigavatne mreže nastavlja na drugim mjestima. Istovremeno, napušteno proširenje sada bi moglo otvoriti put za Metu, koja je navodno razmatrala iznajmljivanje lokacije. Infrastruktura umjetne inteligencije se stalno mijenja poput mokrog cementa - teška, skupa i nikad se sasvim ne smiri. ( Reuters )
⚖️ Pentagon označava Anthropic kao rizik za lanac snabdijevanja ↗
Pentagon je formalno označio Anthropic kao rizik za lanac snabdijevanja, ograničavajući upotrebu Claudea u ugovorima Ministarstva odbrane nakon što je kompanija odbila ublažiti zaštitne mjere protiv autonomnog oružja i masovnog nadzora. To je srž svega - borbe za nabavku koja je postala mnogo veća borba za vrijednosti. ( Reuters )
Anthropic tvrdi da potez nije pravno utemeljen i planira ga osporiti na sudu. Ova oznaka je neuobičajeno stroga za američku laboratoriju za vještačku inteligenciju i nalazi se usred šire podjele oko toga da li kompanije koje posluju na graničnim poljima trebaju uključivati stroža pravila u ugovore o odbrani ili vjerovati postojećem zakonu da će obaviti posao... što nisu svi spremni učiniti. ( Reuters )
💬 Meta će dozvoliti konkurentima umjetne inteligencije da koriste WhatsApp u pokušaju da spriječi akciju EU ↗
Meta kaže da će dozvoliti konkurentskim AI chatbotovima da koriste WhatsApp u Evropi godinu dana, koristeći Business API, nakon pritiska antimonopolskih regulatora EU. Konkurenti su se žalili da ih Meta efektivno blokira dok favorizuje vlastitog asistenta - što je suptilan detalj, s obzirom na to koliko je centralizirana distribucija postala u AI-ju. ( Reuters )
Kvaka je u tome što pristup dolazi s naknadama, a kritičari tvrde da to i dalje ostavlja manje rivale u nepovoljnom položaju. Regulatori odlučuju je li taj ustupak dovoljan, tako da ovo manje liči na mirovni sporazum, a više na dugme za pauzu umotano u papire. ( Reuters )
📜 xAI gubi pokušaj zaustavljanja zakona o otkrivanju podataka o umjetnoj inteligenciji u Kaliforniji ↗
xAI je izgubio pokušaj da blokira kalifornijski zakon koji zahtijeva od kompanija koje se bave umjetnom inteligencijom da otkriju više o podacima koji se koriste za obuku njihovih modela. Odbijanje suda da zaustavi zakon znači da se xAI sada suočava s istim pritiskom transparentnosti koji su drugi kreatori modela pokušavali, ponekad nespretno, izbjeći. ( Reuters )
Važno je jer borbe oko podataka o obuci više nisu samo akademske ili vezane za autorska prava - one postaju pitanje usklađenosti s propisima uživo. Za xAI, koji se već suočava s ponovljenim kontroverzama oko sigurnosti oko Groka, ovo dodaje još jedan teret u obliku regulatora. ( Reuters )
Često postavljana pitanja
Zašto je čelnik odjela za hardver i robotiku u OpenAI-ju dao ostavku nakon sporazuma s Pentagonom?
Caitlin Kalinowski je podnijela ostavku jer je vjerovala da odluka o odobravanju modela za tajne odbrambene mreže nije dobila dovoljno interne rasprave. Njene zabrinutosti su se odnosile na ljudski nadzor, ograničenja nadzora i rizik od prebrzog napredovanja smrtonosne autonomije. OpenAI je rekao da sporazum i dalje zabranjuje domaći nadzor i upotrebu autonomnog oružja, ali ostavka sugerira da interna debata nije u potpunosti riješena.
Šta zapravo znači to što Pentagon naziva Anthropicu rizikom za lanac snabdijevanja?
To znači da bi Claude bio ograničen za upotrebu u ugovorima Ministarstva odbrane, što predstavlja veliki korak u nabavkama. Prema članku, spor se fokusira na Anthropicovo odbijanje da oslabi zaštitne mjere vezane za autonomno oružje i masovni nadzor. Anthropic kaže da ta oznaka nije pravno utemeljena i planira je osporiti, tako da bi ovo moglo postati i sudska bitka i test politike.
Zašto je otkazano proširenje podatkovnog centra u Teksasu važno u vijestima iz industrije umjetne inteligencije?
Napušteno proširenje Abilenea je važno jer je bilo dio šireg napora za infrastrukturu Stargatea, povezujući ga s dugoročnim planiranjem AI računarstva. Reuters izvještava da postojeći kampus i dalje radi, ali da su kašnjenja u finansiranju i promjenjive potrebe za računarstvom dovele do toga da Oracle i OpenAI odustanu od proširenja. To također pokazuje koliko se brzo mogu promijeniti glavne investicije u AI infrastrukturu, čak i kada se šira izgradnja nastavi negdje drugdje.
Zašto Meta pušta konkurentske AI chatbotove na WhatsApp u Evropi?
Meta je poduzela ovaj potez nakon pritiska antimonopolskih regulatora EU i pritužbi da favorizira vlastitog asistenta, a istovremeno ograničava konkurente. Pristup je privremen i odvija se putem Business API-ja, tako da se ne smatra potpuno otvorenom politikom. Naknade se i dalje primjenjuju, što znači da manji konkurenti mogu nastaviti suočavati s praktičnim nedostacima čak i nakon ustupka.
Šta kalifornijski zakon o objavljivanju podataka o obuci za vještačku inteligenciju znači za xAI?
Odbijanje suda da blokira zakon znači da se xAI sada mora suočiti s dodatnim zahtjevima za transparentnost u vezi s podacima za obuku. To je važno jer su programeri modela često pokušavali izbjeći detaljno otkrivanje, posebno kada je izvor podataka osjetljiv ili osporavan. U praktičnom smislu, podaci za obuku postaju aktivno pitanje usklađenosti, umjesto da ostanu predmet debate o istraživačkim normama ili riziku od autorskih prava.
Šta je najvažnija stvar koju možemo zaključiti iz ovonedeljnih vijesti iz industrije veštačke inteligencije?
Zajednička nit je da se umjetna inteligencija manje oblikuje samo lansiranjem proizvoda, a više upravljanjem, infrastrukturom i propisima. Partnerstva u oblasti odbrane stvaraju unutrašnje sukobe, širenje računarstva se pokazuje skupim i fluidnim, a regulatori vrše jači pritisak na pristup i objavljivanje informacija. Članak, koji se bavi OpenAI-jem, Anthropic-om, Meta-om i xAI-jem, ukazuje na to da je industrija prisiljena da svoje kompromise učini vidljivijim.