🔐 OpenAI identificira sigurnosni problem koji uključuje alat treće strane, kaže da nije pristupljeno korisničkim podacima ↗
OpenAI je saopštio da je kompromitovani alat za razvojne programere treće strane uticao na proces koji koristi za certificiranje svojih macOS aplikacija kao legitimnih. Kompanija je saopštila da nije pronašla dokaze da je pristupljeno korisničkim podacima, da su njeni sistemi ili IP adrese kompromitovani ili da je njen softver izmijenjen - što je ključna stvar. ( Reuters )
Praktične posljedice su i dalje prilično ozbiljne. OpenAI je rotirao certifikate i krenuo u pooštravanje stvari kako lažne, ali uvjerljive ChatGPT aplikacije ne bi postale veći problem nego što bi trebale biti. Dakle, nije riječ o kršenju sigurnosti - ali je to jedan od onih trenutaka "ažurirajte svoju aplikaciju odmah". ( OpenAI )
🧯 Sam Altman odgovara na 'zapaljivi' članak u New Yorkeru nakon napada na njegov dom ↗
Sam Altman se javno usprotivio oštro kritičnom profilu jednog Njujorčanina nakon očiglednog napada na njegov dom, nazivajući dijelove profila obmanjujućim i ličnim. Čitava stvar djelovala je neobično sirovo za poziciju generalnog direktora - više defanzivno nego uglađeno, možda namjerno. ( TechCrunch )
Istovremeno, policija je uhapsila osumnjičenog za napad Molotovljem, povezanog s Altmanovom rezidencijom u San Franciscu, bez izvještaja o povrijeđenim. Tako je priča u trenu prešla iz medijske kritike u fizičku sigurnost - do sada je to postao pravi dio AI ritma. ( AP News )
🏗️ Bivši lideri OpenAI Stargate-a planiraju se pridružiti Meta platformama ↗
Navodno se tri visoke ličnosti povezane s OpenAI-jevim naporima za izgradnju Stargate infrastrukture odlaze u Metu. To nije samo odliv talenata - to je odliv talenata u računarskom ratu, koji se odvija drugačije kada se svi bore za podatkovne centre, čipove i energiju.
Zapošljavanje sugerira da Meta ne samo da troši mnogo na modele, već pokušava apsorbirati ljude koji znaju kako izgraditi industrijske vodovodne instalacije ispod njih. Možda je na površini suhoparno, ali tu se sada nalazi veliki dio utrke. ( Bloomberg )
🛡️ Pregled Claudea Mythosa ↗
Anthropic je saopštio da je njihov novi Mythos model dovoljno moćan u oblasti sajber sigurnosti da ga ne objavljuje široko, barem ne još. Umjesto toga, usmjerava se u strogo kontrolisane odbrambene napore, jer kompanija vjeruje da model može otkriti opasne softverske nedostatke u obimu koji je, pa, pomalo alarmantan. ( Red Anthropic )
Ta opreznost se već širi. Izvještaji kažu da američki zvaničnici i velike firme tretiraju skok u kapacitetu modela kao pravi problem sigurnosti infrastrukture, a ne samo kao još jedno blještavo lansiranje. Za promjenu, ciklus umjetne inteligencije nosi zaštitni pečat. ( Axios )
☁️ CoreWeave sklapa ugovor o AI cloudu s Anthropicom, dionice rastu ↗
CoreWeave je saopštio da će Anthropicu obezbijediti kapacitet računarstva u oblaku u okviru višegodišnjeg ugovora, a očekuje se da će kapacitet biti dostupan kasnije ove godine. To je još jedan podsjetnik da su uzorne kompanije i dalje brze samo onoliko koliko je brza infrastruktura ispod njih - glamurozni softver, brutalna fizička uska grla.
Za Anthropic, sporazum jača pristup računarstvu za liniju Claude. Za CoreWeave, to je još jedan znak da specijalizirani igrači u oblasti AI clouda nastavljaju povlačiti posao od apsolutno vrhunskog nivoa kreatora modela, koji - pomalo iznenađujuće - ostaje čvrst. ( Reuters )
💸 Nvidia podržava SiFive koji dostiže vrijednost od 3,65 milijardi dolara za otvorene AI čipove ↗
SiFive je dobio rundu ulaganja od 400 miliona dolara uz procjenu od 3,65 milijardi dolara, što je veliki glas povjerenja u otvoreni dizajn čipova za AI sisteme. Ovo još nije klimanje Nvidijinog trona, ne - ali pokazuje da investitori i dalje žele alternativne puteve u AI hardver.
Šira poenta je teško ne primijetiti. Vještačka inteligencija više nije samo priča o modelu, ili čak priča o čipu - ona postaje borba oko toga koji slojevi ostaju otvoreni, koji vlasnički i ko se plaća na svakoj stanici na pokretnoj traci. ( TechCrunch )
Često postavljana pitanja
Šta se dogodilo sa sigurnosnim problemom OpenAI macOS aplikacije?
OpenAI je saopštio da je kompromitovani alat za razvojne programere treće strane uticao na proces potpisivanja koji se koristi za certificiranje njihovih macOS aplikacija. Kompanija je također saopštila da nije pronašla dokaze da je pristupljeno korisničkim podacima, da su njihovi sistemi ili intelektualno vlasništvo kompromitovani ili da je njihov softver izmijenjen. Centralni problem je bilo povjerenje i autentičnost aplikacije, a ne potvrđeno kršenje sigurnosti podataka o korisnicima.
Trebam li ažurirati ChatGPT macOS aplikaciju nakon ovog OpenAI incidenta?
Da, ažuriranje aplikacije je praktična stvar. OpenAI je rotirao certifikate i pooštrio proces, tako da je manje vjerovatno da će lažne, ali uvjerljive ChatGPT aplikacije izazvati zabunu ili stvoriti rizik. U ovakvim slučajevima, najsigurniji korak je korištenje najnovije službene verzije i izbjegavanje preuzimanja desktop aplikacija iz neslužbenih izvora ili mirror stranica.
Zašto je problem s alatima za razvojne programere treće strane važan ako nisu ukradeni podaci?
Jer povjerenje u softver počiva na više od samog pristupa podacima. Ako je alat uključen u certifikaciju aplikacija kompromitovan, to može izazvati sumnju u to da li korisnici mogu pouzdano identificirati legitimni softver. U mnogim produkcijskim okruženjima, ta vrsta problema je važna jer utiče na sigurnost distribucije, povjerenje u ažuriranja i rizik od uvjerljivih pokušaja lažnog predstavljanja.
Zašto je zapošljavanje bivših lidera OpenAI Stargatea i drugih AI infrastrukturnih projekata toliko važno za Metu?
Ova zapošljavanja ukazuju na konkurenciju ispod sloja modela, gdje su podatkovni centri, čipovi, snaga i kapacitet implementacije jednako važni kao i istraživački talenti. Infrastruktura umjetne inteligencije postaje strateška prednost, a ne samo funkcija podrške. Članak sugerira da Meta pokušava ojačati industrijsku stranu umjetne inteligencije, a ne samo dodati više istraživača modela.
Šta je Anthropicov Mythos model i zašto bi kompanija ograničila njegovo izdavanje?
Anthropic je opisao Mythos kao dovoljno napredan u sajber sigurnosti da se drži pod strogom kontrolom, umjesto da se široko objavljuje. Čini se da postoji zabrinutost da bi moćan sistem za pronalaženje softverskih nedostataka mogao ponuditi odbrambenu vrijednost, a istovremeno povećati rizik od zloupotrebe. Uobičajen pristup u ovakvim situacijama je ograničen pristup, usko raspoređivanje i stroži nadzor.
Zašto su ugovori o AI infrastrukturi i finansiranje otvorenih čipova važni za šire tržište AI-a?
Oni pokazuju da utrku u AI sve više oblikuju pristup računarstvu i izbor hardvera, a ne samo karakteristike chatbotova. Sporazum CoreWeave-Anthropic naglašava kako modelne kompanije i dalje zavise od cloud kapaciteta, dok finansiranje SiFive-a signalizira interes investitora za alternative unutar AI čipova. Uzeti zajedno, ovi potezi sugeriraju da AI infrastruktura postaje ključno bojno polje za rast i kontrolu.