⚖️ Anthropic tuži kako bi blokirao stavljanje Pentagona na crnu listu zbog ograničenja korištenja umjetne inteligencije ↗
Anthropic je tužio Pentagon nakon što je označen kao rizik za lanac snabdijevanja. Kompanija tvrdi da je taj potez nezakonita odmazda zbog odbijanja ublažavanja zaštitnih mjera oko autonomnog oružja i domaćeg nadzora - što ovaj spor stavlja među najzapaljivije tačke u politici umjetne inteligencije trenutno. ( Reuters )
Vlada želi fleksibilnost za "bilo koju zakonitu upotrebu", dok Anthropic tvrdi da bi privatnim laboratorijama i dalje trebalo dozvoliti da postavljaju čvrste sigurnosne granice. Ovo je postao jedan od najjasnijih testova do sada o tome da li kompanija za vještačku inteligenciju može reći "ne" vojnim uslovima, a da zbog toga ne bude kažnjena. ( Reuters )
🧑💻 Zaposleni u OpenAI-ju i Googleu podržavaju tužbu Anthropica protiv Pentagona ↗
Ta tužba je brzo dobila podršku i unutar konkurentskih laboratorija. Gotovo 40 zaposlenika iz OpenAI-a i Googlea podržalo je Anthropic u podnesku amicus curiae, tvrdeći da odmazda protiv firmi zbog sigurnosnih crvenih linija u vezi s umjetnom inteligencijom krši javni interes. ( The Verge )
Dakle, da, konkurenti su se iznenada našli na istoj strani - barem po ovom pitanju. Sažetak se fokusira na masovni nadzor i nepouzdano autonomno oružje, što cijelu stvar čini manje sličnom standardnom snajperskom napadu u Silicijskoj dolini, a više kao prava industrijska linija u pijesku... ili blatu, možda. ( The Verge )
🛡️ OpenAI preuzima Promptfoo kako bi osigurao svoje AI agente ↗
OpenAI je saopštio da kupuje Promptfoo, startup fokusiran na zaštitu velikih jezičkih modela od napada neprijatelja. Plan je da se njihova tehnologija integriše u OpenAI Frontier, kompanijsku poslovnu platformu za AI agente. ( TechCrunch )
To je značajan potez. Svi žele da agentska umjetna inteligencija radi više, brže, svugdje - ali sigurnosna strana zaostaje, bilo malo ili mnogo. Ovaj dogovor sugerira da OpenAI misli da sljedeća velika utrka nije samo za pametnije agente, već i za sigurnije. ( TechCrunch )
🧪 Anthropic pokreće alat za pregled koda kako bi provjerio poplavu koda generiranog umjetnom inteligencijom ↗
Anthropic je predstavio Code Review unutar Claude Code-a, namijenjen timovima koji se utapaju u zahtjevima za povlačenjem (pull requests) kreiranim od strane AI alata za kodiranje. Koristi više agenata paralelno za skeniranje koda, označavanje logičkih problema, rangiranje ozbiljnosti i ostavljanje komentara direktno na GitHub-u. ( TechCrunch )
Prezentacija je dovoljno jednostavna - vještačka inteligencija generira kod brže nego što ga ljudi mogu razumno pregledati, tako da sada vještačka inteligencija mora pregledati vještačku inteligenciju. Pomalo nepredvidljiv aranžman, ali praktičan. Anthropic kaže da je usmjeren na poslovne korisnike koji već vide ogroman broj izlaznih kodova od Claude Codea. ( TechCrunch )
💰 Nscale, kojeg podržava Nvidia, procijenjen na 14,6 milijardi dolara u novoj rundi finansiranja ↗
Britanska kompanija Nscale, koja se bavi infrastrukturom umjetne inteligencije, prikupila je 2 milijarde dolara u rundi financiranja serije C, što je dostiglo vrijednost od 14,6 milijardi dolara. Među podržaocima su bili Aker, 8090 Industries, Nvidia, Citadel, Dell i Jane Street - što predstavlja prilično snažan glas povjerenja. ( Reuters )
Ovo je važno jer nije još jedno lansiranje modela ili podešavanje chatbota. To je strana procvata koja se temelji na pijucima i lopatama - računarstvo, infrastruktura, kapaciteti, sva teška mašinerija iza zavjese. Možda nije glamurozno, ali upravo tamo sada juri veliki dio novca. ( Reuters )
🧠 Yann LeCunova kompanija AMI Labs prikuplja 1,03 milijarde dolara za izgradnju modela svijeta ↗
Yann LeCunov novi poduhvat, AMI Labs, prikupio je 1,03 milijarde dolara uz procjenu od 3,5 milijardi dolara prije ulaganja. Kompanija juri za "svjetskim modelima" - sistemima umjetne inteligencije koji su namijenjeni učenju iz same stvarnosti, a ne prvenstveno iz jezika. ( TechCrunch )
To je direktan filozofski udarac trenutnom konsenzusu koji se temelji na LLM-u, i to prilično oštar. LeCun godinama tvrdi da nas današnji jezički modeli neće dovesti do inteligencije ljudskog nivoa, tako da ovo podizanje tog argumenta pretvara u vrlo skup eksperiment. ( TechCrunch )
🇨🇳 Kineski tehnološki centri promovišu OpenClaw AI agenta uprkos sigurnosnim upozorenjima ↗
Nekoliko kineskih lokalnih vlasti podržava OpenClaw, AI agenta koji se brzo širi uprkos sigurnosnim problemima povezanim s njegovim pristupom ličnim podacima. Dakle, čini se da je zvanično raspoloženje: da, postoje rizici - i da, hajde da ga ipak skaliramo. ( Reuters )
Ta podjela je glavna priča. Lokalni centri žele ekonomski rast i zamah ekosistema, dok regulatori upozoravaju na izloženost podataka. To je već poznati obrazac umjetne inteligencije - prvo sprintaj, kasnije sredi zaštitne ograde, ili se barem tako čini. ( Reuters )
Često postavljana pitanja
Zašto Anthropic tuži Pentagon zbog ograničenja korištenja umjetne inteligencije?
Anthropic kaže da je Pentagon to označio kao rizik za lanac snabdijevanja nakon što je kompanija odbila šire uslove koji bi se mogli proširiti na autonomno oružje i domaći nadzor. To znači da se tužba ne odnosi samo na status dobavljača. Testira se da li laboratorija za vještačku inteligenciju može održavati čvrsta sigurnosna ograničenja i dalje se takmičiti za vladine poslove bez kažnjavanja.
Zašto zaposleni u OpenAI-u i Googleu podržavaju Anthropic u ovom sporu oko sigurnosti umjetne inteligencije?
Izvještaj amicus curiae signalizira da mnogi ljudi unutar konkurentskih laboratorija ovo vide kao presedan u pitanju sigurnosti umjetne inteligencije, a ne samo kao borbu između jedne kompanije i jedne agencije. Njihova zabrinutost je da bi kažnjavanje dobavljača zbog održavanja crvenih linija moglo izvršiti pritisak na šire tržište da oslabi zaštitne mjere. U praksi, to bi moglo oblikovati način na koji se pregovara o budućim ugovorima o umjetnoj inteligenciji u sektoru odbrane i javnog sektora.
Šta bi slučaj Anthropic-Pentagon mogao promijeniti za politiku umjetne inteligencije i ugovore o odbrani?
Ako Anthropic pobijedi, kompanije koje se bave vještačkom inteligencijom mogle bi imati jači oslonac u definiranju neprihvatljive upotrebe čak i kada prodaju u osjetljivim vladinim okruženjima. Ako izgubi, agencije bi mogle dobiti prednost da od dobavljača zahtijevaju šire uslove za "zakonitu upotrebu". U svakom slučaju, ovaj spor će vjerovatno uticati na jezik nabavki, preglede rizika i način na koji se sigurnosne ograde upisuju u ugovore o odbrani.
Zašto je OpenAI kupio Promptfoo za AI agente?
Promptfoo je poznat po testiranju velikih jezičkih modela protiv protivničkih upita i drugih sigurnosnih slabosti. Integracija takve vrste alata u OpenAI-jevu platformu za poslovne agente sugerira da kompanija sigurnije raspoređivanje vidi kao konkurentsku prednost, a ne kao sporedni zadatak. Kako AI agenti preuzimaju sve više značajnog posla, testiranje otpornosti i zloupotrebe postaje mnogo teže ignorisati.
Kako timovi mogu sigurnije upravljati poplavom koda generiranog umjetnom inteligencijom?
Anthropicova nova funkcija pregleda koda unutar Claude Code-a namijenjena je timovima koji su preopterećeni zahtjevima za povlačenjem generiranim alatima za AI kodiranje. Koristi više agenata paralelno kako bi uočili logičke probleme, rangirali ozbiljnost i ostavljali komentare na GitHub-u. Alati poput ovog obično pomažu u trijaži obima, ali ljudski recenzenti su i dalje važni za arhitekturu, kontekst i konačno odobrenje.
Zašto se u infrastrukturu umjetne inteligencije trenutno ulaže toliko mnogo?
Najnovija runda finansiranja kompanije Nscale ističe da industrija vještačke inteligencije i dalje ulaže ogroman kapital u računarstvo, infrastrukturu i kapacitete. Ta potrošnja možda nije toliko vidljiva kao blještavo lansiranje modela, ali je temelj svega ostalog. Kada potražnja za obukom i implementacijom nastavi rasti, kompanije koje prodaju krampove i lopate često postaju jedni od najvećih pobjednika.
Šta su svjetski uzori i zašto se Yann LeCun kladi na njih?
Modeli svijeta su sistemi umjetne inteligencije dizajnirani da uče iz načina na koji se svijet ponaša, umjesto da se prvenstveno oslanjaju na jezičke podatke. To je važno jer Yann LeCun već dugo tvrdi da je malo vjerovatno da će jezički modeli sami po sebi dostići inteligenciju ljudskog nivoa. AMI Labs pretvara taj stav u veliku komercijalnu opkladu na drugačiji put za napredna istraživanja umjetne inteligencije.
Zašto kineski tehnološki centri podržavaju OpenClaw uprkos sigurnosnim upozorenjima?
Priča o OpenClawu pokazuje poznatu podjelu unutar brzorastućih tehnoloških tržišta: lokalne vlasti žele rast, subvencije i zamah ekosistema, dok regulatori brinu o izloženosti podataka i sigurnosti. Podržavanje agenta uprkos upozorenjima sugerira da ekonomski podsticaji prevladavaju na nekim mjestima. Za posmatrače, to je još jedan podsjetnik da usvajanje često ide brže od nadzora.