🌍 OpenAI nastoji povećati globalnu upotrebu umjetne inteligencije u svakodnevnom životu ↗
OpenAI promovira inicijativu za usvajanje koja je više "usmjerena na pojedine zemlje" - glavna ideja je: prestanite tretirati umjetnu inteligenciju kao laboratorijsku igračku i počnite je uključivati u javne usluge s kojima se ljudi svakodnevno susreću.
Nekoliko spomenutih primjera uključuje implementaciju u obrazovanju (npr. alati u stilu ChatGPT-a koji se koriste u velikim razmjerima), plus rad na praktičnim sistemima poput ranih upozorenja na katastrofe povezane s vodom. To je vrlo jednostavna poruka u stilu „ovo bi trebalo biti tiho praktično“, koja mi se ne može ne svidjeti... čak i ako je to, znate, i poslovna strategija.
⚡ OpenAI obećava da će sniziti troškove energije za Stargate ↗
OpenAI kaže da će pokriti troškove energije povezane s izgradnjom svog podatkovnog centra Stargate, obrazlažući to kao da ne želi povećati lokalne cijene električne energije za sve ostale.
To može značiti finansiranje novih energetskih kapaciteta, skladištenja, nadogradnje prenosa ili druge infrastrukture koja sprečava da mreža stenje pod opterećenjem. To je dijelom stav dobrog građanina, dijelom preventivna politika - obje stvari mogu biti istinite istovremeno, što je iritantno.
🎧 OpenAI planira isporučiti svoj prvi uređaj 2026. godine, a to bi mogle biti slušalice ↗
Glasine o OpenAI hardveru se gomilaju, a ova kaže da bi prvi uređaj mogle biti slušalice - "AI-prvi" uređaj koji nosite, a ne samo aplikacija koju otvarate.
Priča se o kodnom imenu („Sweet Pea“) i agresivnim silikonskim ambicijama, s više obrade koja se odvija na uređaju, umjesto da se uvijek prenosi u oblak. Zamjena navika ljudi o slušalicama je kao pokušaj preusmjeravanja rijeke kašikom... ali hej, luđe opklade na proizvode su urodile plodom.
📜 Anthropic-ov novi Claudeov 'ustav': budite korisni i iskreni i ne uništavajte čovječanstvo ↗
Anthropic je objavio ažurirani „Claudeov ustav“ - u osnovi nacrt vrijednosti i ponašanja koji ima za cilj oblikovati kako Claude reaguje, obrazlaže i odbija.
Postavlja oštrije granice oko zaista opasnih stvari (oružje, šteta velikih razmjera, otimanje moći, najveći tmurni hitovi), a istovremeno se oslanja na nijansiranije "principe" umjesto krutih pravila. Jedan iznenađujuće pikantan dio: otvoreno razmatra neizvjesnost o tome da li napredne umjetne inteligencije zaslužuju moralno razmatranje - ne tvrdeći da zaslužuju, već samo tretirajući pitanje kao živo.
🛡️ Nove sigurnosne funkcije i funkcije detekcije putem umjetne inteligencije za Google Workspace for Education ↗
Google je najavio nove sigurnosne funkcije za Workspace for Education, sa značajnim fokusom na detekciju i verifikaciju sadržaja generisanog vještačkom inteligencijom - jer se dezinformacije u školama šire kao šljokice i nikada u potpunosti ne napuštaju tepih.
Jedan od istaknutih elemenata je verifikacija povezana sa SynthID-om za slike i video generirane umjetnom inteligencijom u aplikaciji Gemini, uz jače zaštite poput otkrivanja ransomwarea i lakšeg oporavka datoteka za Drive na računaru. To je spoj ozbiljnog rada na sigurnosti i principa „molimo vas da nam vjerujete u učionicama“, što je... iskreno, pošteno.
🚫 Izvršni direktor Google DeepMind-a ponavlja da "nema planova" za Gemini oglase, iznenađen što ih je ChatGPT dodao "tako rano" ↗
Demis Hassabis iz DeepMind-a ponovio je da Gemini nema planove za oglase i zvučao je pomalo iznenađeno što je ChatGPT prešao na oglase „tako rano“
To je čist potez pozicioniranja - asistent-kao-proizvod, a ne asistent-kao-bilbord. Uz to rečeno, „nema planova“ je korporativni izraz za „pitajte me ponovo kasnije“, tako da... vidjet ćemo koliko će se to obećanje pokazati čvrstim.
🏛️ Nove smjernice će pomoći Velikoj Britaniji da efikasno i odgovorno reguliše vještačku inteligenciju ↗
Institut Alan Turing objavio je okvir regulatornih kapaciteta i alat za samoprocjenu s ciljem da pomogne regulatorima u Velikoj Britaniji da procijene da li su opremljeni za nadzor umjetne inteligencije.
To je vrlo neglamurozno - kontrolne liste, faktori sposobnosti, izjave o tome „kako izgleda dobro“ - ali to je otprilike poenta. Pravo upravljanje obično izgleda kao papirologija sa oštrim ivicama, a ne kao blještavi govornici... ili se barem tako čini.
Često postavljana pitanja
Kakav je OpenAI-jev "državno fokusiran" napor za povećanje globalne upotrebe umjetne inteligencije u svakodnevnom životu?
To je odmak od tretiranja umjetne inteligencije kao samostalnog proizvoda i prelazak na njeno uključivanje u javne usluge na koje se ljudi svakodnevno oslanjaju. Cilj je povezati umjetnu inteligenciju s praktičnim sistemima koji zahtijevaju mnogo dodira, umjesto da se ostavi nasukana u "laboratorijskim" demonstracijama. Spomenuti primjeri uključuju velike obrazovne implementacije i sigurnosne alate usmjerene prema javnosti. Predstavlja se kao tiho koristan proizvod, čak i kada podržava širu strategiju usvajanja OpenAI-ja.
Kako bi se OpenAI-jev plan mogao pojaviti u javnim uslugama poput obrazovanja ili odgovora na katastrofe?
U obrazovanju, koncept se zasniva na alatima u stilu ChatGPT-a koji se primjenjuju u velikim razmjerima, tako da škole mogu uključiti vještačku inteligenciju u rutinske tokove učenja. U odgovoru na katastrofe, OpenAI je istakao sisteme ranog upozoravanja povezane s vodom kao primjer „tiho praktične“ infrastrukture. Zajednička nit je pomoć pružena u trenutku potrebe, s alatima ugrađenim u postojeće usluge. Uspjeh bi vjerovatno zavisio od pouzdanosti, nadzora i utemeljene integracije.
Zašto je OpenAI rekao da će pokriti troškove energije za izgradnju podatkovnog centra Stargate?
OpenAI je to predstavio kao napor da se ne povećaju lokalne cijene električne energije dodavanjem ogromne nove potražnje u mrežu. Pokrivanje troškova moglo bi uključivati finansiranje novih energetskih kapaciteta, skladištenja, nadogradnje prijenosa ili druge infrastrukture koja smanjuje opterećenje. To se pozicionira i kao potez dobrog susjedstva i kao način da se spriječi politički i društveni otpor. U praksi, to signalizira da su energetski utjecaji sada ključni za planove skaliranja umjetne inteligencije.
Šta je najnovije u vezi sa glasinama o OpenAI hardveru - da li su slušalice "prve klase AI" zaista moguće?
Izvještaji sugeriraju da OpenAI namjerava isporučiti svoj prvi uređaj 2026. godine, sa slušalicama kao potencijalnim oblikom. Koncept je "AI-prvi" nosivi uređaj koji se koristi kontinuirano, a ne samo aplikacija koju otvarate. Priča se o kodnom nazivu ("Sweet Pea") i ambicijama za veću obradu na uređaju, umjesto da se u potpunosti oslanja na oblak. Taj pristup bi mogao učiniti interakcije bržim i privatnijim, ovisno o implementaciji.
Šta je Anthropicov ažurirani "Claudeov ustav" i šta on mijenja?
To je objavljeni nacrt vrijednosti i ponašanja osmišljen da oblikuje način na koji Claude odgovara, obrazlaže i odbija zahtjeve. Ažuriranje naglašava oštrije granice oko zaista opasnih područja poput oružja, štete velikih razmjera i ponašanja usmjerenog na traženje moći. Također se naginje nijansiranijim "principima" umjesto krutim pravilima. Značajno je da pitanje moralnog razmatranja za napredne umjetne inteligencije tretira kao otvoreno pitanje, a ne kao riješenu tvrdnju.
Koje nove sigurnosne funkcije i funkcije detekcije putem umjetne inteligencije je Google dodao u Workspace for Education?
Google je najavio jaču zaštitu Workspace for Education, uključujući fokus na otkrivanje i verifikaciju sadržaja generiranog umjetnom inteligencijom. Jedan od istaknutih elemenata je verifikacija povezana sa SynthID-om za slike i video generirane umjetnom inteligencijom u aplikaciji Gemini. Ažuriranje također spominje otkrivanje ransomwarea i lakši oporavak datoteka za Drive na računaru. Sveukupno, pozicionirano je kao sigurnosni rad usmjeren na učionicu s ciljem pomoći školama u efikasnijem upravljanju dezinformacijama i incidentima.
Hoće li Googleov Gemini prikazivati oglase i zašto je DeepMind komentarisao da ih ChatGPT dodaje?
Izvršni direktor DeepMinda, Demis Hassabis, ponovio je da Gemini "nema planova" za oglase i izrazio iznenađenje što je ChatGPT prešao na oglase "tako rano". Ta poruka pozicionira Gemini kao asistenta kao proizvod, a ne kao asistenta kao reklamnu ploču. Istovremeno, "nema planova" ostavlja prostora za buduće promjene bez davanja obavezujućeg obećanja. Za korisnike, to naglašava rastuću podjelu poslovnih modela kod potrošačkih AI asistenata.
Šta je namijenjen okviru regulatornih kapaciteta za vještačku inteligenciju Instituta Alan Turing?
To je okvir regulatornih kapaciteta i alat za samoprocjenu koji ima za cilj pomoći regulatorima u Velikoj Britaniji da procijene da li su opremljeni za efikasan nadzor nad vještačkom inteligencijom. Pristup je namjerno neprivlačan: kontrolne liste, faktori sposobnosti i izjave o tome „kako dobro izgleda“. Cilj je učiniti upravljanje operativnim, a ne samo aspirativnim. Najkorisniji je za regulatore i timove za politiku koji trebaju identificirati nedostatke prije nego što se pojača provođenje ili nadzor.