🏗️ Politico izvještava da SAD podstiču kompanije ka novom "kompaktu" za podatkovne centre umjetne inteligencije ↗
Navodno, SAD pokušavaju nagovoriti velike firme da potpišu novi "sporazum" za podatkovne centre umjetne inteligencije - u suštini skup obaveza o tome kako bi se trebalo rukovati ovim ogromnim računalnim objektima.
Detalji su još uvijek pomalo magloviti (klasika), ali smjer se čini poznatim: standardizacija očekivanja u vezi s energijom, sigurnošću i eventualno izvještavanjem - uljudna verzija politike "molim vas, ne dozvolite da se ovo pretvori u haos"
🎬 Autodesk tuži Google zbog softvera za snimanje filmova pokretanog umjetnom inteligencijom ↗
Autodesk tuži Google zbog imena "Flow", tvrdeći da je već koristio "Flow" za softver za produkciju i upravljanje vizuelnim efektima - a Googleov alat za izradu filmova zasnovan na vještačkoj inteligenciji stigao je pod istim brendiranjem.
Oštriji detalj je tvrdnja da je Google prethodno nagovijestio da neće komercijalizirati ime... a onda je ipak nastavio i tražio zaštitne znakove. To je borba za zaštitne znakove, sigurno, ali ona također nosi energiju malog obima "velika platforma protiv specijaliziranog proizvođača alata".
🏥 Studija pokazuje da umjetna inteligencija nije bolja od drugih metoda za pacijente koji traže medicinski savjet ↗
Nova studija je otkrila da korištenje umjetne inteligencije za medicinske savjete pacijenata nije nadmašilo druge pristupe - što ne iznenađuje i pomalo umiruje, ovisno o tome koliko ste se trudili provjeravati simptome.
To ne znači da je vještačka inteligencija beskorisna u zdravstvu - samo da "pitajte bota" nije automatski nadogradnja u odnosu na postojeće opcije, posebno kada su tačnost i sigurnost cijela poenta.
🩺 Aplikacije i botovi pokretani umjetnom inteligencijom prodiru u medicinu. Doktori imaju pitanja. ↗
Istraga istražuje kako se zdravstvene aplikacije i chatbotovi zasnovani na umjetnoj inteligenciji šire u kliničke prostore - ponekad brže nego što smjernice, nadzor ili obični dokazi mogu pratiti taj tempo.
Doktori izražavaju zabrinutost zbog pouzdanosti, štete za pacijente i ko je odgovoran kada bot daje savjete koji zvuče samouvjereno, ali pogrešno... poput navigacijskog uređaja koji insistira da se odvezete u jezero, osim uz pomoć lijekova.
📈 Izvršni direktor OpenAI-a kaže da se ChatGPT vratio na preko 10% mjesečnog rasta, izvještava CNBC ↗
Izvršni direktor OpenAI-a je navodno rekao da se ChatGPT vratio na mjesečni rast od preko 10% - što je velika stvar ako pretpostavimo da je faza "svi su ga već probali" dostigla vrhunac.
To sugerira da ili novi korisnici i dalje pristižu ili postojeći korisnici pronalaze više razloga da ostanu - ili oboje. U svakom slučaju, proizvod se ponaša manje kao prolazni hir, a više kao infrastruktura... ili se barem tako čini.
Često postavljana pitanja
Šta je predloženi "sporazum" o centrima podataka umjetne inteligencije koji SAD promoviraju?
Opisuje se kao skup obaveza na koje bi velike firme pristale prilikom izgradnje ili upravljanja velikim AI podatkovnim centrima. Namjera je standardizirati očekivanja kako ovi masovni računarski projekti ne bi postali raspršeni ili nekonzistentni među kompanijama. Iako specifičnosti još uvijek zvuče nejasno, naglasak se čini da je na praktičnoj teritoriji: potrošnja energije, sigurnost i eventualno neki oblik izvještavanja.
Zašto bi SAD željele da kompanije potpišu sporazum o podatkovnim centrima umjetne inteligencije?
Sporazum može uspostaviti zajednička osnovna očekivanja bez prisiljavanja zakonodavaca da izrade novo pravilo za svaki granični slučaj. S obzirom na to da se centri za podatke umjetne inteligencije brzo šire, kreatori politika često brinu o utjecaju na mrežu, sigurnosnim rizicima i operativnoj transparentnosti. Uobičajena strategija je rano usklađivanje najvećih igrača, kako bi se dobre prakse brže širile, a odgovornost lakše pratila ako se pojave problemi.
Koje vrste obaveza bi mogle biti uključene u sporazum o AI podatkovnom centru?
Na osnovu onoga što je predloženo, obaveze bi mogle obuhvatiti planiranje energije (kako se energija nabavlja i upravlja njome), sigurnosne mjere (fizičke i sajber) i neki oblik izvještavanja ili objavljivanja. U mnogim procesima, izvještavanje postaje "lakši" sloj koji standarde čini čitljivim i mjerljivim. Ako je sporazum dobrovoljan, te obaveze mogu biti oblikovane kao smjernice koje kasnije pomažu u oblikovanju regulacije.
Šta je tužba protiv Googleovog alata za pravljenje filmova pomoću umjetne inteligencije pod nazivom "Flow"?
Autodesk tuži Google zbog imena "Flow", tvrdeći da Autodesk već koristi "Flow" za softver za produkciju i upravljanje vizuelnim efektima. Spor je predstavljen kao sukob zaštitnog znaka i brendiranja, uz tvrdnju da je Google ranije sugerirao da neće komercijalizovati ime, ali je kasnije ipak tražio zaštitne znakove. Ovi slučajevi se često zasnivaju na prioritetu brenda i vjerovatnoći zabune.
Šta znači da vještačka inteligencija nije bila bolja od drugih metoda za medicinske savjete pacijenata?
To sugerira da "pitajte bota" nije automatski preciznije ili sigurnije od postojećih načina na koje pacijenti traže smjernice. To može djelovati umirujuće ako ste zabrinuti zbog previše samouvjerenih odgovora provjerivača simptoma ili chatbotova. To ne isključuje potencijalnu vrijednost umjetne inteligencije u zdravstvu, ali naglašava potrebu za dokazima, nadzorom i pažljivom integracijom tamo gdje greške mogu uzrokovati štetu.
Zašto su doktori zabrinuti zbog zdravstvenih aplikacija i chatbotova pokretanih umjetnom inteligencijom?
Doktori se brinu o pouzdanosti, šteti za pacijente i ko je odgovoran kada alat daje pouzdane, ali netačne savjete. Problem nije samo tačnost; već i to kako pacijenti interpretiraju rezultate i da li sistem podstiče ljude ka nesigurnom samoupravljanju. U kliničkim okruženjima, nejasna odgovornost može postati veliki rizik: pacijenti mogu vjerovati alatu, kliničari ga možda ne kontrolišu, a smjernice mogu zaostajati za usvajanjem.