Vijesti o umjetnoj inteligenciji, 15. februar 2026

Pregled vijesti o umjetnoj inteligenciji: 15. februar 2026

🦞 Osnivač OpenClawa, Steinberger, pridružuje se OpenAI-u, bot otvorenog koda postaje fondacija

Peter Steinberger se kreće prema OpenAI-u kako bi promovirao "lične agente", dok će sam OpenClaw biti smješten u fondaciju kako bi ostao otvorenog koda (i podržan). Ta podjela je... pomalo pametna - unajmite kreatora, projekat ostavite javnim.

OpenClawova prezentacija je osvježavajuće praktična: trijaža e-pošte, papirologija osiguranja, prijave na letove, dosadni administrativni zadaci. Također je prenapuhan na GitHubu, a ta popularnost je izazvala sigurnosne probleme, posebno ako ga ljudi koriste nepažljivo.

🪖 Pentagon je "sit" otpora Anthropica zbog korištenja Claudeovog modela umjetne inteligencije od strane vojske, mogao bi prekinuti veze, navodi se u izvještaju

Suština spora: Pentagon želi širok pristup "u sve zakonite svrhe", a Anthropic i dalje pokušava zadržati stroga ograničenja oko potpuno autonomnog oružja i masovnog nadzora. To je vrsta neslaganja koja zvuči filozofski dok neko ne kaže: "Možda ćemo vas zamijeniti."

Jedna podcijenjena mana - zvaničnici ne žele da model iznenada blokira radne procese usred procesa, a ne žele ni zauvijek pregovarati o graničnim slučajevima (pošteno... ali i jao). Ovdje postoji stvarna napetost "ko drži ključeve", i ona nije suptilna.

🧠 Startup gradi model za predviđanje ljudskog ponašanja

Simile je privukao rundu od 100 miliona dolara kako bi izgradio model „ograničenog učenja“ s ciljem predviđanja šta bi ljudi mogli učiniti - uključujući, vrlo konkretno, predviđanje vjerovatnih pitanja u stvarima poput poziva na zaradu. Uska meta, velika ambicija, pomalo jeziva kombinacija.

Pristup se oslanja na intervjue sa stvarnim ljudima plus podatke iz istraživanja ponašanja, a zatim pokreće simulacije sa AI agentima koji su namijenjeni da odražavaju stvarne preferencije. To je kao pravljenje vremenskog modela za ljudske odluke... što zvuči nemoguće sve dok ne postane nemoguće.

🧑⚖️ Izvještaj: Bijela kuća vrši pritisak na zakonodavca Utaha da odbaci zakon o transparentnosti umjetne inteligencije

Inicijativa za transparentnost u oblasti vještačke inteligencije na nivou države Utah nailazi na direktne kritike Bijele kuće, a zvaničnici pozivaju predlagača zakona da ga ne ulaže u daljnji razvoj. Zakon se zasniva na transparentnosti i sigurnosti djece - što je teško osporiti samo na osnovu perspektive.

Ali veća borba je jurisdikcijska: ko postavlja pravila, države ili savezna vlada. I da, to je prepirka - kao da se dvije osobe hvataju za isti volan i insistiraju da su one one koje su smirenije.

🎬 ByteDance obećava da će spriječiti neovlaštenu upotrebu IP adrese na AI video alatu nakon Disneyjeve prijetnje

Disney je uputio zabranu u vezi s ByteDanceovim AI video generatorom, a ByteDance tvrdi da pojačava zaštitne mjere kako bi spriječio neovlaštenu upotrebu intelektualnog vlasništva i sličnosti. Žalba - navodno - je da alat može prikazati poznate likove iz franšize kao da su samo... naljepnice iz javnog domena.

To je sudar koji su svi predvidjeli: viralni AI video alati se brzo razvijaju, studiji pokreću sudske sporove, a "dodat ćemo zaštitne mjere" postaje standardni jezik izvinjenja. U obratu, tehnologija izgleda kao magija - a pravna strana izgleda kao gravitacija.

Često postavljana pitanja

Šta znači da se osnivač OpenClawa pridružio OpenAI-u, dok se OpenClaw preselio u fondaciju?

To signalizira podjelu između osobe koja gradi „lične agente“ i projekta koji ostaje javno vođen. Steinbergerovo pridruživanje OpenAI-u sugerira da će se tamo koncentrirati na unapređenje proizvoda u stilu agenata. Postavljanje OpenClawa u fondaciju ima za cilj da ga održi otvorenim i održivo podržanim. U praksi, cilj ovog poteza je očuvanje povjerenja zajednice dok graditelj ide tamo gdje su resursi.

Zašto su AI agenti u OpenClaw stilu fokusirani na poslove poput e-pošte i papirologije?

Budući da je posao "administrativnog života" repetitivan, zasnovan na pravilima i oduzima puno vremena, čini ga praktičnom metom za automatizaciju. Primjeri ovdje - trijaža e-pošte, papirologija osiguranja i prijava na let - su uski zadaci s jasnim kriterijima uspjeha. Taj fokus može učiniti da se agenti osjećaju vrijednima prije nego što to čine asistenti s otvorenijim mandatom. Također naglašava zašto su pažljive kontrole pristupa važne kada agenti diraju lične račune.

Kako možete implementirati AI agent otvorenog koda poput OpenClawa bez stvaranja sigurnosnih problema?

Tretirajte ga kao softver koji može vidjeti osjetljive podatke, a ne kao igračku skriptu. Uobičajeni pristup je zaključavanje akreditiva, ograničavanje dozvola na potreban minimum i vođenje logova i revizijskih tragova. Pokrenite ga u ograničenom okruženju i odvojite ga od sistema visoke vrijednosti. Mnoge sigurnosne brige proizlaze iz nepažljivog postavljanja, posebno kada ljudi izlažu krajnje tačke ili tokene bez jakih zaštitnih mjera.

Zašto je Pentagon nezadovoljan Anthropicovim ograničenjima za Claudea za vojnu upotrebu?

Spor se fokusira na opseg i kontrolu: Pentagon želi širok pristup "u sve zakonite svrhe", dok se Anthropic opisuje kao sistem koji održava stroga ograničenja oko potpuno autonomnog oružja i masovnog nadzora. Zvaničnici također ne žele da modeli blokiraju radne procese usred procesa ili da zahtijevaju beskrajne pregovore o graničnim slučajevima. Ta napetost je manje apstraktna nego što zvuči - radi se o tome ko odlučuje šta model može učiniti u stvarnim operacijama.

Kako startupi pokušavaju predvidjeti ljudsko ponašanje pomoću umjetne inteligencije i zašto se to čini kontroverznim?

Primjer ovdje, Simile, slijedi model "ograničenog učenja" usmjeren na predviđanje onoga što bi ljudi mogli učiniti, uključujući predviđanje vjerovatnih pitanja u kontekstima poput poziva o zaradi. Opisani pristup kombinira intervjue s podacima bihevioralnih istraživanja i simulacijama koristeći AI agente namijenjene odražavanju stvarnih preferencija. Djeluje jezivo jer pomiče AI od reagiranja na ljude do njihovog predviđanja. Izazov je držati tvrdnje ograničenima i izbjegavati pretjerano samopouzdanje.

Šta se dešava kada AI video alati generišu likove zaštićene autorskim pravima, kao u sukobu ByteDance-a i Disney-a?

Prijavljeni obrazac je poznat: studio izdaje nalog o prekidu i odustajanju, a platforma reaguje jačanjem zaštitnih mjera kako bi spriječila neovlaštenu upotrebu intelektualnog vlasništva ili sličnosti. U mnogim alatima, zaštitne mjere znače strože filtere sadržaja, poboljšano otkrivanje prepoznatljivih likova i jasniju provedbu korisničkih politika. Osnovni sukob je brzina naspram odgovornosti - generiranje viralnih podataka se brzo kreće, a provođenje prava djeluje poput gravitacije. Očekujte još ovakvih sudara kako se generatori video zapisa budu širili.

Jučerašnje vijesti o umjetnoj inteligenciji: 13. februar 2026

Pronađite najnoviju umjetnu inteligenciju u službenoj trgovini AI Assistant

O nama

Nazad na blog