🏫 U nekim školama, chatbotovi ispituju učenike o njihovom radu. Ali revolucija umjetne inteligencije zabrinula je nastavnike ↗
Neke australijske škole isprobavaju oštriji pristup "pokaži svoj rad" - učenici završe zadatak, a zatim ih chatbot s umjetnom inteligencijom ispituje naprijed-nazad kako bi provjerio da li razumiju ono što su predali. To je u osnovi usmeni ispit, ali s mašinom koja pita "šta time misliš?" sve dok se ne počneš meškoljiti.
Veća briga je neravnomjerno uvođenje: jedan industrijski rad upozorava da bi brzi korisnici mogli brzo napredovati dok drugi zaostaju, stvarajući obrazovni sistem s dvije brzine. Nastavnici također stalno ističu poznate - i još uvijek ozbiljne - probleme: privatnost, dobrobit i kako spriječiti da "pomoć umjetne inteligencije" padne u "umjetna inteligencija je to uradila".
👮 Metropolitanska policija koristi alate umjetne inteligencije koje je obezbijedio Palantir kako bi prijavila nedolično ponašanje policajaca ↗
Londonski Metropolitanski poligon koristi vještačku inteligenciju koju isporučuje Palantir za analizu internih obrazaca radne snage - bolesti, odsustva, prekovremeni rad - tražeći signale koji bi mogli biti u korelaciji s problemima profesionalnih standarda. Projekt je predstavljen kao vremenski ograničen pilot projekat i, što je ključno, Metropolitanski poligon kaže da ljudi i dalje donose stvarne odluke... ali da to „i dalje“ obavlja mnogo posla.
Policijska federacija nije oduševljena, nazivajući to "automatiziranom sumnjom" i upozoravajući na neprozirne alate koji pogrešno tumače stres i opterećenje poslom kao nepravilnosti. To je jedan od onih trenutaka kada tehnologija zvuči uredno na slajdu, a zatim zamislite kako se osjeća na terenu i postane oštro bodljikava.
🛡️ Britanska agencija za zaštitu privatnosti u zajedničkoj izjavi upozorava na slike generirane umjetnom inteligencijom ↗
Britanski ICO pridružio se drugim regulatorima u zajedničkom upozorenju o slikama generiranim umjetnom inteligencijom koje prikazuju prepoznatljive osobe bez njihovog pristanka - u osnovi: ne tretirajte "to je sintetičko" kao magični izgovor. Poruka je da se rano izgrade zaštitne mjere i angažuju regulatori umjesto klasičnog tehnološkog poteza prvo slanja, a kasnije izvinjenja.
Oni također ističu povećane rizike za djecu, što ima smisla, jer kada se ovo proširi, to je kao da pokušavate vratiti šljokice u teglu. Poenta je da su privatnost i dostojanstvo namijenjeni preživljavanju modnog ciklusa, ili se barem tako čini.
🪖 Američki ministar odbrane Hegseth pozvao je izvršnog direktora Anthropica na teške razgovore o vojnoj upotrebi Claudea, izvještava Axios ↗
Reuters izvještava da će se američki ministar odbrane sastati s izvršnim direktorom Anthropica radi, kako je opisano, konfrontacijskijeg razgovora o vojnoj upotrebi Claudea. Pentagon navodno želi da glavni dobavljači umjetne inteligencije stave modele na raspolaganje na tajnim mrežama s manje ograničenja - a Anthropic se opire svakom ublažavanju zaštitnih mjera.
Podtekst se čita kao klasična dilema "brzo se kretati, ali... s uključenim raketama". Ako se strane ne mogu dogovoriti o zaštitnim ogradama, odnos bi se mogao zategnuti ili čak pući - ipak, Anthropic također signalizira da razgovori s vladom ostaju konstruktivni, tako da je situacija napeta, ali (još) ne predstavlja potpuni prekid.
🧠 ChatGPT - Bilješke o izdanju ↗
Bilješke o izdanju OpenAI-a ukazuju na prošireni kontekstni prozor za režim "Razmišljanja" - što znači da modelu možete dati više teksta i održavati duže niti koherentnim bez gubitka ranijih detalja. Ako ste ikada vidjeli kako model "zaboravlja" nešto što ste doslovno upravo rekli (bol), ovo je upravo usmjereno na to.
To je vrlo štreberska nadogradnja koja tiho mijenja ono što je praktično: duža dokumentacija, zamršeniji projekti, više opsežnih istraživačkih sesija. Nije glamurozno, ali je to vrsta promjene vodovodnih instalacija koja odjednom čini da cijela kuća izgleda veća.
Često postavljana pitanja
Šta znači kada škole koriste chatbotove za "ispitivanje" učenika o zadacima?
U nekim australijskim školama, učenici završe zadatak, a zatim prolaze kroz razgovor s AI chatbotom koji ispituje njihovo razmišljanje. To funkcionira kao usmeni intervju, prisiljavajući učenike da objasne šta su napisali i zašto. Svrha je provjeriti razumijevanje, a ne samo rezultate. Također može otkriti praznine kada učenik ne može odbraniti ključne tvrdnje.
Kako bi AI chatbotovi u školama mogli stvoriti „dvobrzinski“ obrazovni sistem?
Jedan industrijski rad upozorava da bi škole koje se brzo prilagođavaju mogle napredovati, dok bi škole koje se sporije prilagođavaju mogle dodatno nazadovati. Ako neke škole primjene alate umjetne inteligencije za procjenu razumijevanja, podršku učenju ili odvraćanje od zloupotrebe, mogle bi brže poboljšati rezultate. Druge možda nemaju budžet, kapacitet osoblja ili jasnoću politika za uvođenje uporedivih sistema. To neravnomjerno usvajanje može proširiti postojeće jazove u resursima i postignućima.
Kako nastavnici pokušavaju spriječiti da se "AI pomoć" pretvori u "AI je to uradio"?
Uobičajeni pristup je pomjeranje ocjenjivanja prema procesu i objašnjenju, a ne samo prema gotovom proizvodu. Postavljanje pitanja u stilu chatbota, nacrti, refleksije ili usmene provjere mogu otežati predaju rada koji ne razumijete. Nastavnici također mogu postaviti čvršće granice u pogledu prihvatljive pomoći, kao što je brainstorming naspram potpunog prepisivanja. Naglasak ostaje na demonstraciji razumijevanja, a ne na kontroli svakog alata.
Koji problemi s privatnošću i dobrobiti se javljaju kada se umjetna inteligencija koristi u učionicama?
Nastavnici stalno izražavaju zabrinutost o tome koji se podaci o učenicima prikupljaju, gdje se pohranjuju i ko im može pristupiti. Postoje i zabrinutosti za dobrobit ako se učenici osjećaju stalno nadziranim ili pod pritiskom mašinski vođenih ispitivanja. Djeca su posebna rizična grupa, jer se osjetljive informacije mogu širiti ili ostati u sistemima na neočekivane načine. Mnoge škole nastoje rano uspostaviti zaštitne mjere, umjesto da ih pokušavaju naknadno ugraditi.
Kako Metropolitanska policija koristi vještačku inteligenciju koju isporučuje Palantir za označavanje potencijalnog nedoličnog ponašanja policajaca?
Londonski Metropolitanski poligon koristi vještačku inteligenciju koju je obezbijedio Palantir za analizu obrazaca radne snage, kao što su bolovanje, odsustva i prekovremeni rad. Cilj je uočiti signale koji bi mogli biti u korelaciji s problemima profesionalnih standarda. Opisan je kao vremenski ograničen pilot projekat, a Metropolitanski poligon kaže da ljudi i dalje donose odluke. Kritičari tvrde da alat može djelovati kao "automatizirana sumnja" ako stres tumači kao nedjelo.
Zašto su policijski sindikati zabrinuti zbog „automatske sumnje“ koju izazivaju alati za nadzor zasnovani na vještačkoj inteligenciji?
Policijska federacija zabrinuta je da neprozirni modeli mogu zaključiti o nedoličnom ponašanju iz obrazaca koji imaju benigna objašnjenja. Nagli porasti obima posla, zdravstveni problemi i stres mogu utjecati na prisutnost ili prekovremeni rad bez impliciranja nepravilnosti. Ako logika alata nije transparentna, policajcima postaje teže osporiti zastavice ili menadžerima kalibrirati pravedne pragove. Čak i uz ljudske odluke, automatizirani signali i dalje mogu oblikovati ishode.
Na šta upozorava britanski ICO u vezi sa slikama osoba koje se mogu identifikovati generisanim pomoću vještačke inteligencije?
Britansko tijelo za zaštitu privatnosti pridružilo se drugim regulatorima u upozorenju da „sintetičko“ ne znači bez posljedica. Ako slika generirana umjetnom inteligencijom prikazuje prepoznatljivu osobu bez pristanka, rizici za privatnost i dostojanstvo i dalje važe. Regulatori naglašavaju rano uspostavljanje zaštitnih mjera i angažman nadzora, a ne prvo isporuku. Također upozoravaju na povećane rizike za djecu, gdje se šteta može brzo proširiti nakon što se sadržaj proširi.
Šta stoji iza navodnog pritiska Pentagona na Anthropic u vezi vojne upotrebe Claudea?
Reuters izvještava da će se američki ministar odbrane sastati s izvršnim direktorom Anthropica radi oštrijih razgovora o vojnoj upotrebi Claudea. Pentagon navodno želi da glavni dobavljači umjetne inteligencije stave modele na raspolaganje na tajnim mrežama s manje ograničenja. Anthropic se opire labavijim zaštitnim mjerama, ukazujući na sukob oko zaštitnih ograda. Odnos zvuči napeto, iako obje strane signaliziraju da razgovori ostaju konstruktivni.
Šta se promijenilo u bilješkama o izdanju ChatGPT-a u vezi sa dužinom konteksta u režimu „Razmišljanje“?
Bilješke o izdanju OpenAI-a ukazuju na prošireni kontekstni prozor za način rada "Razmišljanje", što omogućava da se više teksta smjesti unutar jedne niti. U praksi, to može pomoći s dugim dokumentima, složenim projektima i višestepenim istraživanjima gdje su raniji detalji važni. To je nadogradnja u stilu vodoinstalatera, a ne blještava funkcija. Glavna prednost je manji broj izgubljenih detalja tokom dužih sesija.