Kratak odgovor: Vještačka inteligencija je otišla predaleko kada se koristi u donošenju odluka s visokim ulozima, nadzoru ili uvjeravanju bez čvrstih ograničenja, informiranog pristanka i istinskog prava na žalbu. Ponovo prelazi granicu kada deepfakeovi i skalabilne prevare učine da se povjerenje osjeća kao kockanje. Ako ljudi ne mogu reći da je vještačka inteligencija igrala ulogu, ne mogu shvatiti zašto je odluka donesena onako kako jest ili ne mogu odustati, već je otišla predaleko.
Ključne zaključke:
Granice: Definišu šta sistem ne može da uradi, posebno kada je neizvesnost visoka.
Odgovornost: Osigurati da ljudi mogu poništiti ishode bez kazni ili zamki vremenskog pritiska.
Transparentnost: Obavijestite ljude kada je uključena vještačka inteligencija i zašto je donijela svoje odluke.
Osporivost: Omogućiti brze, izvodljive puteve žalbe i jasne načine za ispravljanje loših podataka.
Otpornost na zloupotrebu: Dodajte porijeklo, ograničenja brzine i kontrole kako biste suzbili prevare i zloupotrebe.
"Je li vještačka inteligencija otišla predaleko?"
Neobično je to što prelazak granice nije uvijek očigledan. Ponekad je glasan i blještav, poput deepfake prevare. ( FTC , FBI ) Drugi put je tih - automatizirana odluka koja vam bez ikakvog objašnjenja skrene život s puta, a vi čak ni ne shvatate da ste "proglašeni" ( UK ICO , GDPR čl. 22 )
Dakle... Je li vještačka inteligencija otišla predaleko? Na nekim mjestima, da. Na drugim mjestima, nije otišla dovoljno daleko - jer se koristi bez neprivlačnih, ali bitnih sigurnosnih ograda koje čine da se alati ponašaju kao alati umjesto ruleta s prijateljskim korisničkim interfejsom. 🎰🙂 ( NIST AI RMF 1.0 , Zakon EU o vještačkoj inteligenciji )
Članci koje biste možda željeli pročitati nakon ovog:
🔗 Zašto vještačka inteligencija može biti štetna za društvo
Ključni društveni rizici: pristrasnost, radna mjesta, privatnost i koncentracija moći.
🔗 Da li je vještačka inteligencija loša za okoliš? Skriveni uticaji
Kako obuka, podatkovni centri i potrošnja energije povećavaju emisije.
🔗 Je li vještačka inteligencija dobra ili loša? Prednosti i mane
Uravnotežen pregled koristi, rizika i kompromisa u stvarnom svijetu.
🔗 Zašto se vještačka inteligencija smatra lošom: tamna strana
Istražuje zloupotrebu, manipulaciju, sigurnosne prijetnje i etička pitanja.
Šta ljudi misle kada kažu „Da li je vještačka inteligencija otišla predaleko?“ 😬
Većina ljudi ne pita da li je vještačka inteligencija "svjesna" ili "preuzima vlast". Oni ukazuju na jedno od ovoga:
-
Vještačka inteligencija se koristi tamo gdje ne bi trebala. (Posebno odluke s visokim ulozima.) ( Zakon EU o umjetnoj inteligenciji, Aneks III , GDPR, član 22 )
-
Vještačka inteligencija se koristi bez pristanka. (Vaši podaci, vaš glas, vaše lice... iznenađenje.) ( UK ICO , GDPR član 5 )
-
Vještačka inteligencija postaje previše dobra u manipulisanju pažnjom. (Feedovi + personalizacija + automatizacija = ljepljivo.) ( OECD principi vještačke inteligencije )
-
Vještačka inteligencija čini da se istina osjeća kao opcionalna. (Deepfakeovi, lažne recenzije, sintetički „stručnjaci“.) ( Evropska komisija , FTC , C2PA )
-
Vještačka inteligencija koncentrira moć. (Nekoliko sistema oblikuje ono što svi vide i mogu učiniti.) ( UK CMA )
To je srž pitanja "Je li vještačka inteligencija otišla predaleko?" . Nije riječ o jednom jedinom trenutku. To je gomila podsticaja, prečica i razmišljanja "popravit ćemo to kasnije" - što, budimo iskreni, obično se prevodi kao "popravit ćemo to nakon što neko nastrada". 😑

Ne tako tajna istina: Vještačka inteligencija je multiplikator, a ne moralni akter 🔧✨
Vještačka inteligencija se ne budi i ne odlučuje da bude štetna. Ljudi i organizacije je ciljaju. Ali ona umnožava sve što joj date:
-
Korisna namjera postaje izuzetno korisna (prevod, pristupačnost, sažimanje, uočavanje medicinskih obrazaca).
-
Nepažljiva namjera postaje izuzetno nepažljiva (pristrasnost na velikoj skali, automatizacija grešaka).
-
Zla namjera postaje izuzetno loša (prevara, uznemiravanje, propaganda, lažno predstavljanje).
To je kao da date megafon malom djetetu. Ponekad dijete pjeva... ponekad dijete vrišti direktno u vašu dušu. Nije savršena metafora - pomalo glupavo - ali poenta je tačna 😅📢.
Šta čini dobru verziju vještačke inteligencije u svakodnevnim okruženjima? ✅🤝
„Dobra verzija“ umjetne inteligencije ne definira se time koliko je pametna. Definira se time koliko se dobro ponaša pod pritiskom, neizvjesnošću i iskušenjem (a ljudi su vrlo skloni jeftinoj automatizaciji). ( NIST AI RMF 1.0 , OECD )
Evo na šta obraćam pažnju kada neko tvrdi da je njegova upotreba vještačke inteligencije odgovorna za to:
1) Jasne granice
-
Šta je sistemu dozvoljeno da uradi?
-
Šta je eksplicitno zabranjeno raditi?
-
Šta se dešava kada je nesigurno?
2) Ljudska odgovornost koja je stvarna, a ne dekorativna
Ljudski "pregled" rezultata je važan samo ako:
-
razumiju šta recenziraju i
-
Mogu ga poništiti bez kažnjavanja zbog usporavanja stvari.
3) Objašnjivost na pravom nivou
Nije svima potrebna matematika. Ljudima je potrebno:
-
glavne razloge za donošenje odluke,
-
koji su podaci korišteni,
-
kako se žaliti, ispraviti ili odustati. ( UK ICO )
4) Mjerljive performanse - uključujući načine kvara
Ne samo "tačnost", već:
-
kod koga ne uspije,
-
koliko često tiho propadne,
-
Šta se dešava kada se svijet promijeni. ( NIST AI RMF 1.0 )
5) Privatnost i pristanak koji nisu „skriveni u postavkama“
Ako pristanak zahtijeva potragu za blagom kroz menije... to nije pristanak. To je rupa u zakonu s dodatnim koracima 😐🧾. ( GDPR član 5 , UK ICO )
Tabela za poređenje: praktični načini da spriječite da vještačka inteligencija ode predaleko 🧰📊
U nastavku su navedene „najbolje opcije“ u smislu da su to uobičajene zaštitne ograde ili operativni alati koji mijenjaju ishode (ne samo vibracije).
| Alat / opcija | Publika | Cijena | Zašto to funkcioniše |
|---|---|---|---|
| Pregled ljudskog uticaja ( Zakon EU o umjetnoj inteligenciji ) | Timovi koji donose odluke s visokim ulozima | ££ (trošak vremena) | Usporava lošu automatizaciju. Također, ljudi mogu primijetiti neobične granične slučajeve, ponekad… |
| Postupak žalbe na odluku ( član 22. GDPR-a ) | Korisnici na koje utiču odluke umjetne inteligencije | Slobodno | Dodaje pravičan postupak. Ljudi mogu ispraviti pogrešne podatke - zvuči osnovno jer i jeste osnovno |
| Zapisnici revizije + sljedivost ( NIST SP 800-53 ) | Usklađenost, operacije, sigurnost | £-££ | Omogućava vam da odgovorite na pitanje „šta se desilo?“ nakon neuspjeha, umjesto da sliježete ramenima |
| Evaluacija modela + testiranje pristranosti ( NIST AI RMF 1.0 ) | Timovi za proizvode i rizike | mnogo varira | Rano otkriva predvidljivu štetu. Nije savršeno, ali je bolje od nagađanja |
| Testiranje crvenog tima ( NIST GenAI profil ) | Zaštita + zaštitari | £££ | Simulira zloupotrebu prije nego što to učine pravi napadači. Neugodno, ali vrijedi 😬 |
| Minimizacija podataka ( UK ICO ) | Svi, iskreno | £ | Manje podataka = manje nereda. Također, manje propusta, manje neugodnih razgovora |
| Signali porijekla sadržaja ( C2PA ) | Platforme, mediji, korisnici | £-££ | Pomaže u provjeri „da li je ovo napravio čovjek?“ - nije nepogrešivo, ali smanjuje haos |
| Ograničenja brzine + kontrole pristupa ( OWASP ) | Pružaoci vještačke inteligencije + preduzeća | £ | Trenutno sprečava zloupotrebu da se proširi. Kao ležeći policajac za loše glumce |
Da, sto je malo neravan. Takav je život. 🙂
Umjetna inteligencija u odlukama s visokim ulozima: kada ode predaleko 🏥🏦⚖️
Ovdje stvari brzo postaju ozbiljne.
Umjetna inteligencija u zdravstvu , finansijama , stanovanju , zapošljavanju , obrazovanju , imigraciji , krivičnom pravosuđu - to su sistemi gdje: ( Zakon EU o umjetnoj inteligenciji, Aneks III , FDA )
-
Greška može nekoga koštati novca, slobode, dostojanstva ili sigurnosti,
-
a pogođena osoba često ima ograničenu moć da se bori protiv toga.
Veliki rizik nije u tome što "AI pravi greške". Veliki rizik je što greške AI-a postaju politika . ( NIST AI RMF 1.0 )
Kako ovdje izgleda "predaleko"
-
Automatske odluke bez objašnjenja: „računar kaže ne.“ ( UK ICO )
-
"Ocjene rizika" tretirane su kao činjenice umjesto kao nagađanja.
-
Ljudi koji ne mogu poništiti ishode jer menadžment želi brzinu.
-
Podaci koji su neuredni, pristrasni, zastarjeli ili jednostavno potpuno pogrešni.
Šta bi trebalo biti nepregovaračko
-
Pravo na žalbu (brzo, razumljivo, ne lavirint). ( GDPR čl. 22 , UK ICO )
-
Pravo na znanje da je umjetna inteligencija bila uključena. ( Evropska komisija )
-
Ljudska provjera za posljedične ishode. ( NIST AI RMF 1.0 )
-
Kontrola kvaliteta podataka - jer "smeće unutra, smeće van" je i dalje bolno istinito.
Ako pokušavate povući jasnu liniju, evo jedne:
Ako sistem umjetne inteligencije može materijalno promijeniti nečiji život, potrebna mu je ista ozbiljnost koju očekujemo od drugih oblika autoriteta. Nema "beta testiranja" na ljudima koji se nisu prijavili. 🚫
Deepfakeovi, prevare i spora smrt "vjerujem svojim očima" 👀🧨
Ovo je dio koji svakodnevni život čini... klizavim.
Kada vještačka inteligencija može generirati:
-
glasovna poruka koja zvuči kao da je riječ o članu vaše porodice ( FTC , FBI )
-
video javne ličnosti koja nešto "govori",
-
poplava lažnih recenzija koje izgledaju dovoljno autentično, ( FTC )
-
lažni LinkedIn profil s lažnom radnom istorijom i lažnim prijateljima..
...ne samo omogućava prevare. Slabi društvenu vezu koja omogućava strancima da se koordiniraju. A društvo funkcioniše na koordinaciji stranaca. 😵💫
„Predaleko“ nije samo lažni sadržaj
To je asimetrija :
-
Jeftino je generirati laži.
-
Skupo je i sporo provjeravati istinu.
-
I većina ljudi je zauzeta, umorna i skrola.
Šta pomaže (malo)
-
Markeri porijekla za medije. ( C2PA )
-
Trenje za viralnost - usporavanje trenutnog masovnog dijeljenja.
-
Bolja provjera identiteta tamo gdje je to važno (finansije, državne usluge).
-
Osnovne navike "provjere izvan opsega" za pojedince (povratni poziv, korištenje kodne riječi, potvrda putem drugog kanala). ( FTC )
Nije glamurozno. Ali nisu ni sigurnosni pojasevi, a ja sam lično prilično vezan za njih. 🚗
Nadzorni puzajući sistem: kada vještačka inteligencija tiho sve pretvori u senzor 📷🫥
Ovo ne eksplodira kao deepfake. Samo se širi.
Vještačka inteligencija olakšava:
-
identificirati lica u gužvi, ( Zakon EU o umjetnoj inteligenciji , NIST FRVT )
-
pratiti obrasce kretanja,
-
zaključiti o emocijama iz videa (često loše, ali samouvjereno), ( Barrett et al., 2019 , Zakon EU o umjetnoj inteligenciji )
-
predvidite „rizik“ na osnovu ponašanja... ili atmosfere u vašem susjedstvu.
Čak i kada je netačno, i dalje može biti štetno jer može opravdati intervenciju. Pogrešno predviđanje i dalje može izazvati stvarne posljedice.
Neugodan dio
Nadzor zasnovan na vještačkoj inteligenciji često dolazi umotan u priču o sigurnosti:
-
"To je za sprečavanje prevare."
-
"To je zbog sigurnosti."
-
"To je za korisničko iskustvo."
Ponekad je to istina. Ponekad je to i zgodan izgovor za izgradnju sistema koje je kasnije vrlo teško demontirati. Kao što je instaliranje jednosmjernih vrata u vlastitoj kući jer su se u tom trenutku činila efikasnim. Opet, nije savršena metafora - pomalo smiješna - ali osjetite to. 🚪😅
Kako ovdje izgleda "dobro"
-
Stroga ograničenja zadržavanja i dijeljenja.
-
Obriši isključenja.
-
Uski slučajevi upotrebe.
-
Nezavisni nadzor.
-
Nije dozvoljeno korištenje "detekcije emocija" za kažnjavanje ili nadzor. Molim vas. 🙃 ( Zakon EU o umjetnoj inteligenciji )
Rad, kreativnost i problem tihog uklanjanja vještina 🧑💻🎨
Ovdje debata postaje lična jer se dotiče identiteta.
Vještačka inteligencija može učiniti ljude produktivnijima. Također može učiniti da se ljudi osjećaju zamjenjivima. Oboje može biti istinito, u isto vrijeme, u istoj sedmici. ( OECD , WEF )
Gdje je to zaista korisno
-
Pisanje rutinskog teksta kako bi se ljudi mogli fokusirati na razmišljanje.
-
Pomoć pri kodiranju ponavljajućih obrazaca.
-
Alati za pristupačnost (titlovi, sažimanje, prevođenje).
-
Brainstorming kada ste zaglavljeni.
Gdje ide predaleko
-
Zamjena uloga bez planova tranzicije.
-
Korištenje umjetne inteligencije za smanjenje proizvodnje uz istovremeno izravnavanje plaća.
-
Tretiranje kreativnog rada kao beskonačnih besplatnih podataka za obuku, a zatim slijeganje ramenima. ( Ured za autorska prava SAD-a , GOV.UK Ujedinjenog Kraljevstva )
-
Uklanjanje mlađih uloga - što zvuči efikasno sve dok ne shvatite da ste upravo sagorjeli stepenice kojima se budući stručnjaci trebaju popeti.
Dekvalifikacija je suptilna. Ne primjećujete to svaki dan. Onda jednog dana shvatite da se niko u timu ne sjeća kako stvar funkcioniše bez asistenta. A ako asistent nije u pravu, onda ste svi zajedno uvjereno u krivu... što je svojevrsna noćna mora. 😬
Koncentracija moći: ko postavlja zadane postavke? 🏢⚡
Čak i ako je vještačka inteligencija „neutralna“ (nije), ko god je kontroliše može oblikovati:
-
koje su informacije lako dostupne,
-
šta se promovira ili zakopava,
-
koji je jezik dozvoljen,
-
koja ponašanja se podstiču.
A budući da izgradnja i korištenje sistema umjetne inteligencije mogu biti skupi, moć se obično koncentrira. To nije zavjera. To je ekonomija s tehnološkom duksericom. ( UK CMA )
Trenutak "previše daleko" ovdje
Kada neizvršene obaveze postanu nevidljivi zakon:
-
Ne znaš šta se filtrira,
-
Ne možete provjeriti logiku,
-
i realno je ne možete odustati bez gubitka pristupa poslu, zajednici ili osnovnim uslugama.
Zdravom ekosistemu su potrebni konkurencija, transparentnost i stvarni izbor korisnika. U suprotnom, u suštini iznajmljujete stvarnost. 😵♂️
Praktična kontrolna lista: kako prepoznati da li vještačka inteligencija ide predaleko u vašem svijetu 🧾🔍
Evo liste provjere koju koristim (i da, nije savršena):
Ako ste pojedinac
-
Mogu prepoznati kada komuniciram s umjetnom inteligencijom. ( Evropska komisija )
-
Ovaj sistem me tjera da pretjeram s dijeljenjem.
-
U redu bi bilo da se nosim s rezultatom ako je pogrešan na uvjerljiv način.
-
Da sam prevaren/a koristeći ovo, platforma bi mi pomogla... ili bi samo slegnula ramenima.
Ako ste preduzeće ili tim
-
Koristimo vještačku inteligenciju jer je vrijedna, ili zato što je moderna, a menadžment je nemiran.
-
Znamo koje podatke sistem obrađuje.
-
Pogođeni korisnik može se žaliti na ishod. ( UK ICO )
-
Ljudi imaju ovlaštenje da preglasaju model.
-
Imamo planove za reagovanje na incidente u slučaju kvarova vještačke inteligencije.
-
Pratimo pomicanje, zloupotrebu i neuobičajene granične slučajeve.
Ako ste na gomilu ovih pitanja odgovorili sa "ne", to ne znači da ste zli. To znači da ste u normalnom ljudskom stanju "poslali smo ga i nadali se". Ali nada nije strategija, nažalost. 😅
Završne napomene 🧠✅
Dakle... Je li vještačka inteligencija otišla predaleko?
Otišla je predaleko tamo gdje se primjenjuje bez odgovornosti , posebno u donošenju odluka s visokim ulozima, masovnom uvjeravanju i nadzoru. Također je otišla predaleko tamo gdje narušava povjerenje - jer kada se povjerenje naruši, sve postaje skuplje i neprijateljskije, društveno gledano. ( NIST AI RMF 1.0 , Zakon EU o vještačkoj inteligenciji )
Ali vještačka inteligencija nije inherentno osuđena na propast niti inherentno savršena. Ona je moćan multiplikator. Pitanje je da li gradimo zaštitne ograde jednako agresivno kao što gradimo i sposobnosti.
Kratak pregled:
-
Vještačka inteligencija je dobra kao alat.
-
Opasno je kao neodgovorna vlast.
-
Ako neko ne može da se žali, razumije ili se isključi - tu počinje "predaleko". 🚦 ( GDPR čl. 22 , UK ICO )
Često postavljana pitanja
Da li je vještačka inteligencija otišla predaleko u svakodnevnom životu?
Na mnogim mjestima, vještačka inteligencija je otišla predaleko jer je počela da se uvlači u odluke i interakcije bez jasnih granica ili odgovornosti. Problem je rijetko u tome što "vještačka inteligencija postoji"; to je vještačka inteligencija koja se tiho uklapa u zapošljavanje, zdravstvenu zaštitu, korisničku podršku i feedove uz slab nadzor. Kada ljudi ne mogu reći da je to vještačka inteligencija, ne mogu osporiti rezultate ili se ne mogu isključiti, prestaje se osjećati kao alat i počinje se osjećati kao sistem.
Kako izgleda "pretjeravanje u radu umjetne inteligencije" u odlukama s visokim ulozima?
Izgleda da se vještačka inteligencija koristi u zdravstvu, finansijama, stanovanju, zapošljavanju, obrazovanju, imigraciji ili krivičnom pravosuđu bez jakih zaštitnih ograda. Centralni problem nije u tome što modeli griješe; već u tome što se te greške učvršćuju u politici i postaju teško osporive. Odluke tipa "računar kaže ne" sa slabim objašnjenjima i bez smislenih žalbi su mjesto gdje se šteta brzo širi.
Kako mogu znati da li me automatizirana odluka utiče i šta mogu učiniti?
Uobičajen znak je iznenadni ishod koji ne možete objasniti: odbijanje, ograničenje ili osjećaj "rizičnog rezultata" bez jasnog razloga. Mnogi sistemi bi trebali otkriti kada je vještačka inteligencija odigrala bitnu ulogu, a vi biste trebali moći zatražiti glavne razloge odluke i korake za žalbu. U praksi, zatražite ljudsku provjeru, ispravite sve pogrešne podatke i zagovarajte jednostavan put odustajanja.
Da li je vještačka inteligencija otišla predaleko s privatnošću, pristankom i korištenjem podataka?
Često se to dešava kada pristanak postane potraga za blagom i prikupljanje podataka se proširi „za svaki slučaj“. Ključna poenta članka je da privatnost i pristanak nemaju veliku težinu ako su zakopani u okruženjima ili nametnuti nejasnim terminima. Zdraviji pristup je minimiziranje podataka: prikupljajte manje, čuvajte manje i učinite izbore nepogrešivim kako ljudi kasnije ne bi bili iznenađeni.
Kako deepfakeovi i AI prevare mijenjaju značenje "povjerenja" na internetu?
Oni čine da se istina osjeća opcionalno smanjujući troškove proizvodnje uvjerljivih lažnih glasova, videa, recenzija i identiteta. Asimetrija je problem: generiranje laži je jeftino, dok je provjera istine spora i zamorna. Praktične odbrane uključuju signale porijekla za medije, usporavanje viralnog dijeljenja, jače provjere identiteta gdje je to važno i navike "provjere izvan opsega" poput uzvraćanja poziva ili korištenja zajedničke kodne riječi.
Koje su najpraktičnije zaštitne ograde koje sprečavaju vještačku inteligenciju da ode predaleko?
Zaštitne ograde koje mijenjaju ishode uključuju istinsku provjeru od strane čovjeka u toku za pozive s visokim ulozima, jasne procese žalbe i zapisnike revizije koji mogu odgovoriti na pitanje „šta se dogodilo?“ nakon neuspjeha. Evaluacija modela i testiranje pristranosti mogu ranije otkriti predvidljivu štetu, dok testiranje crvenog tima simulira zloupotrebu prije nego što to učine napadači. Ograničenja brzine i kontrole pristupa pomažu u sprječavanju trenutnog skaliranja zloupotrebe, a minimiziranje podataka smanjuje rizik u svim oblastima.
Kada nadzor vođen umjetnom inteligencijom prelazi granicu?
Prelazi se granica kada se sve po defaultu pretvori u senzor: prepoznavanje lica u gužvi, praćenje obrazaca kretanja ili samouvjereno "detekcija emocija" koja se koristi za kažnjavanje ili kontrolu pristupa. Čak i netačni sistemi mogu uzrokovati ozbiljnu štetu ako opravdavaju intervencije ili uskraćivanje usluga. Dobra praksa se ogleda u uskim slučajevima upotrebe, strogim ograničenjima zadržavanja, smislenim isključenjima, nezavisnom nadzoru i čvrstom "ne" klimavim procjenama zasnovanim na emocijama.
Da li vještačka inteligencija čini ljude produktivnijima - ili tiho smanjuje obim rada?
Oboje može biti istinito istovremeno, i ta napetost je poenta. Vještačka inteligencija može pomoći u rutinskom crtanju, ponavljajućim obrascima kodiranja i pristupačnosti, oslobađajući ljude da se fokusiraju na razmišljanje na višem nivou. To ide predaleko kada zamjenjuje uloge bez planova tranzicije, smanjuje plate, tretira kreativni rad kao besplatne podatke za obuku ili uklanja mlađe uloge koje grade buduću stručnost. Dekvalifikacija ostaje suptilna sve dok timovi ne mogu funkcionisati bez asistenta.
Reference
-
Nacionalni institut za standarde i tehnologiju (NIST) - Okvir za upravljanje rizikom umjetne inteligencije (AI RMF 1.0) - nist.gov
-
Evropska unija - Zakon EU o umjetnoj inteligenciji (Uredba (EU) 2024/1689) - Službeni list (engleski) - europa.eu
-
Evropska komisija - Regulatorni okvir za umjetnu inteligenciju (stranica o politici Zakona EU o umjetnoj inteligenciji) - europa.eu
-
Služba za korisnike Zakona EU o umjetnoj inteligenciji - Aneks III (Visokorizični sistemi umjetne inteligencije) - europa.eu
-
Evropska unija - Pravila za pouzdanu vještačku inteligenciju u EU (sažetak Zakona EU o vještačkoj inteligenciji) - europa.eu
-
Ured povjerenika za informacije Ujedinjenog Kraljevstva (ICO) - Šta je automatizirano individualno donošenje odluka i profiliranje? - ico.org.uk
-
Ured povjerenika za informacije Ujedinjenog Kraljevstva (ICO) - Šta GDPR u Ujedinjenom Kraljevstvu kaže o automatiziranom donošenju odluka i profiliranju? - ico.org.uk
-
Ured povjerenika za informacije Ujedinjenog Kraljevstva (ICO) - Automatizirano donošenje odluka i profiliranje (smjernica) - ico.org.uk
-
Ured povjerenika za informacije Ujedinjenog Kraljevstva (ICO) - Minimiziranje podataka (smjernice o principima GDPR-a u Ujedinjenom Kraljevstvu) - ico.org.uk
-
GDPR-info.eu - Član 22 GDPR-a - gdpr-info.eu
-
GDPR-info.eu - Član 5 GDPR-a - gdpr-info.eu
-
Američka Federalna trgovinska komisija (FTC) - Prevaranti koriste vještačku inteligenciju kako bi poboljšali svoje programe za porodične hitne slučajeve - ftc.gov
-
Američka Federalna trgovinska komisija (FTC) - Prevaranti koriste lažne hitne slučajeve kako bi vam ukrali novac - ftc.gov
-
Američka Federalna trgovinska komisija (FTC) - Konačno pravilo kojim se zabranjuju lažne recenzije i svjedočanstva (saopštenje za javnost) - ftc.gov
-
Federalni istražni biro (FBI) - FBI upozorava na sve veću prijetnju sajber kriminalaca koji koriste vještačku inteligenciju - fbi.gov
-
Organizacija za ekonomsku saradnju i razvoj (OECD) - OECD principi za umjetnu inteligenciju - oecd.ai
-
OECD - Preporuka Vijeća o umjetnoj inteligenciji (OECD/LEGAL/0449) - oecd.org
-
Evropska komisija - Smjernice i kodeks prakse za transparentne sisteme umjetne inteligencije (ČPP) - europa.eu
-
Koalicija za porijeklo i autentičnost sadržaja (C2PA) - Specifikacije v2.3 - c2pa.org
-
Uprava za konkurenciju i tržišta Ujedinjenog Kraljevstva (CMA) - Modeli osnova umjetne inteligencije: početni izvještaj - gov.uk
-
Američka Uprava za hranu i lijekove (FDA) - Medicinski uređaji zasnovani na vještačkoj inteligenciji - fda.gov
-
NIST - Kontrole sigurnosti i privatnosti za informacione sisteme i organizacije (SP 800-53 Rev. 5) - nist.gov
-
NIST - Generativni profil umjetne inteligencije (NIST.AI.600-1, ipd) - nist.gov
-
Otvoreni svjetski projekat sigurnosti aplikacija (OWASP) - Neograničena potrošnja resursa (API Security Top 10, 2023) - owasp.org
-
NIST - Demografski podaci o testiranju dobavljača sistema za prepoznavanje lica (FRVT) - nist.gov
-
Barrett i dr. (2019) - Članak (PMC) - nih.gov
-
OECD - Korištenje umjetne inteligencije na radnom mjestu (PDF) - oecd.org
-
Svjetski ekonomski forum (WEF) - Izvještaj o budućnosti radnih mjesta 2025. - Sažetak - weforum.org
-
Ured za autorska prava SAD-a - Autorska prava i umjetna inteligencija, 3. dio: Izvještaj o obuci za generativnu umjetnu inteligenciju (verzija prije objavljivanja) (PDF) - copyright.gov
-
Vlada Ujedinjenog Kraljevstva (GOV.UK) - Autorska prava i umjetna inteligencija (konsultacije) - gov.uk