Kratak odgovor: Ne postoji jedan prihvatljivi postotak vještačke inteligencije. Odgovarajući nivo zavisi od uloga, onoga što je vještačka inteligencija oblikovala i da li čovjek ostaje odgovoran. Uključenost vještačke inteligencije može biti značajna u internom radu niskog rizika kada se provjeravaju činjenice, ali bi trebala ostati ograničena kada greške mogu zavarati, uzrokovati štetu ili simulirati stručnost.
Glavne tačke:
Odgovornost : Dodijelite imenovanu osobu svakom konačnom rezultatu koji objavite.
Nivo rizika : Koristite više vještačke inteligencije za interne zadatke s niskim ulozima, a manje za osjetljive poslove usmjerene na javnost.
Verifikacija : Pregledajte svaku tvrdnju, broj, citat i navod prije objavljivanja sadržaja potpomognutog umjetnom inteligencijom.
Transparentnost : Otkrijte uključenost umjetne inteligencije kada bi skrivena automatizacija mogla dovesti publiku u zabludu.
Glasovna kontrola : Neka vještačka inteligencija podržava strukturu i uređivanje, dok ljudska prosudba i stil ostaju pod kontrolom.

🔖 Možda će vam se svidjeti i:
🔗 Šta je etika umjetne inteligencije?
Objašnjava principe odgovorne umjetne inteligencije, pravednost, transparentnost i osnove odgovornosti.
🔗 Šta je pristrasnost usljed vještačke inteligencije?
Obuhvata vrste pristrasnosti, uzroke, uticaje i pristupe ublažavanju.
🔗 Šta je skalabilnost umjetne inteligencije?
Analizira skaliranje AI sistema, performanse, troškove i potrebe infrastrukture.
🔗 Šta je prediktivna umjetna inteligencija?
Definira prediktivnu umjetnu inteligenciju, ključne slučajeve upotrebe, modele i prednosti.
Zašto je "Koji postotak vještačke inteligencije je prihvatljiv?" sada uopće pitanje 🤔
Ne tako davno, "AI pomoć" je značila automatsko ispravljanje i provjeru pravopisa. Sada može da razmišlja, skicira, piše, prepisuje, sažima, prevodi, generiše slike, uređuje tabele, kodira i pristojno ispravlja vaše loše fraze. Dakle, pitanje nije da li je AI uključen - već jeste.
Pitanje glasi više ovako:
-
Gdje leži odgovornost. (Vi, vaš tim, vaš urednik, alat...) OECD principi umjetne inteligencije
-
Šta se proizvodi. (Pjesma, medicinska bilješka, pravna politika, školski esej...) Smjernice SZO o generativnoj umjetnoj inteligenciji u zdravstvu
-
Ko to čita i zašto? (Kupci, studenti, glasači, pacijenti, vaš šef.)
-
Šta može poći po zlu. (Dezinformacije, vibracije koje podsjećaju na plagijat, problemi s usklađenošću, šteta za brend.) OpenAI: zašto jezički modeli haluciniraju smjernice američkog Ureda za autorska prava o umjetnoj inteligenciji
I, na pomalo perverzan način, "procenat" može biti manje važan od onoga čega se vještačka inteligencija dotakla. Dodavanje vještačke inteligencije "varijacijama naslova" nije isto što i dodavanje vještačke inteligencije "finansijskim savjetima", čak i ako su oboje tehnički 30% vještačke inteligencije ili tako nešto. 🙃
Šta čini dobru verziju "prihvatljivog procenta AI" ✅
Ako gradimo „dobru verziju“ ovog koncepta, ona mora funkcionirati u svakodnevnoj praksi, a ne samo izgledati filozofski uredno.
Dobar okvir za pitanje "Koji je postotak vještačke inteligencije prihvatljiv?" ostaje:
-
Kontekstualno svjestan : različiti poslovi, različiti ulozi. NIST AI RMF 1.0
-
Zasnovano na rezultatima : tačnost, originalnost i praktična vrijednost su važnije od testova čistoće.
-
Revidirano : možete objasniti šta se dogodilo ako vas neko pita. OECD principi vještačke inteligencije
-
U ljudskom vlasništvu : stvarna osoba je odgovorna za konačni rezultat (da, čak i ako je dosadan). OECD principi umjetne inteligencije
-
Poštovanje publike : ljudi mrze osjećaj da su prevareni - čak i kada je sadržaj „u redu“. UNESCO-va preporuka o etici umjetne inteligencije.
Također, ne bi trebalo zahtijevati mentalnu gimnastiku poput „Je li ta rečenica bila 40% ili 60% umjetne inteligencije?“ jer taj put završava ludilom... kao pokušaj mjerenja koliko je lazanja „naprijed sirom“. 🧀
Jednostavan način da definišete "procenat AI" bez gubitka razuma 📏
Prije poređenja, evo jednog razumnog modela. Razmislite o korištenju umjetne inteligencije u slojevima:
-
Sloj ideja (brainstorming, upute, nacrti)
-
Nacrt sloja (pisanje u prvom prolazu, struktura, proširenja)
-
Uredi sloj (uređivanje jasnoće, izglađivanje tona, gramatika)
-
Činjenični sloj (tvrdnje, statistike, citati, specifičnost)
-
Glasovni sloj (stil, humor, identitet brenda, životno iskustvo)
Ako se vještačka inteligencija intenzivno dotiče sloja činjenica, prihvatljivi postotak obično brzo opada. Ako se vještačka inteligencija uglavnom nalazi u slojevima ideja + uređivanja, ljudi su obično opušteniji. OpenAI: zašto jezički modeli haluciniraju NIST GenAI profil (AI RMF)
Dakle, kada neko pita koji je procenat vještačke inteligencije prihvatljiv?, ja to prevodim kao:
Koji su slojevi potpomognuti vještačkom inteligencijom i koliko su ti slojevi rizični u ovom kontekstu? 🧠
Tabela za poređenje - uobičajeni "recepti" za upotrebu vještačke inteligencije i gdje se uklapaju 🍳
Evo praktičnog vodiča. Uključene su blage greške u formatiranju jer prave tabele nikada nisu savršene, zar ne?.
| alat / pristup | publika | cijena | zašto to funkcionira |
|---|---|---|---|
| Samo AI brainstorming | pisci, marketinški stručnjaci, osnivači | od besplatnog do plaćenog | Održava originalnost ljudskom, umjetna inteligencija samo podstiče ideje - poput bučnog kolege s espressom |
| AI nacrt + ljudski nacrt | blogeri, timovi, studenti (etički) | nisko do srednje | Struktura postaje brža, glas ostaje vaš. Prilično sigurno ako se činjenice provjere |
| Ljudski nacrt + AI propusnica za uređivanje | većina profesionalaca | nisko | Odlično za jasnoću + ton. Rizik ostaje nizak ako ne dozvolite da "izmišlja" detalje. OpenAI: Da li ChatGPT govori istinu? |
| Prvi nacrt od strane AI-a + opsežno ljudsko prepisivanje | zauzeti timovi, operacije s sadržajem | sredina | Brzo, ali zahtijeva disciplinu. U suprotnom šaljete bljutavu kašu... oprostite 😬 |
| AI prijevod + ljudski pregled | globalni timovi, podrška | sredina | Dobra brzina, ali lokalne nijanse mogu malo promašiti slijetanje - poput cipela koje gotovo odgovaraju |
| Sažeci umjetne inteligencije za interne bilješke | sastanci, istraživanje, ažuriranja rukovodstva | nisko | Efikasnost pobjeđuje. Ipak: potvrdite ključne odluke, jer sažeci mogu postati „kreativni“ OpenAI: zašto jezički modeli haluciniraju |
| "Stručni" savjeti generirani umjetnom inteligencijom | javna publika | varira | Visok rizik. Zvuči samouvjereno čak i kada nije u pravu, što je sumoran spoj. SZO: Etika i upravljanje umjetnom inteligencijom za zdravlje. |
| Javni sadržaj u potpunosti generiran umjetnom inteligencijom | neželjene stranice, sadržaji za popunjavanje sadržaja s niskim ulozima | nisko | Skalabilno je, sigurno - ali povjerenje i diferencijacija često pate dugoročno. UNESCO-va preporuka o etici umjetne inteligencije |
Primijetit ćete da ne tretiram "potpunu umjetnu inteligenciju" kao inherentno zlo. Ona je samo... često krhka, generička i rizična za reputaciju kada se suoči s ljudima. 👀
Prihvatljivi procenti AI po scenariju - realni rasponi 🎛️
U redu, hajde da pričamo o brojkama - ne kao zakonu, već kao o zaštitnim ogradama. To su rasponi "moram preživjeti u svakodnevnom životu".
1) Marketinški sadržaj i blogovi ✍️
-
Često prihvatljivo: 20% do 60% podrške za vještačku inteligenciju
-
Rizik raste kada: tvrdnje postanu specifične, poređenja postanu agresivna, pojave se svjedočanstva ili ih predstavite kao „lično životno iskustvo“; komentar FTC-a koji se odnosi na rizike od tvrdnji o marketingu umjetne inteligencije; smjernice Ureda za autorska prava SAD-a o umjetnoj inteligenciji
Vještačka inteligencija vam može pomoći da se ovdje brže krećete, ali publika može osjetiti generički sadržaj kao što psi osjećaju strah. Moja nespretna metafora je: marketinški tekst s puno vještačke inteligencije je kao kolonjska voda poprskana po neopranom vešu - pokušava, ali nešto nije u redu. 😭
2) Akademski rad i studentski radovi 🎓
-
Često prihvatljivo: 0% do 30% (u zavisnosti od pravila i zadatka)
-
Sigurnije upotrebe: brainstorming, pravljenje nacrta, provjera gramatike, objašnjenja učenja
-
Rizik raste kada: Vještačka inteligencija piše argumente, analize ili „originalno razmišljanje“ Ministarstvo obrazovanja: Generativna vještačka inteligencija u obrazovanju
Veliki problem nije samo pravednost - to je učenje. Ako vještačka inteligencija razmišlja, učenikov mozak sjedi na klupi i jede kriške narandže.
3) Pisanje na radnom mjestu (e-poruke, dokumenti, SOP-ovi, interne bilješke) 🧾
-
Često prihvatljivo: 30% do 80%
-
Zašto tako visoko? Interno pisanje se odnosi na jasnoću i brzinu, a ne na književnu čistoću.
-
Rizik raste kada: formulacija politike ima pravne implikacije ili je tačnost podataka bitna NIST AI RMF 1.0
Mnoge kompanije već tiho posluju uz "visoku pomoć vještačke inteligencije". Samo to tako ne zovu. Više je kao "efikasni smo" - što je, u redu.
4) Korisnička podrška i odgovori putem chata 💬
-
Često prihvatljivo: 40% do 90% sa zaštitnim ogradama
-
Nepregovarajuće: putevi eskalacije, odobrena baza znanja, stroga provjera za granične slučajeve
-
Rizik raste kada: AI daje obećanja, vraća novac ili izuzima od pravila OpenAI: Da li ChatGPT govori istinu? NIST GenAI profil (AI RMF)
Kupcima ne smeta brza pomoć. Smeta im pogrešna pomoć. Još im više smeta samouvjerena pogrešna pomoć.
5) Novinarstvo, javno informisanje, zdravlje, pravne teme 🧠⚠️
-
Često prihvatljivo: 0% do 25% pomoći pri pisanju uz pomoć umjetne inteligencije
-
Prihvatljivije: AI za transkripciju, grube sažetke, organizaciju
-
Rizik raste kada: Vještačka inteligencija „popunjava praznine“ ili pretvara neizvjesnost u lažnu sigurnost AP: Standardi za generativnu vještačku inteligenciju Smjernice SZO o generativnoj vještačkoj inteligenciji u zdravstvu
Ovdje je "procenat" pogrešna perspektiva. Želite ljudsku uredničku kontrolu i snažnu verifikaciju. Vještačka inteligencija može pomoći, ali ne bi trebala biti mozak koji donosi odluke. SPJ Kodeks etike
Faktor povjerenja - zašto otkrivanje mijenja prihvatljivi postotak 🧡
Ljudi ne ocjenjuju sadržaj samo po kvaliteti. Oni ga ocjenjuju po odnosu . A odnos dolazi s osjećajima. (Dosadno, ali istinito.)
Ako vaša publika vjeruje:
-
Prozirni ste,
-
odgovoran/odgovorna si,
-
Ne glumiš stručnost,
...onda često možete koristiti više vještačke inteligencije bez negativne reakcije.
Ali ako vaša publika osjeti:
-
skrivena automatizacija,
-
lažne „lične priče“,
-
proizvedeni autoritet,
...onda čak i mali doprinos umjetne inteligencije može izazvati reakciju „ne, odustajem“. Dilema transparentnosti: Otkrivanje informacija o umjetnoj inteligenciji i povjerenje (Schilke, 2025) Rad Oxford Reuters instituta o otkrivanju informacija o umjetnoj inteligenciji i povjerenju (2024)
Dakle, kada pitate koji je postotak vještačke inteligencije prihvatljiv?, uključite ovu skrivenu varijablu:
-
Visoko povjerenje u bankovni račun? Možete potrošiti više na vještačku inteligenciju.
-
Nizak nivo povjerenja na bankovnom računu? Umjetna inteligencija postaje lupa za sve što radite.
"Problem s glasom" - zašto postotak umjetne inteligencije može tiho izravnati vaš rad 😵💫
Čak i kada je vještačka inteligencija tačna, često ublažava ivice. A ivice su mjesto gdje živi ličnost.
Simptomi previše umjetne inteligencije u glasovnom sloju:
-
Sve zvuči pristojno optimistično, kao da pokušava da ti proda bež sofu
-
Šale padaju na pamet... ali onda se izvini
-
Snažna mišljenja se razvodnjavaju u "zavisi"
-
Specifična iskustva postaju ono što „mnogi ljudi kažu“
-
Vaše pisanje gubi male, idiosinkratične osobine (koje su obično vaša prednost)
Zato mnoge „prihvatljive strategije umjetne inteligencije“ izgledaju ovako:
-
Vještačka inteligencija pomaže sa strukturom i jasnoćom
-
Ljudi daju ukus + prosuđivanje + priču + stav 😤
Jer okus je dio koji je najteže automatizirati, a da se ne pretvori u zobenu kašu.
Kako postaviti procentualnu politiku za AI koja se neće srušiti pri prvom argumentu 🧩
Ako ovo radite za sebe ili tim, nemojte pisati pravila poput:
"Ne više od 30% umjetne inteligencije."
Ljudi će odmah pitati: „Kako to mjerimo?“, a onda se svi umore i vrate se tome.
Umjesto toga, postavite pravila po slojevima i rizicima : NIST AI RMF 1.0 OECD AI principi
Izvodljiv predložak politike (ukradi ovo)
-
Vještačka inteligencija je omogućila: brainstorming, pravljenje nacrta, jasnoću uređivanja, formatiranje, nacrte prijevoda ✅
-
VI ograničen za: originalnu analizu, konačne tvrdnje, osjetljive teme, javno dostupne „stručne savjete“ ⚠️ SZO: Etika i upravljanje VI za zdravlje
-
Uvijek potrebno: ljudska provjera, provjera činjenica za detalje, potvrda odgovornosti 🧍
-
Nikada nije dozvoljeno: lažna svjedočanstva, izmišljene akreditacije, izmišljene priče "Probao/la sam ovo" 😬 Komentar FTC-a koji se odnosi na obmanjujuće tvrdnje o vještačkoj inteligenciji Reuters: FTC pooštrava mjere protiv obmanjujućih tvrdnji o vještačkoj inteligenciji (2024-09-25)
Zatim, ako vam je potreban broj, dodajte raspone:
-
Niski ulozi interno: do „visoke pomoći“
-
Javni sadržaj: „umjerena pomoć“
-
Informacije o visokim ulozima: „minimalna pomoć“
Da, mutno je. Život je mutan. Pokušaj da ga učiniš jasnim je način da završiš sa besmislenim pravilima kojih se niko ne pridržava. 🙃
Praktična lista za samoprovjeru za pitanje „Koji postotak umjetne inteligencije je prihvatljiv?“ 🧠✅
Kada odlučujete da li je vaša upotreba umjetne inteligencije prihvatljiva, provjerite sljedeće:
-
Možete braniti proces naglas bez ikakvog ustručavanja.
-
AI nije iznio nikakve tvrdnje koje niste provjerili. OpenAI: Da li ChatGPT govori istinu?
-
Izlaz zvuči kao ti, a ne kao obavještenje s aerodroma.
-
Kad bi neko saznao da mu vještačka inteligencija pomaže, ne bi se osjećao prevarenim. Reuters i vještačka inteligencija (pristup transparentnosti)
-
Ako je ovo pogrešno, možete navesti ko je oštećen - i koliko teško. NIST AI RMF 1.0
-
Dodali ste stvarnu vrijednost, umjesto da pritisnete Generiraj i pošaljete.
Ako one slete čisto, vaš "procenat" je vjerovatno u redu.
Također, mala ispovijest: ponekad je najetičnija upotreba umjetne inteligencije ušteda energije za dijelove koji zahtijevaju ljudski mozak. Teške dijelove. Najzamršenije dijelove. Dijelove u kojima "moram odlučiti u što vjerujem". 🧠✨
Kratak pregled i završne bilješke 🧾🙂
Dakle - koji postotak vještačke inteligencije je prihvatljiv? manje ovisi o matematici, a više o ulozima, slojevima, verifikaciji i povjerenju . NIST AI RMF 1.0
Ako želite jednostavnu hranu za ponijeti:
-
Niski ulozi + interni rad: Vještačka inteligencija može biti veliki dio (čak i većina) ako je čovjek odgovoran OECD principi vještačke inteligencije
-
Javni sadržaj: Vještačka inteligencija je u redu u pomoćnim ulogama, ali ljudska prosudba mora voditi poruku
-
Informacije od visokog značaja (zdravlje, pravni poslovi, sigurnost, novinarstvo): minimalna pomoć umjetne inteligencije i strogo nadzirana. Smjernice SZO o generativnoj umjetnoj inteligenciji u zdravstvu. AP: Standardi oko generativne umjetne inteligencije.
-
Nikada ne koristite vještačku inteligenciju za lažiranje životnog iskustva, kvalifikacija ili ishoda - tu povjerenje umire 😬 Komentar FTC-a u kojem se poziva na obmanjujuće tvrdnje o vještačkoj inteligenciji, smjernice za vještačku inteligenciju američkog Ureda za autorska prava
A evo i mog pomalo dramatičnog pretjerivanja (jer ljudi to rade):
Ako je vaš rad izgrađen na povjerenju, onda je „prihvatljiva umjetna inteligencija“ ono što i dalje štiti to povjerenje kada niko ne gleda. UNESCO-va preporuka o etici umjetne inteligencije
Evo sažetije i koherentnije verzije vaših često postavljanih pitanja:
Često postavljana pitanja
Koji postotak umjetne inteligencije je prihvatljiv u većini vrsta poslova?
Ne postoji jedinstveni postotak koji odgovara svakom zadatku. Bolji standard je procijeniti korištenje umjetne inteligencije na osnovu uključenih uloga, rizika od greške, očekivanja publike i dijela rada koji je umjetna inteligencija pomogla proizvesti. Visok udio može biti sasvim u redu za interne bilješke, dok je daleko niži udio mudriji za javno dostupan ili osjetljiv materijal.
Kako da mjerim upotrebu vještačke inteligencije bez opsesije tačnim procentima?
Praktičan pristup je razmišljati slojevito, umjesto da se svakoj rečenici dodijeli broj. Ovaj članak obuhvata upotrebu vještačke inteligencije kroz slojeve ideja, nacrta, uređivanja, činjenica i glasa. To olakšava procjenu rizika, budući da je uključenost vještačke inteligencije u činjenice ili lični glas obično važnija od pomoći u brainstormingu ili gramatici.
Koji postotak umjetne inteligencije je prihvatljiv za objave na blogu i marketinški sadržaj?
Za objave na blogu i marketing, širok raspon od oko 20% do 60% podrške umjetne inteligencije može biti izvodljiv. Umjetna inteligencija može pomoći sa nacrtima, strukturom i čišćenjem, pod uslovom da čovjek i dalje kontroliše glas i provjerava tvrdnje. Rizik se brzo povećava kada sadržaj uključuje snažna poređenja, svjedočanstva ili jezik koji implicira lično iskustvo.
Je li u redu koristiti vještačku inteligenciju za školske zadatke ili akademsko pisanje?
U akademskim okruženjima, prihvatljiva upotreba je često mnogo niža, obično oko 0% do 30%, ovisno o pravilima i zadatku. Sigurnija upotreba uključuje brainstorming, izradu nacrta, gramatičku podršku i pomoć pri učenju. Problemi počinju kada vještačka inteligencija pruži analizu, argument ili originalno razmišljanje koje se od studenta očekuje.
Koliko je vještačke inteligencije prihvatljivo za interne dokumente i e-poruke na radnom mjestu?
Pisanje na radnom mjestu često je jedna od fleksibilnijih kategorija, s oko 30% do 80% pomoći umjetne inteligencije. Mnogi interni dokumenti se više ocjenjuju na osnovu jasnoće i brzine nego originalnosti. Uprkos tome, ljudski pregled je i dalje važan kada materijal uključuje jezik politike, osjetljive detalje ili važne činjenične tvrdnje.
Mogu li se timovi za korisničku podršku u velikoj mjeri oslanjati na odgovore umjetne inteligencije?
U mnogim radnim procesima, da, iako samo uz jake zaštitne ograde. Članak predlaže otprilike 40% do 90% podrške umjetne inteligencije za odgovore kupaca kada timovi imaju puteve eskalacije, odobrene izvore znanja i pregled za neuobičajene slučajeve. Veća opasnost nije sama automatizacija, već umjetna inteligencija koja daje samouvjerena obećanja, izuzetke ili obaveze koje nikada nije trebala preuzeti.
Koji postotak umjetne inteligencije je prihvatljiv za zdravstvo, pravo, novinarstvo ili druge teme visokog značaja?
U oblastima s visokim ulozima, pitanje procenta je manje važno od kontrolnog pitanja. Vještačka inteligencija može pomoći pri transkripciji, grubim sažecima ili organizaciji, ali konačna procjena i verifikacija trebaju ostati isključivo ljudski. U ovim oblastima, prihvatljiva pomoć u pisanju koju pruža vještačka inteligencija često je minimalna, oko 0% do 25%, jer je cijena samouvjerene greške daleko veća.
Da li otkrivanje upotrebe vještačke inteligencije čini ljude prihvatljivijim za nju?
U mnogim slučajevima, transparentnost oblikuje reakciju više nego sam postotak. Ljudi se obično osjećaju ugodnije uz pomoć umjetne inteligencije kada se proces čini otvorenim, odgovornim i nije prikriven kao ljudsko stručno znanje ili životno iskustvo. Čak i mala količina skrivene automatizacije može narušiti povjerenje kada se čitaoci osjećaju zavedenima o tome ko je stvorio djelo.
Zašto vještačka inteligencija ponekad čini da pisanje izgleda ravno čak i kada je tehnički ispravno?
Članak ovo opisuje kao problem s glasom. Vještačka inteligencija često pretvara prozu u nešto uglađeno, ali generičko, što može iscrpiti humor, uvjerenje, specifičnost i individualni karakter. Zato mnogi timovi dozvoljavaju vještačkoj inteligenciji da podrži strukturu i jasnoću, dok čovjek zadržava kontrolu nad ukusom, prosuđivanjem, pripovijedanjem i jakim gledištima.
Kako tim može postaviti politiku umjetne inteligencije koju će ljudi slijediti?
Izvodljiva politika obično se fokusira na zadatke i rizik, a ne na kruto procentualno ograničenje. Članak preporučuje da se vještačkoj inteligenciji dozvoli brainstorming, skiciranje, uređivanje, formatiranje i prevođenje nacrta, dok se ograničava na originalne analize, osjetljive teme i stručne savjete. Također bi trebalo zahtijevati ljudski pregled, provjeru činjenica, odgovornost i jasnu zabranu izmišljenih svjedočanstava ili iskustava.
Reference
-
Svjetska zdravstvena organizacija (WHO) - Smjernice WHO o generativnoj umjetnoj inteligenciji u zdravstvu - who.int
-
Svjetska zdravstvena organizacija (WHO) - Etika i upravljanje umjetnom inteligencijom za zdravlje - who.int
-
Nacionalni institut za standarde i tehnologiju (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
Nacionalni institut za standarde i tehnologiju (NIST) - GenAI profil (AI RMF) - nvlpubs.nist.gov
-
Organizacija za ekonomsku saradnju i razvoj (OECD) - OECD principi za umjetnu inteligenciju - oecd.ai
-
UNESCO - Preporuka o etici umjetne inteligencije - unesco.org
-
Ured za autorska prava SAD-a - Smjernice za politiku umjetne inteligencije - copyright.gov
-
Federalna trgovinska komisija (FTC) - Komentar koji se odnosi na rizike marketinških tvrdnji o umjetnoj inteligenciji - ftc.gov
-
Ministarstvo obrazovanja Ujedinjenog Kraljevstva (DfE) - Generativna umjetna inteligencija u obrazovanju - gov.uk
-
Associated Press (AP) - Standardi oko generativne umjetne inteligencije - ap.org
-
Društvo profesionalnih novinara (SPJ) - Kodeks etike SPJ-a - spj.org
-
Reuters - Federalna trgovinska komisija (FTC) obračunava se s obmanjujućim tvrdnjama o vještačkoj inteligenciji (2024-09-25) - reuters.com
-
Reuters - Reuters i umjetna inteligencija (pristup transparentnosti) - reuters.com
-
Univerzitet u Oxfordu (Reuters Institut) - Objavljivanje informacija i povjerenje u umjetnu inteligenciju (2024) - ora.ox.ac.uk
-
ScienceDirect - Dilema transparentnosti: Otkrivanje informacija o umjetnoj inteligenciji i povjerenje (Schilke, 2025) - sciencedirect.com
-
OpenAI - Zašto jezički modeli haluciniraju - openai.com
-
Centar za pomoć OpenAI-a - Da li ChatGPT govori istinu? - help.openai.com