Kratak odgovor: Programeri koji koriste generativnu umjetnu inteligenciju odgovorni su za cijeli sistem, a ne samo za rezultate modela. Kada umjetna inteligencija utiče na odluke, kod, privatnost ili povjerenje korisnika, moraju odabrati sigurne aplikacije, provjeriti rezultate, zaštititi podatke, smanjiti štetu i osigurati da ljudi mogu pregledati, poništiti i ispraviti greške.
Ključne zaključke:
Verifikacija : Tretirajte dotjerane rezultate kao nepouzdane dok ih izvori, testovi ili ljudska provjera ne potvrde.
Zaštita podataka : Minimizirajte podatke upita, uklonite identifikatore i osigurajte logove, kontrole pristupa i dobavljače.
Pravednost : Testirajte u različitim demografskim grupama i kontekstima kako biste uočili stereotipe i neujednačene obrasce neuspjeha.
Transparentnost : Jasno označite upotrebu umjetne inteligencije, objasnite njena ograničenja i ponudite ljudsku provjeru ili žalbu.
Odgovornost : Dodijelite jasne vlasnike za implementaciju, incidente, praćenje i vraćanje na prethodno stanje prije lansiranja.

Članci koje biste možda željeli pročitati nakon ovog:
🔗 Najbolji AI alati za programere softvera: Vrhunski AI asistenti za kodiranje
Uporedite najbolje AI asistente za kodiranje za brže i čišće razvojne procese.
🔗 10 najboljih AI alata za programere za povećanje produktivnosti
Rangirana lista alata za umjetnu inteligenciju za razvojne programere za pametnije kodiranje i brzinu.
🔗 Zašto vještačka inteligencija može biti loša za društvo i povjerenje
Objašnjava štetne posljedice u stvarnom svijetu: predrasude, privatnost, radna mjesta i rizike od dezinformacija.
🔗 Da li je vještačka inteligencija otišla predaleko u donošenju odluka s visokim ulozima?
Definiše kada vještačka inteligencija prelazi granice: nadzor, deepfakeovi, uvjeravanje, nedostatak pristanka.
Zašto je odgovornost programera koji koriste generativnu umjetnu inteligenciju važnija nego što ljudi misle
Mnogo softverskih grešaka je iritantno. Dugme se pokvari. Stranica se sporo učitava. Nešto se sruši i svi se žale.
Problemi generativne umjetne inteligencije mogu biti različiti. Mogu biti suptilni.
Model može zvučati samouvjereno, a istovremeno biti u krivu. NIST GenAI profil Može reproducirati pristranost bez očiglednih znakova upozorenja. NIST GenAI profil Može otkriti osjetljive podatke ako se koristi neoprezno. OWASP Top 10 za LLM aplikacije Osam pitanja ICO-a za generativnu umjetnu inteligenciju Može proizvesti kod koji radi - sve dok ne zakaže u produkciji na neki duboko neugodan način. OWASP Top 10 za LLM aplikacije Pomalo kao zapošljavanje vrlo entuzijastičnog pripravnika koji nikad ne spava i s vremena na vrijeme izmišlja činjenice sa zapanjujućim samopouzdanjem.
Zato odgovornost programera koji koriste generativnu vještačku inteligenciju veća od jednostavne implementacije. Programeri više ne grade samo logičke sisteme. Oni grade vjerovatnosne sisteme sa nejasnim ivicama, nepredvidivim izlazima i stvarnim društvenim posljedicama. NIST AI RMF
To znači da odgovornost uključuje:
-
razumijevanje ograničenja modela NIST AI RMF
-
zaštita privatnosti korisnika, smjernice ICO-a o umjetnoj inteligenciji i zaštiti podataka
-
smanjenje štetnih izlaza NIST GenAI profil
-
Provjera tačnosti prije dodjeljivanja povjerenja NIST GenAI profil
-
razjašnjavanje ljudske uloge OECD-ovih principa umjetne inteligencije
-
dizajniranje rezervnih puteva kada vještačka inteligencija ne uspije OECD principi vještačke inteligencije NCSC smjernice za sigurnu vještačku inteligenciju
-
jasno dokumentiranje sistema prema OECD-ovim principima umjetne inteligencije
Znate kako to ide - kada alat djeluje magično, ljudi prestanu da ga preispituju. Programeri si ne mogu priuštiti da budu toliko opušteni.
Šta čini dobru verziju odgovornosti programera koji koriste generativnu vještačku inteligenciju? 🛠️
Dobra verzija odgovornosti nije performativna. Ne radi se samo o dodavanju odricanja odgovornosti na dnu i nazivanju toga etikom. Ona se pokazuje u izborima dizajna, navikama testiranja i ponašanju proizvoda.
Evo kako obično izgleda odgovornosti programera koji koriste generativnu umjetnu inteligenciju
-
Namjerna upotreba NIST AI RMF
-
Vještačka inteligencija se koristi za stvarni problem, a ne ubacuje se u proizvod zato što zvuči moderno.
-
-
Ljudski nadzor OECD-ovi principi umjetne inteligencije
-
Ljudi mogu pregledati, ispraviti, poništiti ili odbaciti rezultate.
-
-
Sigurnost već u dizajnu NCSC smjernice za sigurnu umjetnu inteligenciju
-
Kontrole rizika se ugrađuju rano, a ne lijepe se kasnije.
-
-
Transparentnost Principi OECD-a za umjetnu inteligenciju Pregled Zakona o umjetnoj inteligenciji Evropske komisije
-
Korisnici razumiju kada je sadržaj generiran umjetnom inteligencijom ili potpomognut umjetnom inteligencijom.
-
-
Osam pitanja za generativnu umjetnu inteligenciju u okviru ICO-a za brigu o podacima
-
Osjetljive informacije se pažljivo tretiraju, a pristup je ograničen.
-
-
Provjere pravičnosti NIST GenAI profil ICO smjernice o umjetnoj inteligenciji i zaštiti podataka
-
Sistem se testira na pristranost, neujednačene performanse i štetne obrasce.
-
-
Kontinuirano praćenje NIST AI RMF NCSC smjernica za sigurnu umjetnu inteligenciju
-
Lansiranje nije ciljna linija. To je više kao startni zvižduk.
-
Ako vam to zvuči kao mnogo, pa... jeste. Ali to je stvar kada radite s tehnologijom koja može utjecati na odluke, uvjerenja i ponašanje u velikim razmjerima. OECD-ovi principi umjetne inteligencije
Tabela poređenja - pregled osnovne odgovornosti programera koji koriste generativnu vještačku inteligenciju 📋
| Područje odgovornosti | Na koga to utiče | Dnevna praksa programera | Zašto je to važno |
|---|---|---|---|
| Tačnost i verifikacija | korisnici, timovi, kupci | Pregledajte izlaze, dodajte slojeve validacije, testirajte granične slučajeve | Vještačka inteligencija može biti tečna, a ipak izrazito pogriješiti - što je otprilike kombinacija NIST GenAI profila |
| Zaštita privatnosti | korisnici, klijenti, interno osoblje | Minimizirajte korištenje osjetljivih podataka, prebrišite upite, kontrolišite zapisnike | Čim privatni podaci procure, pasta za zube je van tube 😬 Osam pitanja ICO-a za generativnu umjetnu inteligenciju OWASP Top 10 za LLM aplikacije |
| Pristrasnost i pravednost | nedovoljno zastupljene grupe, svi korisnici zaista | Revizija izlaza, testiranje raznolikih ulaza, podešavanje zaštitnih mjera | Šteta nije uvijek glasna - ponekad je sistematična i tiha , NIST GenAI profil , ICO smjernice o umjetnoj inteligenciji i zaštiti podataka |
| Sigurnost | sistemi kompanije, korisnici | Ograniči pristup modelu, zaštiti se od brzog ubrizgavanja, rizične akcije u sandboxu | Jedan pametni iskorištavač može brzo uništiti povjerenje OWASP Top 10 za LLM aplikacije NCSC o vještačkoj inteligenciji i sajber sigurnosti |
| Transparentnost | krajnji korisnici, regulatori, timovi za podršku | Jasno označite ponašanje umjetne inteligencije, objasnite ograničenja, dokumentirajte upotrebu | Ljudi zaslužuju znati kada mašina pomaže OECD-ovom Kodeksu prakse o označavanju i etiketiranju sadržaja generiranog umjetnom inteligencijom |
| Odgovornost | vlasnici proizvoda, pravni, razvojni timovi | Definiranje vlasništva, rješavanje incidenata, puteva eskalacije | „Vještačka inteligencija je to uradila“ nije odrastao odgovor, prema OECD principima vještačke inteligencije |
| Pouzdanost | svi koji dodiruju proizvod | Pratite kvarove, postavite pragove pouzdanosti, kreirajte rezervnu logiku | Modeli lutaju, ne uspijevaju na neočekivane načine i s vremena na vrijeme imaju dramatične male epizode, prema NIST AI RMF NCSC smjernicama za sigurnu umjetnu inteligenciju. |
| Blagostanje korisnika | posebno ranjivi korisnici | Izbjegavajte manipulativni dizajn, ograničite štetne rezultate, pregledajte visokorizične slučajeve upotrebe | Samo zato što se nešto može generirati ne znači da bi to trebalo biti OECD AI principi NIST AI RMF |
Malo neravan sto, sigurno, ali to odgovara temi. Prava odgovornost je takođe neravnomjerna.
Odgovornost počinje prije prvog upita - odabir pravog slučaja upotrebe 🎯
Jedna od najvećih odgovornosti programera je odlučivanje o tome treba li uopće koristiti generativnu umjetnu inteligenciju . NIST AI RMF
To zvuči očigledno, ali se stalno preskače. Timovi vide model, uzbude se i počnu ga forsirati u tokove rada koji bi se bolje rješavali pravilima, pretraživanjem ili običnom softverskom logikom. Nije svakom problemu potreban jezički model. Nekim problemima je potrebna baza podataka i mirno popodne.
Prije izgradnje, investitori bi trebali pitati:
-
Je li zadatak otvorenog tipa ili deterministički?
-
Može li pogrešan izlaz prouzrokovati štetu?
-
Da li korisnicima treba kreativnost, predviđanje, sumiranje, automatizacija - ili samo brzina?
-
Hoće li ljudi previše vjerovati rezultatima? NIST GenAI profil
-
Može li čovjek realno pregledati rezultate? OECD-ovi principi umjetne inteligencije
-
Šta se dešava kada je model pogrešan? OECD principi umjetne inteligencije
Odgovoran programer ne pita samo: „Možemo li ovo izgraditi?“ On pita: „Da li bi ovo trebalo biti izgrađeno na ovaj način?“ NIST AI RMF
To pitanje samo po sebi sprečava mnogo blještavih gluposti.
Tačnost je odgovornost, a ne bonus funkcija ✅
Budimo jasni - jedna od najvećih zamki u generativnoj umjetnoj inteligenciji je brkanje elokvencije s istinom. Modeli često daju odgovore koji zvuče uglađeno, strukturirano i duboko uvjerljivo. Što je divno, sve dok sadržaj ne postane besmislica umotana u povjerljivost. NIST GenAI profil
Dakle, odgovornost programera koji koriste generativnu umjetnu inteligenciju uključuje izradu za verifikaciju.
To znači:
-
korištenjem pronalaženja ili uzemljenja gdje je to moguće , NIST GenAI profil
-
odvajanje generiranog sadržaja od potvrđenih činjenica OECD principi umjetne inteligencije
-
pažljivo dodavanje pragova pouzdanosti NIST AI RMF
-
kreiranje tokova rada za pregled rezultata od visokog značaja prema OECD principima umjetne inteligencije
-
sprečavanje improvizacije modela u kritičnim kontekstima NIST GenAI profil
-
upute za testiranje koje pokušavaju probiti ili obmanuti sistem OWASP Top 10 za LLM aplikacije
Ovo je veoma važno u oblastima kao što su:
-
zdravstvena zaštita
-
finansije
-
pravni tokovi rada
-
obrazovanje
-
korisnička podrška
-
automatizacija preduzeća
-
generiranje koda
Generirani kod, na primjer, može izgledati uredno, a istovremeno skrivati sigurnosne nedostatke ili logičke greške. Programer koji ga slijepo kopira nije efikasan - on jednostavno prebacuje rizik na druge u ljepšem formatu. OWASP Top 10 za LLM aplikacije NCSC o vještačkoj inteligenciji i sajber sigurnosti
Model može pomoći. Programer i dalje posjeduje rezultat. OECD principi umjetne inteligencije
Privatnost i upravljanje podacima su neosporni 🔐
Ovdje stvari brzo postaju ozbiljne. Generativni AI sistemi često se oslanjaju na prompte, logove, kontekstualne prozore, memorijske slojeve, analitiku i infrastrukturu trećih strana. To stvara mnogo šansi za curenje osjetljivih podataka, njihovo zadržavanje ili ponovnu upotrebu na načine koje korisnici nikada nisu očekivali. Osam pitanja ICO-a za generativni AI OWASP Top 10 za LLM aplikacije
Programeri imaju odgovornost da zaštite:
-
lične informacije
-
finansijski zapisi
-
medicinski detalji
-
interni podaci kompanije
-
poslovne tajne
-
tokeni za autentifikaciju
-
komunikacija s klijentima
Odgovorne prakse uključuju:
-
minimiziranje podataka koji ulaze u model ICO-a u osam pitanja za generativnu umjetnu inteligenciju
-
maskiranje ili uklanjanje identifikatora NIST GenAI profila
-
Ograničavanje zadržavanja logova, smjernice ICO-a o umjetnoj inteligenciji i zaštiti podataka
-
kontrolisanje ko može pristupiti upitima i izlazima OWASP Top 10 za LLM aplikacije
-
pažljivo pregledavanje postavki dobavljača NCSC smjernice za sigurnu umjetnu inteligenciju
-
Izoliranje visokorizičnih radnih procesa NCSC-a - smjernice za sigurnu umjetnu inteligenciju
-
učiniti ponašanje u vezi s privatnošću vidljivim korisnicima; osam pitanja ICO-a za generativnu umjetnu inteligenciju
Ovo je jedno od onih područja gdje "zaboravili smo razmisliti o tome" nije mala greška. To je neuspjeh koji uništava povjerenje.
A povjerenje, jednom kada se napukne, širi se poput ispuštenog stakla. Možda nije najugodnija metafora, ali shvatate.
Pristrasnost, pravičnost i zastupljenost - tiše odgovornosti ⚖️
Pristrasnost u generativnoj umjetnoj inteligenciji rijetko je crtani negativac. Obično je mnogo suptilnija od toga. Model može proizvesti stereotipne opise poslova, neujednačene odluke o moderiranju, jednostrane preporuke ili kulturno uske pretpostavke bez aktiviranja očiglednih alarma. NIST GenAI profil
Zato odgovornost programera koji koriste generativnu umjetnu inteligenciju uključuje aktivan rad na pravednosti.
Programeri bi trebali:
-
testne upute iz različitih demografskih grupa i konteksta NIST GenAI profil
-
pregled rezultata za stereotipe i isključenost NIST GenAI profila
-
uključiti različite perspektive tokom evaluacije NIST AI RMF
-
Pazite na neujednačene obrasce kvarova NIST GenAI profila
-
izbjegavajte pretpostavku da jedan jezički stil ili kulturna norma odgovara svima; smjernice ICO-a o umjetnoj inteligenciji i zaštiti podataka
-
kreirati kanale za prijavljivanje štetnih rezultata NIST AI RMF
Sistem može izgledati kao da generalno dobro funkcioniše, a istovremeno konstantno opslužuje neke korisnike lošije od drugih. To nije prihvatljivo samo zato što prosječne performanse izgledaju dobro na kontrolnoj tabli. Smjernice ICO-a o vještačkoj inteligenciji i zaštiti podataka NIST GenAI profil
I da, pravednost je teža od uredne kontrolne liste. U njoj se nalazi rasuđivanje. Kontekst. Kompromisi. I određena mjera nelagode. Ali to ne uklanja odgovornost - potvrđuje je. Smjernice ICO-a o umjetnoj inteligenciji i zaštiti podataka
Sigurnost je sada dijelom brzog dizajna, dijelom inženjerske discipline 🧱
Generativna AI sigurnost je svoja posebna zvijer. Tradicionalna sigurnost aplikacija je i dalje važna, naravno, ali AI sistemi dodaju neobične površine za napad: ubrizgavanje prompta, indirektnu manipulaciju promptom, nesigurnu upotrebu alata, izvlačenje podataka kroz kontekst i zloupotrebu modela kroz automatizirane tokove rada. OWASP Top 10 za LLM aplikacije NCSC o AI i sajber sigurnosti
Programeri su odgovorni za osiguranje cijelog sistema, a ne samo interfejsa. NCSC smjernice za sigurnu umjetnu inteligenciju
Ključne odgovornosti ovdje uključuju:
-
čišćenje nepouzdanih unosa OWASP Top 10 za LLM aplikacije
-
ograničavanje alata koje model može nazvati OWASP Top 10 za LLM aplikacije
-
ograničavanje pristupa datotekama i mreži prema smjernicama NCSC-a za sigurnu umjetnu inteligenciju
-
jasno odvajanje dozvola NCSC smjernice za sigurnu umjetnu inteligenciju
-
Praćenje obrazaca zloupotrebe Smjernice NCSC-a za sigurnu umjetnu inteligenciju
-
skupe ili rizične radnje koje ograničavaju stopu OWASP Top 10 za LLM prijave
-
testiranje suparničkih uputa OWASP Top 10 za LLM prijave
-
izgradnja sigurnih rezervnih rješenja kada su instrukcije u suprotnosti s OECD principima umjetne inteligencije
Jedna neugodna istina je da će korisnici - i napadači - apsolutno pokušati stvari koje programeri nisu očekivali. Neki iz radoznalosti, neki iz zlobe, neki zato što su kliknuli na pogrešnu stvar u 2 sata ujutro. Dešava se.
Sigurnost generativne umjetne inteligencije manje je poput izgradnje zida, a više poput upravljanja vrlo pričljivim čuvarom vrata koji se ponekad prevari fraziranjem.
Transparentnost i pristanak korisnika su važniji od blještavog korisničkog iskustva 🗣️
Kada korisnici komuniciraju s umjetnom inteligencijom, trebali bi to znati. OECD-ov Kodeks prakse principa umjetne inteligencije o označavanju i etiketiranju sadržaja generiranog umjetnom inteligencijom
Ne nejasno. Ne zakopano u terminima. Jasno.
Ključni dio odgovornosti programera koji koriste generativnu umjetnu inteligenciju je osigurati da korisnici razumiju:
-
kada se koristi vještačka inteligencija Principi OECD-a za vještačku inteligenciju
-
Šta vještačka inteligencija može, a šta ne može da uradi OECD principi vještačke inteligencije
-
da li ljudi pregledavaju izlazne podatke OECD principi umjetne inteligencije
-
kako se njihovi podaci obrađuju Osam pitanja ICO-a za generativnu umjetnu inteligenciju
-
Koji nivo pouzdanosti bi trebali imati NIST AI RMF
-
Kako prijaviti probleme ili se žaliti na odluke OECD principi umjetne inteligencije NIST AI RMF
Transparentnost nije zastrašivanje korisnika. Radi se o njihovom poštovanju.
Dobra transparentnost može uključivati:
-
oznake kao što su Kodeks prakse za označavanje i etiketiranje sadržaja generiranog
-
objašnjenja jednostavnim jezikom OECD principi umjetne inteligencije
-
vidljive historije uređivanja gdje je to relevantno
-
opcije za isključivanje AI funkcija
-
eskalacija čovjeku kada je potrebno OECD principi umjetne inteligencije
-
Kratka upozorenja za visokorizične zadatke Pregled zakona Evropske komisije o umjetnoj inteligenciji
Mnogi timovi za razvoj proizvoda brinu da će iskrenost učiniti da funkcija djeluje manje magično. Možda. Ali lažna sigurnost je gora. Glatko sučelje koje skriva rizik je u osnovi uglađena zbunjenost.
Programeri ostaju odgovorni - čak i kada model "odluči" 👀
Ovaj dio je veoma važan. Odgovornost se ne može prenijeti na dobavljača modela, karticu modela, predložak upita ili misterioznu atmosferu mašinskog učenja. OECD AI principi NIST AI RMF
Programeri su i dalje odgovorni. OECD-ovi principi umjetne inteligencije
To znači da neko u timu treba da posjeduje:
-
odabir modela NIST AI RMF
-
standardi testiranja NIST GenAI profil
-
kriteriji za puštanje na tržište NIST GenAI profila
-
Smjernice NCSC-a za sigurnu umjetnu inteligenciju za odgovor na incidente
-
rješavanje pritužbi korisnika NIST AI RMF
-
procedure vraćanja na prethodno stanje Principi OECD-a za umjetnu inteligenciju
-
Praćenje promjena Principi OECD-a za umjetnu inteligenciju
-
dokumentacija OECD Principi umjetne inteligencije
Trebali bi postojati jasni odgovori na pitanja poput:
-
Ko odobrava implementaciju? NIST GenAI profil
-
Ko pregleda incidente sa štetnim ishodom? NIST GenAI profil
-
Ko može onemogućiti funkciju? OECD-ovi principi umjetne inteligencije
-
Ko prati regresije? NIST AI RMF
-
Ko komunicira s korisnicima kada se nešto pokvari? OECD-ovi principi umjetne inteligencije
Bez vlasništva, odgovornost se pretvara u maglu. Svi pretpostavljaju da se neko drugi time bavi... a onda to niko ne radi.
Taj obrazac je, istina, stariji od umjetne inteligencije. Umjetna inteligencija ga jednostavno čini opasnijim.
Odgovorni programeri grade za ispravku, a ne za savršenstvo 🔄
Evo malog obrata u svemu ovome: odgovoran razvoj vještačke inteligencije nije pretvaranje da će sistem biti savršen. Radi se o pretpostavci da će na neki način propasti i dizajniranju oko te stvarnosti. NIST AI RMF
To znači izgradnju proizvoda koji su:
-
OECD-ovi principi umjetne inteligencije koji se mogu provjeravati
-
odluke i rezultati mogu se kasnije pregledati
-
-
OECD principi umjetne inteligencije koji se mogu prekidati
-
ljudi mogu zaustaviti ili poništiti loše ponašanje
-
-
OECD principi umjetne inteligencije koji se mogu oporaviti
-
postoji rezervno rješenje kada je izlaz umjetne inteligencije pogrešan
-
-
Smjernice za sigurnu umjetnu inteligenciju NCSC-a koje se mogu pratiti , NIST AI RMF
-
Timovi mogu uočiti obrasce prije nego što postanu katastrofe
-
-
poboljšani NIST GenAI profil
-
Povratne petlje postoje i neko ih čita
-
Ovako izgleda zrelost. Ne sjajne demonstracije. Ne marketinški tekstovi koji ostavljaju dah. Pravi sistemi, sa zaštitnim ogradama, logovima, odgovornošću i dovoljno skromnosti da se prizna da mašina nije čarobnjak. Smjernice za sigurnu vještačku inteligenciju NCSC-a, Principi vještačke inteligencije OECD-a.
Zato što nije. To je alat. Moćan, da. Ali ipak alat.
Završna refleksija o odgovornosti programera koji koriste generativnu umjetnu inteligenciju 🌍
Dakle, koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju ?
To znači graditi s pažnjom. Ispitati gdje sistem pomaže, a gdje šteti. Zaštititi privatnost. Testirati pristrasnost. Provjeriti rezultate. Osigurati radni tok. Biti transparentan prema korisnicima. Održavati smislenu kontrolu među ljudima. Održavati odgovornost kada stvari krenu po zlu. NIST AI RMF OECD AI Principi
To možda zvuči preteško - i jeste. Ali to je ujedno i ono što razlikuje promišljeni razvoj od nepromišljene automatizacije.
Najbolji programeri koji koriste generativnu umjetnu inteligenciju nisu oni koji natjeraju model da izvodi najviše trikova. Oni su oni koji razumiju posljedice tih trikova i dizajniraju u skladu s tim. Znaju da je brzina važna, ali povjerenje je pravi proizvod. Čudno je da ta staromodna ideja i dalje traje. NIST AI RMF
Na kraju krajeva, odgovornost nije prepreka inovacijama. Ona je ono što sprječava da se inovacije pretvore u skupo, turbulentno širenje s uglađenim interfejsom i problemom samopouzdanja 😬✨
I možda je to najjednostavnija verzija toga.
Gradite hrabro, svakako - ali gradite na način da bi ljudi mogli biti pogođeni, jer jesu. OECD Principi umjetne inteligencije
Često postavljana pitanja
Koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju u praksi?
Odgovornost programera koji koriste generativnu umjetnu inteligenciju proteže se daleko izvan brzog isporučivanja funkcija. To uključuje odabir pravog slučaja upotrebe, testiranje rezultata, zaštitu privatnosti, smanjenje štetnog ponašanja i omogućavanje sistema razumljivom korisnicima. U praksi, programeri ostaju odgovorni za to kako je alat dizajniran, praćen, ispravljen i kako se njime upravlja kada dođe do kvara.
Zašto generativna umjetna inteligencija zahtijeva veću odgovornost programera nego normalan softver?
Tradicionalne greške su često očigledne, ali generativni neuspjesi umjetne inteligencije mogu zvučati uglađeno, a istovremeno biti pogrešni, pristrasni ili rizični. Zbog toga je teže uočiti probleme i lakše korisnicima da im greškom povjeruju. Programeri rade s vjerovatnosnim sistemima, tako da odgovornost uključuje rukovanje neizvjesnošću, ograničavanje štete i pripremu za nepredvidive ishode prije lansiranja.
Kako programeri znaju kada generativna umjetna inteligencija ne bi trebala biti korištena?
Uobičajena polazna tačka je pitanje da li je zadatak otvorenog tipa ili se bolje rješava pravilima, pretragom ili standardnom softverskom logikom. Programeri bi također trebali razmotriti koliko štete može uzrokovati pogrešan odgovor i da li čovjek može realno pregledati rezultate. Odgovorna upotreba ponekad znači odluku da se generativna umjetna inteligencija uopće ne koristi.
Kako programeri mogu smanjiti halucinacije i pogrešne odgovore u generativnim AI sistemima?
Tačnost treba biti osmišljena, a ne pretpostavljena. U mnogim procesima razvoja, to znači zasnivanje rezultata na pouzdanim izvorima, odvajanje generiranog teksta od provjerenih činjenica i korištenje tokova rada za pregled za zadatke s većim rizikom. Programeri bi također trebali testirati upute koje imaju za cilj zbuniti ili obmanuti sistem, posebno u područjima kao što su kod, podrška, finansije, obrazovanje i zdravstvo.
Koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju za privatnost i osjetljive podatke?
Odgovornost programera koji koriste generativnu umjetnu inteligenciju uključuje minimiziranje podataka koji ulaze u model i tretiranje upita, logova i izlaza kao osjetljivih. Programeri bi trebali ukloniti identifikatore gdje je to moguće, ograničiti zadržavanje, kontrolirati pristup i pažljivo pregledati postavke dobavljača. Korisnici bi također trebali biti u stanju razumjeti kako se njihovi podaci rukuju, umjesto da kasnije otkrivaju rizike.
Kako bi se programeri trebali nositi s pristranošću i pravednošću u generativnim AI rezultatima?
Rad na pristranostima zahtijeva aktivnu evaluaciju, a ne pretpostavke. Praktičan pristup je testiranje upita u različitim demografskim grupama, jezicima i kontekstima, a zatim pregled rezultata za stereotipe, isključenost ili neujednačene obrasce neuspjeha. Programeri bi također trebali stvoriti načine za korisnike ili timove da prijave štetno ponašanje, jer sistem može izgledati snažno u cjelini, a ipak konstantno podbacivati određene grupe.
O kojim sigurnosnim rizicima programeri trebaju razmišljati kod generativne umjetne inteligencije?
Generativna umjetna inteligencija uvodi nove površine za napad, uključujući brzo ubrizgavanje, nesigurnu upotrebu alata, curenje podataka kroz kontekst i zloupotrebu automatiziranih radnji. Programeri bi trebali "dezinficirati" nepouzdane unose, ograničiti dozvole alata, ograničiti pristup datotekama i mreži te pratiti obrasce zloupotrebe. Sigurnost se ne odnosi samo na interfejs; ona se odnosi na cijeli tijek rada oko modela.
Zašto je transparentnost važna prilikom izgradnje pomoću generativne umjetne inteligencije?
Korisnici bi trebali jasno znati kada je u pitanju umjetna inteligencija, šta može učiniti i gdje su joj granice. Dobra transparentnost može uključivati oznake kao što su "generirano od strane umjetne inteligencije" ili "potpomognuto umjetnom inteligencijom", jednostavna objašnjenja i jasne puteve do ljudske podrške. Takva vrsta iskrenosti ne slabi proizvod; pomaže korisnicima da kalibriraju povjerenje i donose bolje odluke.
Ko je odgovoran kada generativna funkcija umjetne inteligencije uzrokuje štetu ili napravi nešto pogrešno?
Programeri i timovi za razvoj proizvoda i dalje snose odgovornost za ishod, čak i kada model proizvede odgovor. To znači da bi trebala postojati jasna odgovornost za odobrenje implementacije, rješavanje incidenata, vraćanje prethodnih rezultata, praćenje i komunikaciju s korisnicima. "Model je odlučio" nije dovoljno, jer odgovornost mora ostati na ljudima koji su dizajnirali i pokrenuli sistem.
Kako izgleda odgovoran razvoj generativne umjetne inteligencije nakon lansiranja?
Odgovoran razvoj se nastavlja i nakon objavljivanja kroz praćenje, povratne informacije, pregled i korekcije. Snažni sistemi se mogu revidirati, prekidati, oporaviti i dizajnirani su s rezervnim putevima u slučaju kvara umjetne inteligencije. Cilj nije savršenstvo; cilj je izgraditi nešto što se može sigurno ispitati, poboljšati i prilagoditi kako se pojave problemi iz stvarnog svijeta.
Reference
-
Nacionalni institut za standarde i tehnologiju (NIST) - NIST GenAI profil - nvlpubs.nist.gov
-
OWASP - OWASP Top 10 za prijave na LLM - owasp.org
-
Ured povjerenika za informacije (ICO) - Osam pitanja ICO-a za generativnu umjetnu inteligenciju - ico.org.uk