Koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju?

Koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju?

Kratak odgovor: Programeri koji koriste generativnu umjetnu inteligenciju odgovorni su za cijeli sistem, a ne samo za rezultate modela. Kada umjetna inteligencija utiče na odluke, kod, privatnost ili povjerenje korisnika, moraju odabrati sigurne aplikacije, provjeriti rezultate, zaštititi podatke, smanjiti štetu i osigurati da ljudi mogu pregledati, poništiti i ispraviti greške.

Ključne zaključke:

Verifikacija : Tretirajte dotjerane rezultate kao nepouzdane dok ih izvori, testovi ili ljudska provjera ne potvrde.

Zaštita podataka : Minimizirajte podatke upita, uklonite identifikatore i osigurajte logove, kontrole pristupa i dobavljače.

Pravednost : Testirajte u različitim demografskim grupama i kontekstima kako biste uočili stereotipe i neujednačene obrasce neuspjeha.

Transparentnost : Jasno označite upotrebu umjetne inteligencije, objasnite njena ograničenja i ponudite ljudsku provjeru ili žalbu.

Odgovornost : Dodijelite jasne vlasnike za implementaciju, incidente, praćenje i vraćanje na prethodno stanje prije lansiranja.

Koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju? Infografika

Članci koje biste možda željeli pročitati nakon ovog:

🔗 Najbolji AI alati za programere softvera: Vrhunski AI asistenti za kodiranje
Uporedite najbolje AI asistente za kodiranje za brže i čišće razvojne procese.

🔗 10 najboljih AI alata za programere za povećanje produktivnosti
Rangirana lista alata za umjetnu inteligenciju za razvojne programere za pametnije kodiranje i brzinu.

🔗 Zašto vještačka inteligencija može biti loša za društvo i povjerenje
Objašnjava štetne posljedice u stvarnom svijetu: predrasude, privatnost, radna mjesta i rizike od dezinformacija.

🔗 Da li je vještačka inteligencija otišla predaleko u donošenju odluka s visokim ulozima?
Definiše kada vještačka inteligencija prelazi granice: nadzor, deepfakeovi, uvjeravanje, nedostatak pristanka.

Zašto je odgovornost programera koji koriste generativnu umjetnu inteligenciju važnija nego što ljudi misle

Mnogo softverskih grešaka je iritantno. Dugme se pokvari. Stranica se sporo učitava. Nešto se sruši i svi se žale.

Problemi generativne umjetne inteligencije mogu biti različiti. Mogu biti suptilni.

Model može zvučati samouvjereno, a istovremeno biti u krivu. NIST GenAI profil Može reproducirati pristranost bez očiglednih znakova upozorenja. NIST GenAI profil Može otkriti osjetljive podatke ako se koristi neoprezno. OWASP Top 10 za LLM aplikacije Osam pitanja ICO-a za generativnu umjetnu inteligenciju Može proizvesti kod koji radi - sve dok ne zakaže u produkciji na neki duboko neugodan način. OWASP Top 10 za LLM aplikacije Pomalo kao zapošljavanje vrlo entuzijastičnog pripravnika koji nikad ne spava i s vremena na vrijeme izmišlja činjenice sa zapanjujućim samopouzdanjem.

Zato odgovornost programera koji koriste generativnu vještačku inteligenciju veća od jednostavne implementacije. Programeri više ne grade samo logičke sisteme. Oni grade vjerovatnosne sisteme sa nejasnim ivicama, nepredvidivim izlazima i stvarnim društvenim posljedicama. NIST AI RMF

To znači da odgovornost uključuje:

Znate kako to ide - kada alat djeluje magično, ljudi prestanu da ga preispituju. Programeri si ne mogu priuštiti da budu toliko opušteni.

Šta čini dobru verziju odgovornosti programera koji koriste generativnu vještačku inteligenciju? 🛠️

Dobra verzija odgovornosti nije performativna. Ne radi se samo o dodavanju odricanja odgovornosti na dnu i nazivanju toga etikom. Ona se pokazuje u izborima dizajna, navikama testiranja i ponašanju proizvoda.

Evo kako obično izgleda odgovornosti programera koji koriste generativnu umjetnu inteligenciju

Ako vam to zvuči kao mnogo, pa... jeste. Ali to je stvar kada radite s tehnologijom koja može utjecati na odluke, uvjerenja i ponašanje u velikim razmjerima. OECD-ovi principi umjetne inteligencije

Tabela poređenja - pregled osnovne odgovornosti programera koji koriste generativnu vještačku inteligenciju 📋

Područje odgovornosti Na koga to utiče Dnevna praksa programera Zašto je to važno
Tačnost i verifikacija korisnici, timovi, kupci Pregledajte izlaze, dodajte slojeve validacije, testirajte granične slučajeve Vještačka inteligencija može biti tečna, a ipak izrazito pogriješiti - što je otprilike kombinacija NIST GenAI profila
Zaštita privatnosti korisnici, klijenti, interno osoblje Minimizirajte korištenje osjetljivih podataka, prebrišite upite, kontrolišite zapisnike Čim privatni podaci procure, pasta za zube je van tube 😬 Osam pitanja ICO-a za generativnu umjetnu inteligenciju OWASP Top 10 za LLM aplikacije
Pristrasnost i pravednost nedovoljno zastupljene grupe, svi korisnici zaista Revizija izlaza, testiranje raznolikih ulaza, podešavanje zaštitnih mjera Šteta nije uvijek glasna - ponekad je sistematična i tiha , NIST GenAI profil , ICO smjernice o umjetnoj inteligenciji i zaštiti podataka
Sigurnost sistemi kompanije, korisnici Ograniči pristup modelu, zaštiti se od brzog ubrizgavanja, rizične akcije u sandboxu Jedan pametni iskorištavač može brzo uništiti povjerenje OWASP Top 10 za LLM aplikacije NCSC o vještačkoj inteligenciji i sajber sigurnosti
Transparentnost krajnji korisnici, regulatori, timovi za podršku Jasno označite ponašanje umjetne inteligencije, objasnite ograničenja, dokumentirajte upotrebu Ljudi zaslužuju znati kada mašina pomaže OECD-ovom Kodeksu prakse o označavanju i etiketiranju sadržaja generiranog umjetnom inteligencijom
Odgovornost vlasnici proizvoda, pravni, razvojni timovi Definiranje vlasništva, rješavanje incidenata, puteva eskalacije „Vještačka inteligencija je to uradila“ nije odrastao odgovor, prema OECD principima vještačke inteligencije
Pouzdanost svi koji dodiruju proizvod Pratite kvarove, postavite pragove pouzdanosti, kreirajte rezervnu logiku Modeli lutaju, ne uspijevaju na neočekivane načine i s vremena na vrijeme imaju dramatične male epizode, prema NIST AI RMF NCSC smjernicama za sigurnu umjetnu inteligenciju.
Blagostanje korisnika posebno ranjivi korisnici Izbjegavajte manipulativni dizajn, ograničite štetne rezultate, pregledajte visokorizične slučajeve upotrebe Samo zato što se nešto može generirati ne znači da bi to trebalo biti OECD AI principi NIST AI RMF

Malo neravan sto, sigurno, ali to odgovara temi. Prava odgovornost je takođe neravnomjerna.

Odgovornost počinje prije prvog upita - odabir pravog slučaja upotrebe 🎯

Jedna od najvećih odgovornosti programera je odlučivanje o tome treba li uopće koristiti generativnu umjetnu inteligenciju . NIST AI RMF

To zvuči očigledno, ali se stalno preskače. Timovi vide model, uzbude se i počnu ga forsirati u tokove rada koji bi se bolje rješavali pravilima, pretraživanjem ili običnom softverskom logikom. Nije svakom problemu potreban jezički model. Nekim problemima je potrebna baza podataka i mirno popodne.

Prije izgradnje, investitori bi trebali pitati:

Odgovoran programer ne pita samo: „Možemo li ovo izgraditi?“ On pita: „Da li bi ovo trebalo biti izgrađeno na ovaj način?“ NIST AI RMF

To pitanje samo po sebi sprečava mnogo blještavih gluposti.

Tačnost je odgovornost, a ne bonus funkcija ✅

Budimo jasni - jedna od najvećih zamki u generativnoj umjetnoj inteligenciji je brkanje elokvencije s istinom. Modeli često daju odgovore koji zvuče uglađeno, strukturirano i duboko uvjerljivo. Što je divno, sve dok sadržaj ne postane besmislica umotana u povjerljivost. NIST GenAI profil

Dakle, odgovornost programera koji koriste generativnu umjetnu inteligenciju uključuje izradu za verifikaciju.

To znači:

Ovo je veoma važno u oblastima kao što su:

  • zdravstvena zaštita

  • finansije

  • pravni tokovi rada

  • obrazovanje

  • korisnička podrška

  • automatizacija preduzeća

  • generiranje koda

Generirani kod, na primjer, može izgledati uredno, a istovremeno skrivati ​​sigurnosne nedostatke ili logičke greške. Programer koji ga slijepo kopira nije efikasan - on jednostavno prebacuje rizik na druge u ljepšem formatu. OWASP Top 10 za LLM aplikacije NCSC o vještačkoj inteligenciji i sajber sigurnosti

Model može pomoći. Programer i dalje posjeduje rezultat. OECD principi umjetne inteligencije

Privatnost i upravljanje podacima su neosporni 🔐

Ovdje stvari brzo postaju ozbiljne. Generativni AI sistemi često se oslanjaju na prompte, logove, kontekstualne prozore, memorijske slojeve, analitiku i infrastrukturu trećih strana. To stvara mnogo šansi za curenje osjetljivih podataka, njihovo zadržavanje ili ponovnu upotrebu na načine koje korisnici nikada nisu očekivali. Osam pitanja ICO-a za generativni AI OWASP Top 10 za LLM aplikacije

Programeri imaju odgovornost da zaštite:

  • lične informacije

  • finansijski zapisi

  • medicinski detalji

  • interni podaci kompanije

  • poslovne tajne

  • tokeni za autentifikaciju

  • komunikacija s klijentima

Odgovorne prakse uključuju:

Ovo je jedno od onih područja gdje "zaboravili smo razmisliti o tome" nije mala greška. To je neuspjeh koji uništava povjerenje.

A povjerenje, jednom kada se napukne, širi se poput ispuštenog stakla. Možda nije najugodnija metafora, ali shvatate.

Pristrasnost, pravičnost i zastupljenost - tiše odgovornosti ⚖️

Pristrasnost u generativnoj umjetnoj inteligenciji rijetko je crtani negativac. Obično je mnogo suptilnija od toga. Model može proizvesti stereotipne opise poslova, neujednačene odluke o moderiranju, jednostrane preporuke ili kulturno uske pretpostavke bez aktiviranja očiglednih alarma. NIST GenAI profil

Zato odgovornost programera koji koriste generativnu umjetnu inteligenciju uključuje aktivan rad na pravednosti.

Programeri bi trebali:

Sistem može izgledati kao da generalno dobro funkcioniše, a istovremeno konstantno opslužuje neke korisnike lošije od drugih. To nije prihvatljivo samo zato što prosječne performanse izgledaju dobro na kontrolnoj tabli. Smjernice ICO-a o vještačkoj inteligenciji i zaštiti podataka NIST GenAI profil

I da, pravednost je teža od uredne kontrolne liste. U njoj se nalazi rasuđivanje. Kontekst. Kompromisi. I određena mjera nelagode. Ali to ne uklanja odgovornost - potvrđuje je. Smjernice ICO-a o umjetnoj inteligenciji i zaštiti podataka

Sigurnost je sada dijelom brzog dizajna, dijelom inženjerske discipline 🧱

Generativna AI sigurnost je svoja posebna zvijer. Tradicionalna sigurnost aplikacija je i dalje važna, naravno, ali AI sistemi dodaju neobične površine za napad: ubrizgavanje prompta, indirektnu manipulaciju promptom, nesigurnu upotrebu alata, izvlačenje podataka kroz kontekst i zloupotrebu modela kroz automatizirane tokove rada. OWASP Top 10 za LLM aplikacije NCSC o AI i sajber sigurnosti

Programeri su odgovorni za osiguranje cijelog sistema, a ne samo interfejsa. NCSC smjernice za sigurnu umjetnu inteligenciju

Ključne odgovornosti ovdje uključuju:

Jedna neugodna istina je da će korisnici - i napadači - apsolutno pokušati stvari koje programeri nisu očekivali. Neki iz radoznalosti, neki iz zlobe, neki zato što su kliknuli na pogrešnu stvar u 2 sata ujutro. Dešava se.

Sigurnost generativne umjetne inteligencije manje je poput izgradnje zida, a više poput upravljanja vrlo pričljivim čuvarom vrata koji se ponekad prevari fraziranjem.

Transparentnost i pristanak korisnika su važniji od blještavog korisničkog iskustva 🗣️

Kada korisnici komuniciraju s umjetnom inteligencijom, trebali bi to znati. OECD-ov Kodeks prakse principa umjetne inteligencije o označavanju i etiketiranju sadržaja generiranog umjetnom inteligencijom

Ne nejasno. Ne zakopano u terminima. Jasno.

Ključni dio odgovornosti programera koji koriste generativnu umjetnu inteligenciju je osigurati da korisnici razumiju:

Transparentnost nije zastrašivanje korisnika. Radi se o njihovom poštovanju.

Dobra transparentnost može uključivati:

Mnogi timovi za razvoj proizvoda brinu da će iskrenost učiniti da funkcija djeluje manje magično. Možda. Ali lažna sigurnost je gora. Glatko sučelje koje skriva rizik je u osnovi uglađena zbunjenost.

Programeri ostaju odgovorni - čak i kada model "odluči" 👀

Ovaj dio je veoma važan. Odgovornost se ne može prenijeti na dobavljača modela, karticu modela, predložak upita ili misterioznu atmosferu mašinskog učenja. OECD AI principi NIST AI RMF

Programeri su i dalje odgovorni. OECD-ovi principi umjetne inteligencije

To znači da neko u timu treba da posjeduje:

Trebali bi postojati jasni odgovori na pitanja poput:

Bez vlasništva, odgovornost se pretvara u maglu. Svi pretpostavljaju da se neko drugi time bavi... a onda to niko ne radi.

Taj obrazac je, istina, stariji od umjetne inteligencije. Umjetna inteligencija ga jednostavno čini opasnijim.

Odgovorni programeri grade za ispravku, a ne za savršenstvo 🔄

Evo malog obrata u svemu ovome: odgovoran razvoj vještačke inteligencije nije pretvaranje da će sistem biti savršen. Radi se o pretpostavci da će na neki način propasti i dizajniranju oko te stvarnosti. NIST AI RMF

To znači izgradnju proizvoda koji su:

Ovako izgleda zrelost. Ne sjajne demonstracije. Ne marketinški tekstovi koji ostavljaju dah. Pravi sistemi, sa zaštitnim ogradama, logovima, odgovornošću i dovoljno skromnosti da se prizna da mašina nije čarobnjak. Smjernice za sigurnu vještačku inteligenciju NCSC-a, Principi vještačke inteligencije OECD-a.

Zato što nije. To je alat. Moćan, da. Ali ipak alat.

Završna refleksija o odgovornosti programera koji koriste generativnu umjetnu inteligenciju 🌍

Dakle, koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju ?

To znači graditi s pažnjom. Ispitati gdje sistem pomaže, a gdje šteti. Zaštititi privatnost. Testirati pristrasnost. Provjeriti rezultate. Osigurati radni tok. Biti transparentan prema korisnicima. Održavati smislenu kontrolu među ljudima. Održavati odgovornost kada stvari krenu po zlu. NIST AI RMF OECD AI Principi

To možda zvuči preteško - i jeste. Ali to je ujedno i ono što razlikuje promišljeni razvoj od nepromišljene automatizacije.

Najbolji programeri koji koriste generativnu umjetnu inteligenciju nisu oni koji natjeraju model da izvodi najviše trikova. Oni su oni koji razumiju posljedice tih trikova i dizajniraju u skladu s tim. Znaju da je brzina važna, ali povjerenje je pravi proizvod. Čudno je da ta staromodna ideja i dalje traje. NIST AI RMF

Na kraju krajeva, odgovornost nije prepreka inovacijama. Ona je ono što sprječava da se inovacije pretvore u skupo, turbulentno širenje s uglađenim interfejsom i problemom samopouzdanja 😬✨

I možda je to najjednostavnija verzija toga.

Gradite hrabro, svakako - ali gradite na način da bi ljudi mogli biti pogođeni, jer jesu. OECD Principi umjetne inteligencije

Često postavljana pitanja

Koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju u praksi?

Odgovornost programera koji koriste generativnu umjetnu inteligenciju proteže se daleko izvan brzog isporučivanja funkcija. To uključuje odabir pravog slučaja upotrebe, testiranje rezultata, zaštitu privatnosti, smanjenje štetnog ponašanja i omogućavanje sistema razumljivom korisnicima. U praksi, programeri ostaju odgovorni za to kako je alat dizajniran, praćen, ispravljen i kako se njime upravlja kada dođe do kvara.

Zašto generativna umjetna inteligencija zahtijeva veću odgovornost programera nego normalan softver?

Tradicionalne greške su često očigledne, ali generativni neuspjesi umjetne inteligencije mogu zvučati uglađeno, a istovremeno biti pogrešni, pristrasni ili rizični. Zbog toga je teže uočiti probleme i lakše korisnicima da im greškom povjeruju. Programeri rade s vjerovatnosnim sistemima, tako da odgovornost uključuje rukovanje neizvjesnošću, ograničavanje štete i pripremu za nepredvidive ishode prije lansiranja.

Kako programeri znaju kada generativna umjetna inteligencija ne bi trebala biti korištena?

Uobičajena polazna tačka je pitanje da li je zadatak otvorenog tipa ili se bolje rješava pravilima, pretragom ili standardnom softverskom logikom. Programeri bi također trebali razmotriti koliko štete može uzrokovati pogrešan odgovor i da li čovjek može realno pregledati rezultate. Odgovorna upotreba ponekad znači odluku da se generativna umjetna inteligencija uopće ne koristi.

Kako programeri mogu smanjiti halucinacije i pogrešne odgovore u generativnim AI sistemima?

Tačnost treba biti osmišljena, a ne pretpostavljena. U mnogim procesima razvoja, to znači zasnivanje rezultata na pouzdanim izvorima, odvajanje generiranog teksta od provjerenih činjenica i korištenje tokova rada za pregled za zadatke s većim rizikom. Programeri bi također trebali testirati upute koje imaju za cilj zbuniti ili obmanuti sistem, posebno u područjima kao što su kod, podrška, finansije, obrazovanje i zdravstvo.

Koja je odgovornost programera koji koriste generativnu umjetnu inteligenciju za privatnost i osjetljive podatke?

Odgovornost programera koji koriste generativnu umjetnu inteligenciju uključuje minimiziranje podataka koji ulaze u model i tretiranje upita, logova i izlaza kao osjetljivih. Programeri bi trebali ukloniti identifikatore gdje je to moguće, ograničiti zadržavanje, kontrolirati pristup i pažljivo pregledati postavke dobavljača. Korisnici bi također trebali biti u stanju razumjeti kako se njihovi podaci rukuju, umjesto da kasnije otkrivaju rizike.

Kako bi se programeri trebali nositi s pristranošću i pravednošću u generativnim AI rezultatima?

Rad na pristranostima zahtijeva aktivnu evaluaciju, a ne pretpostavke. Praktičan pristup je testiranje upita u različitim demografskim grupama, jezicima i kontekstima, a zatim pregled rezultata za stereotipe, isključenost ili neujednačene obrasce neuspjeha. Programeri bi također trebali stvoriti načine za korisnike ili timove da prijave štetno ponašanje, jer sistem može izgledati snažno u cjelini, a ipak konstantno podbacivati ​​određene grupe.

O kojim sigurnosnim rizicima programeri trebaju razmišljati kod generativne umjetne inteligencije?

Generativna umjetna inteligencija uvodi nove površine za napad, uključujući brzo ubrizgavanje, nesigurnu upotrebu alata, curenje podataka kroz kontekst i zloupotrebu automatiziranih radnji. Programeri bi trebali "dezinficirati" nepouzdane unose, ograničiti dozvole alata, ograničiti pristup datotekama i mreži te pratiti obrasce zloupotrebe. Sigurnost se ne odnosi samo na interfejs; ona se odnosi na cijeli tijek rada oko modela.

Zašto je transparentnost važna prilikom izgradnje pomoću generativne umjetne inteligencije?

Korisnici bi trebali jasno znati kada je u pitanju umjetna inteligencija, šta može učiniti i gdje su joj granice. Dobra transparentnost može uključivati ​​oznake kao što su "generirano od strane umjetne inteligencije" ili "potpomognuto umjetnom inteligencijom", jednostavna objašnjenja i jasne puteve do ljudske podrške. Takva vrsta iskrenosti ne slabi proizvod; pomaže korisnicima da kalibriraju povjerenje i donose bolje odluke.

Ko je odgovoran kada generativna funkcija umjetne inteligencije uzrokuje štetu ili napravi nešto pogrešno?

Programeri i timovi za razvoj proizvoda i dalje snose odgovornost za ishod, čak i kada model proizvede odgovor. To znači da bi trebala postojati jasna odgovornost za odobrenje implementacije, rješavanje incidenata, vraćanje prethodnih rezultata, praćenje i komunikaciju s korisnicima. "Model je odlučio" nije dovoljno, jer odgovornost mora ostati na ljudima koji su dizajnirali i pokrenuli sistem.

Kako izgleda odgovoran razvoj generativne umjetne inteligencije nakon lansiranja?

Odgovoran razvoj se nastavlja i nakon objavljivanja kroz praćenje, povratne informacije, pregled i korekcije. Snažni sistemi se mogu revidirati, prekidati, oporaviti i dizajnirani su s rezervnim putevima u slučaju kvara umjetne inteligencije. Cilj nije savršenstvo; cilj je izgraditi nešto što se može sigurno ispitati, poboljšati i prilagoditi kako se pojave problemi iz stvarnog svijeta.

Reference

  1. Nacionalni institut za standarde i tehnologiju (NIST) - NIST GenAI profil - nvlpubs.nist.gov

  2. OWASP - OWASP Top 10 za prijave na LLM - owasp.org

  3. Ured povjerenika za informacije (ICO) - Osam pitanja ICO-a za generativnu umjetnu inteligenciju - ico.org.uk

Pronađite najnoviju umjetnu inteligenciju u službenoj trgovini AI Assistant

O nama

Nazad na blog