Stručnjak za kibernetičku sigurnost analizira prijetnje koristeći generativne alate umjetne inteligencije.

Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti?

Uvod

Generativna umjetna inteligencija – sistemi umjetne inteligencije sposobni za kreiranje novog sadržaja ili predviđanja – pojavljuje se kao transformativna snaga u kibernetičkoj sigurnosti. Alati poput OpenAI-jevog GPT-4 pokazali su sposobnost analize složenih podataka i generiranja teksta sličnog ljudskom, omogućavajući nove pristupe odbrani od kibernetičkih prijetnji. Stručnjaci za kibernetičku sigurnost i donosioci poslovnih odluka u različitim industrijama istražuju kako generativna umjetna inteligencija može ojačati odbranu od napada koji se stalno razvijaju. Od finansija i zdravstva do maloprodaje i vlade, organizacije u svakom sektoru suočavaju se sa sofisticiranim pokušajima krađe identiteta (phishing), zlonamjernim softverom i drugim prijetnjama kojima bi generativna umjetna inteligencija mogla pomoći u suzbijanju. U ovom dokumentu ispitujemo kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti , ističući primjene u stvarnom svijetu, buduće mogućnosti i važna razmatranja za usvajanje.

Generativna umjetna inteligencija razlikuje se od tradicionalne analitičke umjetne inteligencije ne samo po otkrivanju obrazaca već i po kreiranju sadržaja – bilo da simulira napade za obuku odbrane ili proizvodi objašnjenja na prirodnom jeziku za složene sigurnosne podatke. Ova dvostruka sposobnost čini je mačem s dvije oštrice: nudi moćne nove obrambene alate, ali akteri prijetnji je također mogu iskoristiti. Sljedeći odjeljci istražuju širok raspon slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti, od automatizacije otkrivanja phishinga do poboljšanja odgovora na incidente. Također razmatramo prednosti koje ove inovacije umjetne inteligencije obećavaju, uz rizike (poput "halucinacija" umjetne inteligencije ili zloupotrebe od strane suparnika) kojima organizacije moraju upravljati. Konačno, pružamo praktične savjete koji će pomoći preduzećima da procijene i odgovorno integriraju generativnu umjetnu inteligenciju u svoje strategije kibernetičke sigurnosti.

Generativna umjetna inteligencija u kibernetičkoj sigurnosti: Pregled

Generativna umjetna inteligencija u kibernetičkoj sigurnosti odnosi se na modele umjetne inteligencije – često modele velikih jezika ili druge neuronske mreže – koji mogu generirati uvide, preporuke, kod ili čak sintetičke podatke kako bi pomogli u sigurnosnim zadacima. Za razliku od čisto prediktivnih modela, generativna umjetna inteligencija može simulirati scenarije i proizvoditi izlaze čitljive ljudima (npr. izvještaje, upozorenja ili čak uzorke zlonamjernog koda) na osnovu svojih podataka za obuku. Ova sposobnost se koristi za predviđanje, otkrivanje i reagiranje na prijetnje na dinamičnije načine nego prije ( Šta je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ). Na primjer, generativni modeli mogu analizirati ogromne logove ili repozitorije obavještajnih podataka o prijetnjama i proizvesti sažet sažetak ili preporučenu akciju, funkcionirajući gotovo kao "asistent" umjetne inteligencije sigurnosnim timovima.

Rane implementacije generativne umjetne inteligencije za kibernetičku odbranu pokazale su obećavajuće rezultate. Microsoft je 2023. godine predstavio Security Copilot , asistenta za sigurnosne analitičare pokretanog GPT-4, koji pomaže u identifikaciji kršenja sigurnosti i filtriranju 65 triliona signala koje Microsoft svakodnevno obrađuje ( Microsoft Security Copilot je novi GPT-4 AI asistent za kibernetičku sigurnost | The Verge ). Analitičari mogu koristiti ovaj sistem na prirodnom jeziku (npr. „Sažmite sve sigurnosne incidente u posljednja 24 sata“ ), a Copilot će generirati koristan narativni sažetak. Slično tome, Googleov Threat Intelligence AI koristi generativni model pod nazivom Gemini kako bi omogućio konverzacijsku pretragu kroz Googleovu ogromnu bazu podataka o prijetnjama, brzo analizirajući sumnjivi kod i sažimajući nalaze kako bi pomogao lovcima na zlonamjerni softver ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Ovi primjeri ilustruju potencijal: generativna umjetna inteligencija može probaviti složene, velike podatke o kibernetičkoj sigurnosti i predstaviti uvide u pristupačnom obliku, ubrzavajući donošenje odluka.

Istovremeno, generativna umjetna inteligencija može kreirati vrlo realističan lažni sadržaj, što je blagodat za simulaciju i obuku (i, nažalost, za napadače koji kreiraju socijalni inženjering). Kako prelazimo na specifične slučajeve upotrebe, vidjet ćemo da sposobnost generativne umjetne inteligencije da sintetizira i analizira informacije podupire njene brojne primjene u području kibernetičke sigurnosti. U nastavku ćemo se pozabaviti ključnim slučajevima upotrebe, koji obuhvataju sve, od sprječavanja phishinga do razvoja sigurnog softvera, s primjerima kako se svaki primjenjuje u različitim industrijama.

Ključne primjene generativne umjetne inteligencije u kibernetičkoj sigurnosti

Slika: Ključni slučajevi upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti uključuju kopilote umjetne inteligencije za sigurnosne timove, analizu ranjivosti koda, adaptivno otkrivanje prijetnji, simulaciju napada nultog dana, poboljšanu biometrijsku sigurnost i otkrivanje phishinga ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ).

Otkrivanje i sprječavanje phishinga

Phishing ostaje jedna od najraširenijih sajber prijetnji, varajući korisnike da kliknu na zlonamjerne linkove ili otkriju pristupne podatke. Generativna umjetna inteligencija se primjenjuje i za otkrivanje pokušaja phishinga i za jačanje obuke korisnika kako bi se spriječili uspješni napadi. ​​S defanzivne strane, modeli umjetne inteligencije mogu analizirati sadržaj e-pošte i ponašanje pošiljatelja kako bi uočili suptilne znakove phishinga koje filteri zasnovani na pravilima mogu propustiti. Učenjem iz velikih skupova podataka o legitimnim naspram lažnih e-poruka, generativni model može označiti anomalije u tonu, formulacijama ili kontekstu koje ukazuju na prevaru - čak i kada gramatika i pravopis više ne otkrivaju tu činjenicu. U stvari, istraživači Palo Alto Networksa primjećuju da generativna umjetna inteligencija može identificirati „suptilne znakove phishing e-poruka koje bi inače mogle proći neotkrivene“, pomažući organizacijama da budu korak ispred prevaranata ( Šta je generativna umjetna inteligencija u sajber sigurnosti? - Palo Alto Networks ).

Sigurnosni timovi također koriste generativnu umjetnu inteligenciju za simulaciju phishing napada za obuku i analizu. Na primjer, Ironscales je predstavio alat za simulaciju phishinga pokretan GPT-om koji automatski generira lažne phishing e-poruke prilagođene zaposlenicima organizacije ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Ove e-poruke izrađene pomoću umjetne inteligencije odražavaju najnovije taktike napadača, dajući osoblju realnu praksu u prepoznavanju phishing sadržaja. Takva personalizirana obuka je ključna jer sami napadači usvajaju umjetnu inteligenciju kako bi stvorili uvjerljivije mamce. Važno je napomenuti da, iako generativna umjetna inteligencija može proizvesti vrlo uglađene phishing poruke (prošla su vremena lako uočljivog lošeg engleskog), branitelji su otkrili da umjetna inteligencija nije nepobjediva. 2024. godine, istraživači IBM Security proveli su eksperiment upoređujući phishing e-poruke koje su napisali ljudi s onima koje je generirala umjetna inteligencija, i „iznenađujuće, e-poruke generirane umjetnom inteligencijom i dalje je bilo lako otkriti uprkos njihovoj ispravnoj gramatici“ ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Ovo ukazuje na to da ljudska intuicija u kombinaciji s detekcijom potpomognutom umjetnom inteligencijom i dalje može prepoznati suptilne nedosljednosti ili signale metapodataka u prevarama napisanim umjetnom inteligencijom.

Generativna umjetna inteligencija pomaže u odbrani od phishinga i na druge načine. Modeli se mogu koristiti za generiranje automatskih odgovora ili filtera koji testiraju sumnjive e-poruke. Na primjer, AI sistem bi mogao odgovoriti na e-poruku s određenim upitima kako bi provjerio legitimnost pošiljatelja ili koristiti LLM za analizu linkova i priloga e-pošte u sandboxu, a zatim sumirati svaku zlonamjernu namjeru. NVIDIA-ina sigurnosna platforma Morpheus demonstrira moć umjetne inteligencije u ovoj areni – koristi generativne NLP modele za brzu analizu i klasifikaciju e-poruka, a utvrđeno je da poboljšava otkrivanje spear-phishing e-poruka za 21% u usporedbi s tradicionalnim sigurnosnim alatima ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Morpheus čak profilira obrasce komunikacije korisnika kako bi otkrio neobično ponašanje (poput korisnika koji iznenada šalje e-poruke na mnogo vanjskih adresa), što može ukazivati ​​na kompromitirani račun koji šalje phishing e-poruke.

U praksi, kompanije u različitim industrijama počinju vjerovati umjetnoj inteligenciji (AI) za filtriranje e-pošte i web prometa za napade socijalnog inženjeringa. Finansijske firme, na primjer, koriste generativnu umjetnu inteligenciju za skeniranje komunikacija u potrazi za pokušajima lažnog predstavljanja koji bi mogli dovesti do elektronskih prevara, dok pružatelji zdravstvenih usluga primjenjuju umjetnu inteligenciju za zaštitu podataka pacijenata od kršenja povezanih s phishingom. Generiranjem realističnih scenarija phishinga i identificiranjem obilježja zlonamjernih poruka, generativna umjetna inteligencija dodaje snažan sloj strategijama sprječavanja phishinga. Zaključak: AI može pomoći u bržem i preciznijem otkrivanju i razoružavanju phishing napada , čak i kada napadači koriste istu tehnologiju za unapređenje svoje igre.

Detekcija zlonamjernog softvera i analiza prijetnji

Moderni zlonamjerni softver se stalno razvija – napadači generiraju nove varijante ili prikrivaju kod kako bi zaobišli antivirusne potpise. Generativna umjetna inteligencija nudi nove tehnike za otkrivanje zlonamjernog softvera i razumijevanje njegovog ponašanja. Jedan pristup je korištenje umjetne inteligencije za generiranje "zlih blizanaca" zlonamjernog softvera : istraživači sigurnosti mogu unijeti poznati uzorak zlonamjernog softvera u generativni model kako bi stvorili mnoge mutirane varijante tog zlonamjernog softvera. Na taj način, oni efikasno predviđaju promjene koje bi napadač mogao napraviti. Ove varijante generirane umjetnom inteligencijom zatim se mogu koristiti za obuku antivirusnih sistema i sistema za otkrivanje upada, tako da se čak i modificirane verzije zlonamjernog softvera prepoznaju u prirodi ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Ova proaktivna strategija pomaže u prekidu ciklusa u kojem hakeri malo mijenjaju svoj zlonamjerni softver kako bi izbjegli otkrivanje, a branitelji se moraju boriti da svaki put napišu nove potpise. Kao što je navedeno u jednom industrijskom podcastu, stručnjaci za sigurnost sada koriste generativnu umjetnu inteligenciju za "simulaciju mrežnog prometa i generiranje zlonamjernih korisnih tereta koji oponašaju sofisticirane napade", testirajući svoju odbranu na stres protiv cijele porodice prijetnji, a ne samo jednog primjera. Ovo adaptivno otkrivanje prijetnji znači da sigurnosni alati postaju otporniji na polimorfni zlonamjerni softver koji bi inače proklizao.

Pored detekcije, generativna umjetna inteligencija pomaže u analizi zlonamjernog softvera i obrnutom inženjeringu , što su tradicionalno zadaci koji zahtijevaju mnogo rada za analitičare prijetnji. Veliki jezički modeli mogu biti zaduženi za ispitivanje sumnjivog koda ili skripti i objašnjavanje jednostavnim jezikom šta kod treba da radi. Primjer iz stvarnog svijeta je VirusTotal Code Insight , funkcija Googleovog VirusTotala koja koristi generativni model umjetne inteligencije (Googleov Sec-PaLM) za generiranje sažetaka potencijalno zlonamjernog koda na prirodnom jeziku ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). To je u suštini „vrsta ChatGPT-a posvećena sigurnosnom kodiranju“, koja djeluje kao analitičar zlonamjernog softvera umjetne inteligencije koji radi 24/7 kako bi pomogao ljudskim analitičarima da razumiju prijetnje ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Umjesto da proučava nepoznati skript ili binarni kod, član sigurnosnog tima može dobiti trenutno objašnjenje od umjetne inteligencije – na primjer, „Ova skripta pokušava preuzeti datoteku sa XYZ servera, a zatim izmijeniti postavke sistema, što ukazuje na ponašanje zlonamjernog softvera.“ Ovo dramatično ubrzava odgovor na incidente, jer analitičari mogu trijažirati i razumjeti novi zlonamjerni softver brže nego ikad prije.

Generativna umjetna inteligencija se također koristi za precizno određivanje zlonamjernog softvera u ogromnim skupovima podataka . Tradicionalni antivirusni programi skeniraju datoteke u potrazi za poznatim potpisima, ali generativni model može procijeniti karakteristike datoteke, pa čak i predvidjeti da li je zlonamjerna na osnovu naučenih obrazaca. Analizirajući atribute milijardi datoteka (zlonamjernih i benignih), umjetna inteligencija može otkriti zlonamjernu namjeru tamo gdje ne postoji eksplicitni potpis. Na primjer, generativni model može označiti izvršnu datoteku kao sumnjivu jer njen profil ponašanja „izgleda“ kao blaga varijacija ransomwarea koji je vidio tokom obuke, iako je binarni fajl nov. Ovo otkrivanje zasnovano na ponašanju pomaže u suzbijanju novog ili zero-day zlonamjernog softvera. Googleov AI za obavještajne podatke o prijetnjama (dio Chronicle/Mandiant) navodno koristi svoj generativni model za analizu potencijalno zlonamjernog koda i „efikasnije i efektivnije pomaganje sigurnosnim stručnjacima u borbi protiv zlonamjernog softvera i drugih vrsta prijetnji.“ ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ).

S druge strane, moramo priznati da napadači i ovdje mogu koristiti generativnu umjetnu inteligenciju – za automatsko kreiranje zlonamjernog softvera koji se prilagođava. U stvari, sigurnosni stručnjaci upozoravaju da generativna umjetna inteligencija može pomoći sajberkriminalcima da razviju zlonamjerni softver koji je teže otkriti ( Šta je generativna umjetna inteligencija u sajber sigurnosti? - Palo Alto Networks ). Model umjetne inteligencije može se uputiti da više puta transformira dio zlonamjernog softvera (mijenjajući njegovu strukturu datoteka, metode šifriranja itd.) dok ne izbjegne sve poznate antivirusne provjere. Ova suprotstavljena upotreba je sve veća briga (ponekad se naziva "zlonamjerni softver pokretan umjetnom inteligencijom" ili polimorfni zlonamjerni softver kao usluga). O takvim rizicima ćemo kasnije raspravljati, ali to naglašava da je generativna umjetna inteligencija alat u ovoj igri mačke i miša koju koriste i branioci i napadači.

Sveukupno, generativna umjetna inteligencija poboljšava odbranu od zlonamjernog softvera omogućavajući sigurnosnim timovima da razmišljaju kao napadač – generirajući nove prijetnje i rješenja interno. Bilo da se radi o proizvodnji sintetičkog zlonamjernog softvera za poboljšanje stope otkrivanja ili korištenju umjetne inteligencije za objašnjenje i suzbijanje stvarnog zlonamjernog softvera pronađenog u mrežama, ove tehnike se primjenjuju u svim industrijama. Banka može koristiti analizu zlonamjernog softvera vođenu umjetnom inteligencijom za brzu analizu sumnjivog makroa u proračunskoj tabeli, dok se proizvodna firma može osloniti na umjetnu inteligenciju za otkrivanje zlonamjernog softvera usmjerenog na industrijske kontrolne sisteme. Proširivanjem tradicionalne analize zlonamjernog softvera generativnom umjetnom inteligencijom, organizacije mogu brže i proaktivnije reagirati na kampanje zlonamjernog softvera nego prije.

Obavještajni podaci o prijetnjama i automatizacija analize

Svakodnevno, organizacije su bombardirane podacima o prijetnjama – od novootkrivenih indikatora kompromitacije (IOC) do analitičkih izvještaja o novim hakerskim taktikama. Izazov za sigurnosne timove je prosijavanje kroz ovu poplavu informacija i izvlačenje praktičnih uvida. Generativna umjetna inteligencija se pokazala neprocjenjivom u automatizaciji analize i korištenja obavještajnih podataka o prijetnjama . Umjesto ručnog čitanja desetina izvještaja ili unosa u bazu podataka, analitičari mogu koristiti umjetnu inteligenciju za sumiranje i kontekstualizaciju informacija o prijetnjama brzinom mašine.

Jedan konkretan primjer je Googleov za obavještajne podatke o prijetnjama , koji integriše generativnu umjetnu inteligenciju (model Gemini) sa Googleovim bogatstvom podataka o prijetnjama od Mandianta i VirusTotala. Ova umjetna inteligencija pruža „konverzacijsku pretragu u ogromnom Googleovom repozitoriju obavještajnih podataka o prijetnjama“ , omogućavajući korisnicima da postavljaju prirodna pitanja o prijetnjama i dobiju sažete odgovore ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Na primjer, analitičar bi mogao pitati: „Jesmo li vidjeli neki zlonamjerni softver povezan s Grupom prijetnji X koji cilja našu industriju?“ i umjetna inteligencija će izvući relevantne informacije, možda napominjući „Da, Grupa prijetnji X je bila povezana s phishing kampanjom prošlog mjeseca korištenjem zlonamjernog softvera Y“ , zajedno sa sažetkom ponašanja tog zlonamjernog softvera. Ovo dramatično smanjuje vrijeme prikupljanja uvida koji bi inače zahtijevali ispitivanje više alata ili čitanje dugih izvještaja.

Generativna umjetna inteligencija također može povezati i sumirati trendove prijetnji . Može pregledati hiljade objava na blogovima o sigurnosti, vijesti o kršenju sigurnosti i razgovore na dark webu, a zatim generirati sažetak „najvećih sajber prijetnji ove sedmice“ za brifing CISO-a. Tradicionalno, ovaj nivo analize i izvještavanja zahtijevao je značajan ljudski napor; sada dobro podešen model može to izraditi za nekoliko sekundi, a ljudi samo prečišćavaju rezultat. Kompanije poput ZeroFoxa razvile su FoxGPT , generativni alat umjetne inteligencije posebno dizajniran da „ubrza analizu i sumiranje obavještajnih podataka u velikim skupovima podataka“, uključujući zlonamjerni sadržaj i podatke o phishingu ( Kako se generativna umjetna inteligencija može koristiti u sajber sigurnosti? 10 primjera iz stvarnog svijeta ). Automatizacijom teškog posla čitanja i unakrsnog referenciranja podataka, umjetna inteligencija omogućava timovima za obavještajne podatke o prijetnjama da se fokusiraju na donošenje odluka i odgovor.

Drugi slučaj upotrebe je konverzacijsko traženje prijetnji . Zamislite da sigurnosni analitičar komunicira s AI asistentom: „Pokažite mi znakove krađe podataka u posljednjih 48 sati“ ili „Koje su najveće nove ranjivosti koje napadači iskorištavaju ove sedmice?“ AI može interpretirati upit, pretraživati ​​interne logove ili eksterne obavještajne izvore i odgovoriti jasnim odgovorom ili čak listom relevantnih incidenata. Ovo nije nevjerovatno – moderni sistemi za upravljanje sigurnosnim informacijama i događajima (SIEM) počinju uključivati ​​upite na prirodnom jeziku. IBM-ov QRadar sigurnosni paket, na primjer, dodaje generativne AI funkcije u 2024. godini kako bi analitičarima omogućio da „postave […] specifična pitanja o sažetom putu napada“ incidenta i dobiju detaljne odgovore. Također može automatski „interpretirati i sažeti visoko relevantne obavještajne podatke o prijetnjama“ Kako se generativna AI može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). U suštini, generativna AI pretvara planine tehničkih podataka u uvide veličine chata na zahtjev.

Ovo ima velike implikacije u svim industrijama. Pružalac zdravstvenih usluga može koristiti vještačku inteligenciju kako bi bio u toku s najnovijim grupama ransomwarea koje ciljaju bolnice, bez potrebe da analitičar bude angažovan na istraživanju s punim radnim vremenom. SOC maloprodajne kompanije može brzo sumirati nove taktike zlonamjernog softvera na POS sistemima prilikom informiranja IT osoblja prodavnice. A u vladi, gdje se podaci o prijetnjama iz različitih agencija moraju sintetizirati, vještačka inteligencija može generirati objedinjene izvještaje koji ističu ključna upozorenja. Automatizacijom prikupljanja i interpretacije obavještajnih podataka o prijetnjama , generativna vještačka inteligencija pomaže organizacijama da brže reaguju na nove prijetnje i smanjuje rizik od propuštanja kritičnih upozorenja skrivenih u buci.

Optimizacija sigurnosno-operativnog centra (SOC)

Centri za sigurnosne operacije (SOC) su poznati po zamoru od upozorenja i ogromnoj količini podataka. Tipičan SOC analitičar može svakodnevno pregledati hiljade upozorenja i događaja, istražujući potencijalne incidente. Generativna umjetna inteligencija djeluje kao multiplikator snage u SOC-ovima automatizirajući rutinski rad, pružajući inteligentne sažetke, pa čak i orkestrirajući neke odgovore. Cilj je optimizirati tokove rada SOC-a tako da se ljudski analitičari mogu fokusirati na najkritičnija pitanja dok se kopilot umjetne inteligencije bavi ostalim.

Jedna od glavnih primjena je korištenje generativne umjetne inteligencije kao "kopilota analitičara" . Microsoftov Security Copilot, koji je ranije spomenut, primjer je ovoga: "dizajniran je da pomogne analitičaru sigurnosti u radu, a ne da ga zamijeni", pomažući u istragama i izvještavanju o incidentima ( Microsoft Security Copilot je novi GPT-4 AI asistent za kibernetičku sigurnost | The Verge ). U praksi, to znači da analitičar može unijeti sirove podatke - zapisnike zaštitnog zida, vremensku liniju događaja ili opis incidenta - i zatražiti od umjetne inteligencije da ih analizira ili sažme. Kopilot bi mogao izbaciti narativ poput: "Čini se da je u 2:35 ujutro uspjela sumnjiva prijava s IP adrese X na serveru Y, nakon čega su uslijedili neobični prijenosi podataka, što ukazuje na potencijalno kršenje tog servera." Ova vrsta neposredne kontekstualizacije je neprocjenjiva kada je vrijeme od ključne važnosti.

Kopiloti s umjetnom inteligencijom također pomažu u smanjenju opterećenja trijaže prvog nivoa. Prema podacima iz industrije, sigurnosni tim može provesti 15 sati sedmično sortirajući oko 22.000 upozorenja i lažno pozitivnih rezultata ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). S generativnom umjetnom inteligencijom, mnoga od ovih upozorenja mogu se automatski trijažirati – umjetna inteligencija može odbaciti ona koja su očito benigna (uz dato obrazloženje) i istaknuti ona kojima je zaista potrebna pažnja, ponekad čak i sugerirajući prioritet. U stvari, snaga generativne umjetne inteligencije u razumijevanju konteksta znači da može unakrsno korelirati upozorenja koja mogu izgledati bezopasna sama po sebi, ali zajedno ukazuju na napad u više faza. To smanjuje šansu da se propusti napad zbog "zamora od upozorenja".

Analitičari SOC-a također koriste prirodni jezik s umjetnom inteligencijom kako bi ubrzali traganje i istrage. SentinelOneova Purple AI platforma, na primjer, kombinira LLM-bazirani interfejs s podacima o sigurnosti u stvarnom vremenu, omogućavajući analitičarima da „postavljaju složena pitanja o lovu na prijetnje na jednostavnom engleskom jeziku i dobiju brze i tačne odgovore“ ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Analitičar bi mogao upisati: „Jesu li ikakve krajnje tačke komunicirale s domenom badguy123[.]com u posljednjem mjesecu?“ , a Purple AI će pretraživati ​​​​logove kako bi odgovorio. Ovo analitičaru štedi pisanje upita za bazu podataka ili skripti – umjetna inteligencija to radi „ispod haube“. To također znači da mlađi analitičari mogu obavljati zadatke koji su ranije zahtijevali iskusnog inženjera vještog u jezicima upita, efektivno unapređujući tim kroz pomoć umjetne inteligencije . Zaista, analitičari izvještavaju da generativno vođenje umjetne inteligencije „poboljšava njihove vještine i stručnost“ , jer mlađi zaposlenici sada mogu dobiti podršku za kodiranje ili savjete za analizu na zahtjev od umjetne inteligencije, smanjujući oslanjanje na stalno traženje pomoći od starijih članova tima ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ).

Još jedna SOC optimizacija je automatizirano sumiranje i dokumentiranje incidenata . Nakon što se incident riješi, neko mora napisati izvještaj – zadatak koji mnogi smatraju zamornim. Generativna umjetna inteligencija može uzeti forenzičke podatke (sistemske zapisnike, analizu zlonamjernog softvera, vremenski okvir radnji) i generirati prvu verziju izvještaja o incidentu. IBM ugrađuje ovu mogućnost u QRadar tako da se "jednim klikom" može generirati sažetak incidenta za različite zainteresirane strane (rukovoditelje, IT timove itd.) ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Ovo ne samo da štedi vrijeme, već i osigurava da se ništa ne previdi u izvještaju, budući da umjetna inteligencija može dosljedno uključiti sve relevantne detalje. Slično tome, za usklađenost i reviziju, umjetna inteligencija može popuniti obrasce ili tabele dokaza na osnovu podataka o incidentu.

Rezultati iz stvarnog svijeta su uvjerljivi. Rani korisnici Swimlaneovog SOAR-a (orkestracija sigurnosti, automatizacija i odgovor) vođenog umjetnom inteligencijom izvještavaju o ogromnom povećanju produktivnosti – Global Data Systems, na primjer, vidio je da njihov SecOps tim upravlja mnogo većim brojem slučajeva; jedan direktor je rekao da bi „ono što danas radim sa 7 analitičara vjerovatno zahtijevalo 20 članova osoblja bez“ automatizacije koju pokreće umjetna inteligencija ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti ). Drugim riječima, umjetna inteligencija u SOC-u može umnožiti kapacitet . U svim industrijama, bilo da se radi o tehnološkoj kompaniji koja se bavi sigurnosnim upozorenjima u oblaku ili o proizvodnom pogonu koji prati OT sisteme, SOC timovi mogu postići brže otkrivanje i odgovor, manje propuštenih incidenata i efikasnije operacije prihvatanjem generativnih AI asistenata. Radi se o pametnijem radu – omogućavanju mašinama da obavljaju repetitivne i podatkovno opterećene zadatke kako bi ljudi mogli primijeniti svoju intuiciju i stručnost tamo gdje je to najvažnije.

Upravljanje ranjivostima i simulacija prijetnji

Identifikacija i upravljanje ranjivostima – slabostima u softveru ili sistemima koje napadači mogu iskoristiti – ključna je funkcija kibernetičke sigurnosti. Generativna umjetna inteligencija poboljšava upravljanje ranjivostima ubrzavanjem otkrivanja, pomaganjem u određivanju prioriteta zakrpa, pa čak i simuliranjem napada na te ranjivosti kako bi se poboljšala pripremljenost. U suštini, umjetna inteligencija pomaže organizacijama da brže pronađu i poprave rupe u svom oklopu i proaktivno testiraju odbranu prije nego što to učine pravi napadači.

Jedna značajna primjena je korištenje generativne umjetne inteligencije za automatizirani pregled koda i otkrivanje ranjivosti . Velike baze koda (posebno naslijeđeni sistemi) često imaju sigurnosne nedostatke koji ostaju nezapaženi. Generativni modeli umjetne inteligencije mogu se obučiti na sigurnim praksama kodiranja i uobičajenim obrascima grešaka, a zatim primijeniti na izvorni kod ili kompajlirane binarne datoteke kako bi se pronašli potencijalni propusti. Na primjer, istraživači NVIDIA-e razvili su generativni AI cjevovod koji bi mogao analizirati kontejnere naslijeđenog softvera i identificirati ranjivosti „s visokom tačnošću - do 4× brže od ljudskih stručnjaka.“ ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Umjetna inteligencija je u suštini naučila kako izgleda nesiguran kod i bila je u stanju skenirati decenijama star softver kako bi označila rizične funkcije i biblioteke, znatno ubrzavajući inače spor proces ručne revizije koda. Ova vrsta alata može promijeniti pravila igre za industrije poput finansija ili vlade koje se oslanjaju na velike, starije baze koda - umjetna inteligencija pomaže u modernizaciji sigurnosti otkrivanjem problema za koje bi osoblju mogli trebati mjeseci ili godine da ih pronađe (ako ikada).

Generativna umjetna inteligencija također pomaže u radnim procesima upravljanja ranjivostima obradom rezultata skeniranja ranjivosti i njihovim prioritiziranjem. Alati poput Tenableovog ExposureAI-a koriste generativnu umjetnu inteligenciju kako bi analitičarima omogućili da ispituju podatke o ranjivostima jednostavnim jezikom i dobiju trenutne odgovore ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). ExposureAI može "sažeti kompletan put napada u narativu" za datu kritičnu ranjivost, objašnjavajući kako bi je napadač mogao povezati s drugim slabostima kako bi ugrozio sistem. Čak preporučuje akcije za sanaciju i odgovara na dodatna pitanja o riziku. To znači da kada se objavi nova kritična CVE (uobičajene ranjivosti i izloženosti), analitičar može pitati umjetnu inteligenciju: "Da li su neki od naših servera pogođeni ovim CVE-om i koji je najgori mogući scenarij ako ne instaliramo zakrpu?" i dobiti jasnu procjenu iz vlastitih podataka skeniranja organizacije. Kontekstualizacijom ranjivosti (npr. ova je izložena internetu i nalazi se na serveru visoke vrijednosti, pa je glavni prioritet), generativna umjetna inteligencija pomaže timovima da pametno zakrpe s ograničenim resursima.

Pored pronalaženja i upravljanja poznatim ranjivostima, generativna umjetna inteligencija doprinosi testiranju prodiranja i simulaciji napada – u suštini otkrivanju nepoznatih ranjivosti ili testiranju sigurnosnih kontrola. Generativne adversarne mreže (GAN), vrsta generativne umjetne inteligencije, korištene su za kreiranje sintetičkih podataka koji imitiraju stvarni mrežni promet ili ponašanje korisnika, što može uključivati ​​skrivene obrasce napada. Studija iz 2023. godine predložila je korištenje GAN-ova za generiranje realističnog prometa napada nultog dana za obuku sistema za detekciju upada ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Unošenjem scenarija napada koje je kreirala umjetna inteligencija u IDS (koji ne riskiraju korištenje stvarnog zlonamjernog softvera na produkcijskim mrežama), organizacije mogu obučiti svoju odbranu da prepozna nove prijetnje bez čekanja da ih one pogode u stvarnosti. Slično tome, umjetna inteligencija može simulirati napadača koji ispituje sistem – na primjer, automatski isprobavajući različite tehnike iskorištavanja u sigurnom okruženju kako bi vidio hoće li neka uspjeti. Američka Agencija za napredne istraživačke projekte odbrane (DARPA) ovdje vidi obećanje: njihov AI Cyber ​​Challenge za 2023. godinu eksplicitno koristi generativnu umjetnu inteligenciju (poput modela velikih jezika) za "automatsko pronalaženje i ispravljanje ranjivosti u softveru otvorenog koda" kao dio takmičenja ( DARPA ima za cilj razvoj umjetne inteligencije i autonomnih aplikacija kojima ratnici mogu vjerovati > Ministarstvo odbrane SAD-a > Vijesti Ministarstva odbrane ). Ova inicijativa naglašava da umjetna inteligencija ne pomaže samo u krpljenju poznatih rupa; aktivno otkriva nove i predlaže rješenja, zadatak koji je tradicionalno ograničen na vješte (i skupe) istraživače sigurnosti.

Generativna umjetna inteligencija može čak kreirati inteligentne honeypot-ove i digitalne blizance za odbranu. Startupovi razvijaju sisteme mamaca vođene umjetnom inteligencijom koji uvjerljivo oponašaju stvarne servere ili uređaje. Kao što je jedan izvršni direktor objasnio, generativna umjetna inteligencija može "klonirati digitalne sisteme kako bi oponašala stvarne i namamila hakere" ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Ovi honeypot-ovi generirani umjetnom inteligencijom ponašaju se kao stvarno okruženje (recimo, lažni IoT uređaj koji šalje normalnu telemetriju), ali postoje isključivo da bi privukli napadače. Kada napadač cilja mamac, umjetna inteligencija ga je u suštini prevarila da otkrije svoje metode, koje branitelji zatim mogu proučavati i koristiti za jačanje stvarnih sistema. Ovaj koncept, pokretan generativnim modeliranjem, pruža napredan način da se okrene situacija protiv napadača , koristeći obmanu koju poboljšava umjetna inteligencija.

U svim industrijama, brže i pametnije upravljanje ranjivostima znači manje kršenja sigurnosti. U zdravstvenoj IT industriji, na primjer, umjetna inteligencija može brzo uočiti ranjivu zastarjelu biblioteku u medicinskom uređaju i potaknuti ispravku firmvera prije nego što je napadač iskoristi. U bankarstvu, umjetna inteligencija može simulirati napad iznutra na novu aplikaciju kako bi se osiguralo da podaci o korisnicima ostanu sigurni u svim scenarijima. Generativna umjetna inteligencija stoga djeluje i kao mikroskop i kao tester stresa za sigurnosnu poziciju organizacija: osvjetljava skrivene nedostatke i vrši pritisak na sisteme na maštovite načine kako bi se osigurala otpornost.

Sigurno generiranje koda i razvoj softvera

Talenti generativne umjetne inteligencije nisu ograničeni samo na otkrivanje napada – oni se protežu i na stvaranje sigurnijih sistema od samog početka . U razvoju softvera, generatori AI koda (poput GitHub Copilota, OpenAI Codexa, itd.) mogu pomoći programerima da brže pišu kod predlažući isječke koda ili čak cijele funkcije. Ugao kibernetičke sigurnosti je osigurati da su ovi dijelovi koda koje predlaže umjetna inteligencija sigurni i koristiti umjetnu inteligenciju za poboljšanje praksi kodiranja.

S jedne strane, generativna umjetna inteligencija može djelovati kao asistent u kodiranju koji ugrađuje najbolje sigurnosne prakse . Programeri mogu zatražiti od AI alata "Generiraj funkciju resetiranja lozinke u Pythonu" i idealno dobiti kod koji je ne samo funkcionalan, već i slijedi sigurnosne smjernice (npr. pravilna validacija unosa, evidentiranje, rukovanje greškama bez curenja informacija itd.). Takav asistent, obučen na opsežnim primjerima sigurnog koda, može pomoći u smanjenju ljudskih grešaka koje dovode do ranjivosti. Na primjer, ako programer zaboravi dezinficirati korisnički unos (otvarajući vrata SQL injekciji ili sličnim problemima), AI bi to mogao ili uključiti po zadanim postavkama ili ih upozoriti. Neki AI alati za kodiranje sada se fino podešavaju s podacima usmjerenim na sigurnost kako bi služili upravo ovoj svrsi - u suštini, AI uparuje programiranje sa sigurnosnom sviješću .

Međutim, postoji i druga strana: generativna umjetna inteligencija može jednako lako uvesti ranjivosti ako se ne upravlja pravilno. Kao što je primijetio stručnjak za sigurnost Sophosa Ben Verschaeren, korištenje generativne umjetne inteligencije za kodiranje je „u redu za kratak, provjerljiv kod, ali rizično kada se neprovjereni kod integrira“ u produkcijske sisteme. Rizik je u tome što umjetna inteligencija može proizvesti logički ispravan kod koji je nesiguran na načine koje nestručnjak možda ne bi primijetio. Štaviše, zlonamjerni akteri mogu namjerno utjecati na javne modele umjetne inteligencije tako što će ih zasipati ranjivim obrascima koda (oblik trovanja podataka) tako da umjetna inteligencija predlaže nesiguran kod. Većina programera nisu stručnjaci za sigurnost , tako da ako umjetna inteligencija predloži praktično rješenje, mogli bi ga koristiti slijepo, ne shvaćajući da ima manu ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). Ova zabrinutost je stvarna – zapravo, sada postoji OWASP Top 10 lista za LLM-ove (modele velikih jezika) koja navodi uobičajene rizike poput ovog pri korištenju umjetne inteligencije za kodiranje.

Kako bi se suprotstavili ovim problemima, stručnjaci predlažu „borbu protiv generativne umjetne inteligencije generativnom umjetnom inteligencijom“ u području kodiranja. U praksi to znači korištenje umjetne inteligencije za pregled i testiranje koda koji su napisali drugi umjetni inteligencija (ili ljudi). Umjetna inteligencija može skenirati nove izmjene koda mnogo brže od ljudskog pregledača koda i označiti potencijalne ranjivosti ili logičke probleme. Već vidimo alate koji se pojavljuju i integriraju u životni ciklus razvoja softvera: kod se piše (možda uz pomoć umjetne inteligencije), zatim ga generativni model obučen na principima sigurnog koda pregleda i generira izvještaj o svim problemima (npr. korištenje zastarjelih funkcija, nedostajuće provjere autentifikacije itd.). Istraživanje kompanije NVIDIA, spomenuto ranije, koje je postiglo 4× brže otkrivanje ranjivosti u kodu, primjer je korištenja umjetne inteligencije za sigurnu analizu koda ( 6 slučajeva upotrebe generativne umjetne inteligencije u kibernetičkoj sigurnosti [+ primjeri] ).

Nadalje, generativna umjetna inteligencija može pomoći u kreiranju sigurnih konfiguracija i skripti . Na primjer, ako kompanija treba implementirati sigurnu cloud infrastrukturu, inženjer bi mogao zatražiti od umjetne inteligencije da generira konfiguracijske skripte (infrastruktura kao kod) s ugrađenim sigurnosnim kontrolama (kao što su pravilna segmentacija mreže, IAM uloge s najmanjim privilegijama). Umjetna inteligencija, nakon što je obučena na hiljadama takvih konfiguracija, može stvoriti osnovnu liniju koju inženjer zatim fino podešava. Ovo ubrzava sigurno postavljanje sistema i smanjuje greške u konfiguraciji – čest izvor incidenata u cloud sigurnosti.

Neke organizacije također koriste generativnu umjetnu inteligenciju kako bi održale bazu znanja o sigurnim obrascima kodiranja. Ako programer nije siguran kako sigurno implementirati određenu funkciju, može upitati internu umjetnu inteligenciju koja je učila iz prošlih projekata i sigurnosnih smjernica kompanije. Vještačka inteligencija može vratiti preporučeni pristup ili čak isječak koda koji je usklađen i sa funkcionalnim zahtjevima i sa sigurnosnim standardima kompanije. Ovaj pristup koriste alati poput Secureframe-ove automatizacije upitnika , koja izvlači odgovore iz politika kompanije i prošlih rješenja kako bi osigurala dosljedne i tačne odgovore (u suštini generiranje sigurne dokumentacije) ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Koncept se prevodi u kodiranje: umjetna inteligencija koja „pamti“ kako ste nešto sigurno implementirali ranije i vodi vas da to ponovo uradite na taj način.

Ukratko, generativna umjetna inteligencija utiče na razvoj softvera tako što čini pomoć pri sigurnom kodiranju dostupnijom . Industrije koje razvijaju mnogo prilagođenog softvera – tehnologija, finansije, odbrana itd. – imaju koristi od posjedovanja kopilota umjetne inteligencije koji ne samo da ubrzavaju kodiranje, već djeluju i kao stalno budni pregledivači sigurnosti. Kada se pravilno upravljaju, ovi alati umjetne inteligencije mogu smanjiti uvođenje novih ranjivosti i pomoći razvojnim timovima da se pridržavaju najboljih praksi, čak i ako tim nema stručnjaka za sigurnost uključenog u svaki korak. Rezultat je softver koji je od prvog dana otporniji na napade.

Podrška za odgovor na incidente

Kada se dogodi incident sajber sigurnosti – bilo da se radi o pojavi zlonamjernog softvera, kršenju podataka ili prekidu rada sistema usljed napada – vrijeme je ključno. Generativna umjetna inteligencija se sve više koristi za podršku timovima za odgovor na incidente (IR) u bržem suzbijanju i saniranju incidenata i uz više informacija pri ruci. Ideja je da umjetna inteligencija može preuzeti dio istražnog i dokumentacijskog tereta tokom incidenta, pa čak i predložiti ili automatizirati neke radnje odgovora.

Jedna od ključnih uloga umjetne inteligencije u IR-u je analiza i sumiranje incidenata u stvarnom vremenu . Usred incidenta, odgovornim osobama mogu biti potrebni odgovori na pitanja poput „Kako je napadač ušao?“ , „Koji su sistemi pogođeni?“ i „Koji podaci mogu biti kompromitovani?“ . Generativna umjetna inteligencija može analizirati logove, upozorenja i forenzičke podatke iz pogođenih sistema i brzo pružiti uvide. Na primjer, Microsoft Security Copilot omogućava odgovornoj osobi da unese različite dokaze (datoteke, URL-ove, zapisnike događaja) i zatraži vremenski slijed ili sažetak ( Microsoft Security Copilot je novi GPT-4 AI asistent za sajber sigurnost | The Verge ). Umjetna inteligencija bi mogla odgovoriti sa: „Proboj je vjerovatno počeo phishing e-poštom korisniku JohnDoe u 10:53 GMT koja je sadržavala zlonamjerni softver X. Nakon izvršenja, zlonamjerni softver je kreirao backdoor koji je dva dana kasnije korišten za bočno kretanje prema finansijskom serveru, gdje je prikupljao podatke.“ Posjedovanje ove koherentne slike u minutama, a ne satima, omogućava timu da mnogo brže donosi informirane odluke (poput toga koje sisteme izolirati).

Generativna umjetna inteligencija također može predložiti akcije suzbijanja i sanacije . Na primjer, ako je krajnja tačka zaražena ransomwareom, alat umjetne inteligencije mogao bi generirati skriptu ili skup instrukcija za izolaciju te mašine, onemogućavanje određenih računa i blokiranje poznatih zlonamjernih IP adresa na zaštitnom zidu – u suštini izvršavanje scenarija. Palo Alto Networks napominje da je generativna umjetna inteligencija sposobna "generirati odgovarajuće akcije ili skripte na osnovu prirode incidenta" , automatizirajući početne korake odgovora ( Šta je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ). U scenariju u kojem je sigurnosni tim preopterećen (recimo, široko rasprostranjeni napad na stotinama uređaja), umjetna inteligencija bi čak mogla direktno izvršiti neke od ovih akcija pod unaprijed odobrenim uslovima, djelujući kao mlađi odgovornik koji neumorno radi. Na primjer, agent umjetne inteligencije mogao bi automatski resetirati vjerodajnice za koje smatra da su kompromitirane ili staviti u karantin hostove koji pokazuju zlonamjernu aktivnost koja odgovara profilu incidenta.

Tokom odgovora na incident, komunikacija je ključna – i unutar tima i sa zainteresovanim stranama. Generativna umjetna inteligencija može pomoći izradom izvještaja ili kratkih sažetaka o ažuriranju incidenta u hodu . Umjesto da inženjer prekine rješavanje problema kako bi napisao ažuriranje putem e-pošte, mogao bi pitati umjetnu inteligenciju: „Sažmite šta se do sada dogodilo u ovom incidentu kako biste obavijestili rukovodioce.“ Nakon što je primila podatke o incidentu, umjetna inteligencija može proizvesti sažet sažetak: „Od 15:00 sati, napadači su pristupili 2 korisnička računa i 5 servera. Pogođeni podaci uključuju zapise klijenata u bazi podataka X. Mjere suzbijanja: VPN pristup za kompromitovane račune je opozvan, a serveri izolovani. Sljedeći koraci: skeniranje mehanizama perzistencije.“ Osoba koja odgovara na incident zatim može brzo provjeriti ili prilagoditi ovo i poslati, osiguravajući da su zainteresovane strane obaviještene o tačnim i ažurnim informacijama.

Nakon što se prašina slegne, obično se priprema detaljan izvještaj o incidentu i sastavljaju naučene lekcije. Ovo je još jedno područje gdje podrška umjetne inteligencije blista. Može pregledati sve podatke o incidentu i generirati izvještaj nakon incidenta koji pokriva uzrok, hronologiju, utjecaj i preporuke. IBM, na primjer, integrira generativnu umjetnu inteligenciju kako bi jednim pritiskom na dugme „jednostavne sažetke sigurnosnih slučajeva i incidenata koji se mogu podijeliti sa zainteresiranim stranama“ Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Pojednostavljenjem izvještavanja nakon akcije, organizacije mogu brže implementirati poboljšanja i imati bolju dokumentaciju za potrebe usklađenosti.

Jedna inovativna upotreba usmjerena prema budućnosti su simulacije incidenata vođene umjetnom inteligencijom . Slično načinu na koji se može izvesti protivpožarna vježba, neke kompanije koriste generativnu umjetnu inteligenciju za provođenje scenarija incidenata "šta ako". Umjetna inteligencija može simulirati kako bi se ransomware mogao proširiti s obzirom na raspored mreže ili kako bi insajder mogao ukrasti podatke, a zatim ocijeniti učinkovitost trenutnih planova odgovora. Ovo pomaže timovima da pripreme i usavrše scenarije prije nego što se dogodi stvarni incident. To je kao da imate savjetnika za odgovor na incidente koji se stalno poboljšava i koji stalno testira vašu spremnost.

U industrijama s visokim ulozima poput finansija ili zdravstva, gdje su zastoji ili gubitak podataka zbog incidenata posebno skupi, ove IR mogućnosti vođene umjetnom inteligencijom su vrlo atraktivne. Bolnica koja doživi cyber incident ne može si priuštiti dugotrajne prekide rada sistema – umjetna inteligencija koja brzo pomaže u obuzdavanju može doslovno spasiti život. Slično tome, finansijska institucija može koristiti umjetnu inteligenciju za rješavanje početne trijaže sumnjivog upada na prevaru u 3 ujutro, tako da do trenutka kada dežurni ljudi budu online, mnogo pripremnog posla (odjavljivanje pogođenih računa, blokiranje transakcija itd.) već bude obavljeno. Poboljšavanjem timova za odgovor na incidente generativnom umjetnom inteligencijom , organizacije mogu značajno smanjiti vrijeme odziva i poboljšati temeljitost svog rješavanja, što u konačnici ublažava štetu od cyber incidenata.

Bihevioralna analitika i otkrivanje anomalija

Mnogi sajber napadi mogu se otkriti uočavanjem odstupanja od „normalnog“ ponašanja – bilo da se radi o korisničkom računu koji preuzima neuobičajenu količinu podataka ili mrežnom uređaju koji iznenada komunicira s nepoznatim hostom. Generativna umjetna inteligencija nudi napredne tehnike za analizu ponašanja i otkrivanje anomalija , učenje normalnih obrazaca korisnika i sistema, a zatim označavanje kada nešto izgleda čudno.

Tradicionalno otkrivanje anomalija često koristi statističke pragove ili jednostavno mašinsko učenje na specifičnim metrikama (skokovi korištenja CPU-a, prijavljivanje u neobično vrijeme itd.). Generativna umjetna inteligencija može ovo ići dalje kreiranjem nijansiranijih profila ponašanja. Na primjer, model umjetne inteligencije može tokom vremena unesti prijave, obrasce pristupa datotekama i navike e-pošte zaposlenika i formirati višedimenzionalno razumijevanje „normalnosti“ tog korisnika. Ako taj račun kasnije učini nešto drastično izvan svoje norme (poput prijave iz nove zemlje i pristupanja mnoštvu HR datoteka u ponoć), umjetna inteligencija bi otkrila odstupanje ne samo na jednoj metrici, već kao cijeli obrazac ponašanja koji ne odgovara profilu korisnika. U tehničkom smislu, generativni modeli (poput autoenkodera ili sekvencijalnih modela) mogu modelirati kako „normalno“ izgleda, a zatim generirati očekivani raspon ponašanja. Kada stvarnost izađe izvan tog raspona, označava se kao anomalija ( Šta je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).

Jedna praktična primjena je u praćenju mrežnog prometa . Prema istraživanju iz 2024. godine, 54% američkih organizacija navelo je praćenje mrežnog prometa kao glavni slučaj upotrebe umjetne inteligencije u kibernetičkoj sigurnosti ( Sjeverna Amerika: glavni slučajevi upotrebe umjetne inteligencije u kibernetičkoj sigurnosti širom svijeta 2024. ). Generativna umjetna inteligencija može naučiti normalne komunikacijske obrasce mreže preduzeća - koji serveri obično komuniciraju jedni s drugima, koje količine podataka se kreću tokom radnog vremena u odnosu na noć, itd. Ako napadač počne izvlačiti podatke sa servera, čak i sporo kako bi izbjegao otkrivanje, sistem zasnovan na umjetnoj inteligenciji mogao bi primijetiti da „Server A nikada ne šalje 500 MB podataka u 2 sata ujutro na vanjsku IP adresu“ i podići upozorenje. Budući da umjetna inteligencija ne koristi samo statička pravila, već i evoluirajući model ponašanja mreže, može uhvatiti suptilne anomalije koje statička pravila (poput „upozorenja ako su podaci > X MB“) mogu propustiti ili pogrešno označiti. Ova adaptivna priroda čini otkrivanje anomalija vođeno umjetnom inteligencijom moćnim u okruženjima poput mreža bankarskih transakcija, cloud infrastrukture ili flota IoT uređaja, gdje je definiranje fiksnih pravila za normalno naspram abnormalnog izuzetno složeno.

Generativna umjetna inteligencija (AI) također pomaže u analitici ponašanja korisnika (UBA) , što je ključno za uočavanje insajderskih prijetnji ili kompromitiranih računa. Generiranjem osnovne linije svakog korisnika ili entiteta, AI može otkriti stvari poput zloupotrebe vjerodajnica. Na primjer, ako Bob iz računovodstva iznenada počne ispitivati ​​bazu podataka kupaca (nešto što nikada prije nije radio), AI model za Bobovo ponašanje će to označiti kao neobično. Možda se ne radi o zlonamjernom softveru - mogao bi se raditi o slučaju krađe i korištenja Bobovih vjerodajnica od strane napadača ili o Bobovom ispitivanju tamo gdje ne bi trebao. U svakom slučaju, sigurnosni tim dobija unaprijed obavijest za istragu. Takvi UBA sistemi vođeni umjetnom inteligencijom postoje u raznim sigurnosnim proizvodima, a tehnike generativnog modeliranja povećavaju njihovu tačnost i smanjuju lažne alarme uzimajući u obzir kontekst (možda je Bob na posebnom projektu itd., što AI ponekad može zaključiti iz drugih podataka).

U području upravljanja identitetom i pristupom, otkrivanje deepfakeova je sve veća potreba – generativna umjetna inteligencija može kreirati sintetičke glasove i videozapise koji zavaravaju biometrijsku sigurnost. Zanimljivo je da generativna umjetna inteligencija također može pomoći u otkrivanju ovih deepfakeova analizirajući suptilne artefakte u zvuku ili videozapisu koje ljudi teško primjećuju. Vidjeli smo primjer s Accentureom, koji je koristio generativni umjetnu inteligenciju za simuliranje bezbrojnih izraza lica i uvjeta kako bi obučio svoje biometrijske sisteme da razlikuju stvarne korisnike od deepfakeova generiranih umjetnom inteligencijom. Tokom pet godina, ovaj pristup je pomogao Accentureu da eliminira lozinke za 90% svojih sistema (prelazeći na biometriju i druge faktore) i smanji napade za 60% ( 6 slučajeva upotrebe generativnog umjetnog inteligencije u kibernetičkoj sigurnosti [+ primjeri] ). U suštini, koristili su generativni umjetnu inteligenciju za jačanje biometrijske autentifikacije, čineći je otpornom na generativne napade (odlična ilustracija borbe umjetne inteligencije protiv umjetne inteligencije). Ova vrsta modeliranja ponašanja – u ovom slučaju prepoznavanje razlike između živog ljudskog lica i lica sintetiziranog umjetnom inteligencijom – ključna je jer se sve više oslanjamo na umjetnu inteligenciju u autentifikaciji.

Detekcija anomalija koju pokreće generativna umjetna inteligencija primjenjiva je u svim industrijama: u zdravstvu, praćenje ponašanja medicinskih uređaja u potrazi za znakovima hakovanja; u finansijama, praćenje trgovačkih sistema u potrazi za nepravilnim obrascima koji bi mogli ukazivati ​​na prevaru ili algoritamsku manipulaciju; u energetici/komunalnim uslugama, praćenje signala kontrolnog sistema u potrazi za znakovima upada. Kombinacija širine (sagledavanje svih aspekata ponašanja) i dubine (razumijevanje složenih obrazaca) koju generativna umjetna inteligencija pruža čini je moćnim alatom za uočavanje indikatora sajber incidenta tipa "igla u plastu sijena". Kako prijetnje postaju sve prikrivenije, skrivajući se među normalnim operacijama, ova sposobnost preciznog karakteriziranja "normalnog" i upozoravanja kada nešto odstupa postaje vitalna. Generativna umjetna inteligencija stoga služi kao neumorni stražar, koji uvijek uči i ažurira svoju definiciju normalnosti kako bi pratio promjene u okruženju i upozoravao sigurnosne timove na anomalije koje zaslužuju detaljniji pregled.

Mogućnosti i koristi generativne umjetne inteligencije u kibernetičkoj sigurnosti

Primjena generativne umjetne inteligencije u kibernetičkoj sigurnosti donosi mnoštvo mogućnosti i koristi za organizacije koje su spremne prihvatiti ove alate. U nastavku sumiramo ključne prednosti koje čine generativnu umjetnu inteligenciju uvjerljivim dodatkom programima kibernetičke sigurnosti:

  • Brže otkrivanje prijetnji i odgovor: Generativni AI sistemi mogu analizirati ogromne količine podataka u stvarnom vremenu i prepoznati prijetnje mnogo brže od ručne ljudske analize. Ova prednost u brzini znači ranije otkrivanje napada i brže suzbijanje incidenata. U praksi, sigurnosni nadzor vođen AI-jem može otkriti prijetnje za koje bi ljudima trebalo mnogo više vremena da ih povežu. Brzim reagiranjem na incidente (ili čak autonomnim izvršavanjem početnih odgovora), organizacije mogu dramatično smanjiti vrijeme zadržavanja napadača u svojim mrežama, minimizirajući štetu.

  • Poboljšana tačnost i pokrivenost prijetnji: Budući da kontinuirano uče iz novih podataka, generativni modeli se mogu prilagoditi prijetnjama koje se razvijaju i uhvatiti suptilnije znakove zlonamjerne aktivnosti. To dovodi do poboljšane tačnosti detekcije (manje lažno negativnih i lažno pozitivnih rezultata) u poređenju sa statičkim pravilima. Na primjer, umjetna inteligencija koja je naučila obilježja phishing e-pošte ili ponašanja zlonamjernog softvera može identificirati varijante koje nikada prije nisu viđene. Rezultat je šira pokrivenost tipova prijetnji - uključujući nove napade - jačajući ukupnu sigurnosnu poziciju. Sigurnosni timovi također dobijaju detaljne uvide iz analize umjetne inteligencije (npr. objašnjenja ponašanja zlonamjernog softvera), omogućavajući precizniju i ciljaniju odbranu ( Šta je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).

  • Automatizacija ponavljajućih zadataka: Generativna umjetna inteligencija izvrsno se snalazi u automatizaciji rutinskih, radno intenzivnih sigurnosnih zadataka – od pregledavanja logova i sastavljanja izvještaja do pisanja skripti za odgovor na incidente. Ova automatizacija smanjuje opterećenje ljudskih analitičara , oslobađajući ih da se fokusiraju na strategiju visokog nivoa i složeno donošenje odluka ( Šta je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ). Svakodnevne, ali važne zadatke poput skeniranja ranjivosti, revizije konfiguracije, analize aktivnosti korisnika i izvještavanja o usklađenosti može obaviti (ili barem prvi nacrt) umjetna inteligencija. Obradom ovih zadataka brzinom mašine, umjetna inteligencija ne samo da poboljšava efikasnost već i smanjuje ljudske greške (značajan faktor u povredama sigurnosti).

  • Proaktivna odbrana i simulacija: Generativna umjetna inteligencija omogućava organizacijama da pređu sa reaktivne na proaktivnu sigurnost. Kroz tehnike poput simulacije napada, generiranja sintetičkih podataka i obuke zasnovane na scenarijima, branioci mogu predvidjeti i pripremiti se za prijetnje prije nego što se one materijalizuju u stvarnom svijetu. Sigurnosni timovi mogu simulirati sajber napade (phishing kampanje, izbijanja zlonamjernog softvera, DDoS, itd.) u sigurnim okruženjima kako bi testirali svoje odgovore i učvrstili sve slabosti. Ova kontinuirana obuka, koju je često nemoguće temeljito izvesti samo ljudskim naporom, održava odbranu oštrom i ažurnom. Slično je sajber "vježbi zaštite od požara" - umjetna inteligencija može baciti mnogo hipotetičkih prijetnji na vašu odbranu kako biste mogli vježbati i poboljšavati se.

  • Povećanje ljudske stručnosti (AI kao multiplikator snage): Generativna AI djeluje kao neumorni mlađi analitičar, savjetnik i asistent u jednom. Može pružiti manje iskusnim članovima tima smjernice i preporuke koje se obično očekuju od iskusnih stručnjaka, efektivno demokratizirajući stručnost u timu ( 6 slučajeva upotrebe generativne AI u kibernetičkoj sigurnosti [+ primjeri] ). Ovo je posebno vrijedno s obzirom na nedostatak talenata u kibernetičkoj sigurnosti – AI pomaže manjim timovima da urade više s manje. S druge strane, iskusni analitičari imaju koristi od AI-a koji se nosi s teškim poslovima i otkriva neočigledne uvide, koje zatim mogu potvrditi i djelovati na osnovu njih. Krajnji rezultat je sigurnosni tim koji je daleko produktivniji i sposobniji, pri čemu AI pojačava utjecaj svakog ljudskog člana ( Kako se generativna AI može koristiti u kibernetičkoj sigurnosti ).

  • Poboljšana podrška odlučivanju i izvještavanju: Prevođenjem tehničkih podataka u uvide prirodnog jezika, generativna umjetna inteligencija poboljšava komunikaciju i donošenje odluka. Lideri sigurnosti dobijaju jasniju vidljivost problema putem sažetaka generiranih umjetnom inteligencijom i mogu donositi informirane strateške odluke bez potrebe za parsiranjem sirovih podataka. Slično tome, međufunkcionalna komunikacija (s rukovodiocima, službenicima za usklađenost itd.) se poboljšava kada umjetna inteligencija priprema lako razumljive izvještaje o sigurnosnom stanju i incidentima ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Ovo ne samo da gradi povjerenje i usklađenost u sigurnosnim pitanjima na nivou rukovodstva, već i pomaže u opravdavanju ulaganja i promjena jasnim artikuliranjem rizika i nedostataka koje je otkrila umjetna inteligencija.

U kombinaciji, ove prednosti znače da organizacije koje koriste generativnu umjetnu inteligenciju u kibernetičkoj sigurnosti mogu postići jači sigurnosni položaj s potencijalno nižim operativnim troškovima. Mogu odgovoriti na prijetnje koje su ranije bile prevelike, pokriti praznine koje nisu bile praćene i kontinuirano se poboljšavati putem povratnih informacija vođenih umjetnom inteligencijom. U konačnici, generativna umjetna inteligencija nudi priliku da se preduhitri protivnik usklađivanjem brzine , obima i sofisticiranosti modernih napada s jednako sofisticiranom odbranom. Kao što je pokazalo jedno istraživanje, preko polovine poslovnih i kibernetičkih lidera očekuje brže otkrivanje prijetnji i povećanu tačnost korištenjem generativne umjetne inteligencije ( [PDF] Global Cybersecurity Outlook 2025 | Svjetski ekonomski forum ) ( Generativna umjetna inteligencija u kibernetičkoj sigurnosti: Sveobuhvatan pregled LLM-a ... ) – što svjedoči o optimizmu u vezi s prednostima ovih tehnologija.

Rizici i izazovi korištenja generativne umjetne inteligencije u kibernetičkoj sigurnosti

Iako su prilike značajne, ključno je pristupiti generativnoj umjetnoj inteligenciji u kibernetičkoj sigurnosti otvorenih očiju za rizike i izazove . Slijepo povjerenje u umjetnu inteligenciju ili njena zloupotreba mogu uvesti nove ranjivosti. U nastavku navodimo glavne probleme i zamke, zajedno s kontekstom za svaki od njih:

  • Neprijateljska upotreba od strane sajber kriminalaca: Iste generativne sposobnosti koje pomažu braniocima mogu osnažiti napadače. Akteri prijetnji već koriste generativnu umjetnu inteligenciju za kreiranje uvjerljivijih phishing e-poruka, kreiranje lažnih persona i deepfake videa za društveni inženjering, razvoj polimorfnog zlonamjernog softvera koji se stalno mijenja kako bi izbjegao otkrivanje, pa čak i automatizaciju aspekata hakovanja ( Šta je generativna umjetna inteligencija u sajber sigurnosti? - Palo Alto Networks ). Gotovo polovina (46%) lidera u sajber sigurnosti zabrinuta je da će generativna umjetna inteligencija dovesti do naprednijih neprijateljskih napada ( Generativna sigurnost umjetne inteligencije: Trendovi, prijetnje i strategije ublažavanja ). Ova „trka u naoružanju umjetnom inteligencijom“ znači da kako branioci usvajaju umjetnu inteligenciju, napadači neće mnogo zaostajati (zapravo, mogu biti ispred u nekim područjima, koristeći neregulirane alate umjetne inteligencije). Organizacije moraju biti spremne na prijetnje poboljšane umjetnom inteligencijom koje su češće, sofisticiranije i teže ih je pratiti.

  • Halucinacije i netačnost umjetne inteligencije: Generativni modeli umjetne inteligencije mogu proizvesti izlaze koji su uvjerljivi, ali netačni ili obmanjujući – fenomen poznat kao halucinacija. U sigurnosnom kontekstu, umjetna inteligencija može analizirati incident i pogrešno zaključiti da je uzrok određena ranjivost ili može generirati neispravan skript za sanaciju koji ne uspijeva obuzdati napad. Ove greške mogu biti opasne ako se shvate doslovno. Kao što NTT Data upozorava, „generativna umjetna inteligencija može uvjerljivo izbaciti neistinit sadržaj, a ovaj fenomen se naziva halucinacije... trenutno ih je teško potpuno eliminirati“ ( Sigurnosni rizici generativne umjetne inteligencije i protumjera, te njen utjecaj na kibernetičku sigurnost | NTT DATA Group ). Prekomjerno oslanjanje na umjetnu inteligenciju bez provjere moglo bi dovesti do pogrešno usmjerenih napora ili lažnog osjećaja sigurnosti. Na primjer, umjetna inteligencija može lažno označiti kritični sistem kao siguran kada to nije slučaj, ili obrnuto, izazvati paniku „otkrivanjem“ kršenja koje se nikada nije dogodilo. Rigorozna validacija izlaza umjetne inteligencije i uključivanje ljudi u proces donošenja kritičnih odluka ključni su za ublažavanje ovog rizika.

  • Lažno pozitivni i negativni rezultati: U vezi s halucinacijama, ako je model umjetne inteligencije loše obučen ili konfiguriran, mogao bi previše prijaviti benignu aktivnost kao zlonamjernu (lažno pozitivni rezultati) ili, još gore, propustiti stvarne prijetnje (lažno negativni rezultati) ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti ). Prekomjerni lažni alarmi mogu preopteretiti sigurnosne timove i dovesti do zamora od alarma (poništavajući upravo dobitke u efikasnosti koje je umjetna inteligencija obećala), dok propuštene detekcije ostavljaju organizaciju izloženom. Podešavanje generativnih modela za pravu ravnotežu je izazovno. Svako okruženje je jedinstveno i umjetna inteligencija možda neće odmah optimalno raditi odmah po instalaciji. Kontinuirano učenje je također mač s dvije oštrice – ako umjetna inteligencija uči iz povratnih informacija koje su iskrivljene ili iz okruženja koje se mijenja, njena tačnost može fluktuirati. Sigurnosni timovi moraju pratiti performanse umjetne inteligencije i prilagođavati pragove ili pružati korektivne povratne informacije modelima. U kontekstima visokog rizika (kao što je otkrivanje upada u kritičnu infrastrukturu), može biti razborito pokretati prijedloge umjetne inteligencije paralelno s postojećim sistemima tokom određenog perioda, kako bi se osiguralo da se usklađuju i dopunjuju, a ne da se sukobljavaju.

  • Privatnost i curenje podataka: Generativni AI sistemi često zahtijevaju velike količine podataka za obuku i rad. Ako su ovi modeli zasnovani na oblaku ili nisu pravilno izolovani, postoji rizik od curenja osjetljivih informacija. Korisnici mogu nenamjerno uneti vlasničke podatke ili lične podatke u AI uslugu (zamislite da tražite od ChatGPT-a da sažme povjerljivi izvještaj o incidentu), a ti podaci bi mogli postati dio znanja modela. Zaista, nedavna studija je otkrila da 55% unosa u generativne AI alate sadrži osjetljive ili lične podatke , što izaziva ozbiljnu zabrinutost zbog curenja podataka ( Sigurnost generativne AI: Trendovi, prijetnje i strategije ublažavanja ). Osim toga, ako je AI obučen na internim podacima i ako se na njih postavljaju upiti na određene načine, mogao bi poslati nekome drugom. Organizacije moraju implementirati stroge politike rukovanja podacima (npr. korištenje lokalnih ili privatnih AI instanci za osjetljivi materijal) i educirati zaposlenike o tome da ne lijepe tajne informacije u javne AI alate. Propisi o privatnosti (GDPR, itd.) također dolaze do izražaja – korištenje ličnih podataka za obuku AI bez odgovarajućeg pristanka ili zaštite moglo bi biti u suprotnosti sa zakonima.

  • Sigurnost i manipulacija modelom: Generativni modeli umjetne inteligencije sami po sebi mogu postati mete. Protivnici mogu pokušati trovati model , dajući zlonamjerne ili obmanjujuće podatke tokom faze obuke ili ponovne obuke kako bi umjetna inteligencija naučila pogrešne obrasce ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti ). Na primjer, napadač može suptilno otrovati obavještajne podatke o prijetnji tako da umjetna inteligencija ne prepozna napadačev vlastiti zlonamjerni softver kao zlonamjeran. Druga taktika je brzo ubrizgavanje ili manipulacija izlazom , gdje napadač pronalazi način da izda ulaze umjetnoj inteligenciji koji uzrokuju da se ponaša na neželjene načine - možda da ignoriše njene sigurnosne mjere ili da otkrije informacije koje ne bi trebala (poput internih uputa ili podataka). Osim toga, postoji rizik od izbjegavanja modela : napadači kreiraju ulaz posebno dizajniran da prevare umjetnu inteligenciju. To vidimo u primjerima suparništva - blago poremećeni podaci koje čovjek vidi kao normalne, ali ih umjetna inteligencija pogrešno klasificira. Osiguravanje sigurnosti lanca snabdijevanja umjetnom inteligencijom (integritet podataka, kontrola pristupa modelu, testiranje robusnosti protivnika) novi je, ali neophodan dio kibernetičke sigurnosti prilikom primjene ovih alata ( Šta je generativna umjetna inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).

  • Prekomjerno oslanjanje i erozija vještina: Postoji manji rizik da se organizacije previše oslanjaju na vještačku inteligenciju i dozvole da ljudske vještine atrofiraju. Ako mlađi analitičari počnu slijepo vjerovati rezultatima vještačke inteligencije, možda neće razviti kritičko razmišljanje i intuiciju potrebnu za situacije kada vještačka inteligencija nije dostupna ili je pogrešna. Scenarij koji treba izbjegavati je sigurnosni tim koji ima odlične alate, ali nema pojma kako da radi ako ti alati postanu neispravni (slično pilotima koji se previše oslanjaju na autopilota). Redovne vježbe obuke bez pomoći vještačke inteligencije i podsticanje načina razmišljanja da je vještačka inteligencija asistent, a ne nepogrešivi prorok, važni su za održavanje oštrine ljudskih analitičara. Ljudi moraju ostati donosioci konačnih odluka, posebno za odluke s velikim utjecajem.

  • Etički i izazovi usklađenosti: Upotreba umjetne inteligencije u kibernetičkoj sigurnosti postavlja etička pitanja i mogla bi izazvati probleme s usklađenošću s propisima. Na primjer, ako sistem umjetne inteligencije pogrešno implicira zaposlenika kao zlonamjernog insajdera zbog anomalije, to bi moglo nepravedno oštetiti ugled ili karijeru te osobe. Odluke koje donosi umjetna inteligencija mogu biti neprozirne (problem "crne kutije"), što otežava objašnjenje revizorima ili regulatorima zašto su poduzete određene radnje. Kako sadržaj generiran umjetnom inteligencijom postaje sve rasprostranjeniji, osiguranje transparentnosti i održavanje odgovornosti je ključno. Regulatori počinju provjeravati umjetnu inteligenciju - Zakon EU o umjetnoj inteligenciji, na primjer, nametnut će zahtjeve za "visokorizične" sisteme umjetne inteligencije, a umjetna inteligencija u kibernetičkoj sigurnosti mogla bi spadati u tu kategoriju. Kompanije će morati da se snađu u ovim propisima i eventualno se pridržavaju standarda poput Okvira za upravljanje rizikom umjetne inteligencije NIST-a kako bi odgovorno koristile generativnu umjetnu inteligenciju ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Usklađenost se proteže i na licenciranje: korištenje modela otvorenog koda ili modela trećih strana može imati uslove koji ograničavaju određene upotrebe ili zahtijevaju poboljšanja dijeljenja.

Ukratko, generativna umjetna inteligencija nije čarobni štapić – ako se ne implementira pažljivo, može uvesti nove slabosti čak i dok rješava druge. Studija Svjetskog ekonomskog foruma iz 2024. godine istakla je da ~47% organizacija navodi napredak u generativnoj umjetnoj inteligenciji od strane napadača kao primarnu brigu, što je čini „najzabrinjavajućim utjecajem generativne umjetne inteligencije“ na kibernetičku sigurnost ( [PDF] Global Cybersecurity Outlook 2025 | Svjetski ekonomski forum ) ( Generativna umjetna inteligencija u kibernetičkoj sigurnosti: Sveobuhvatan pregled LLM-a ... ). Stoga organizacije moraju usvojiti uravnotežen pristup: iskoristiti prednosti umjetne inteligencije dok istovremeno rigorozno upravljaju tim rizicima kroz upravljanje, testiranje i ljudski nadzor. Zatim ćemo razgovarati o tome kako praktično postići tu ravnotežu.

Budući izgledi: Razvoj uloge generativne umjetne inteligencije u kibernetičkoj sigurnosti

Gledajući unaprijed, generativna umjetna inteligencija spremna je postati sastavni dio strategije kibernetičke sigurnosti – a isto tako i alat koji će kibernetički protivnici nastaviti iskorištavati. Dinamika igre mačke i miša će se ubrzati, s umjetnom inteligencijom s obje strane ograde. Evo nekoliko uvida u to kako bi generativna umjetna inteligencija mogla oblikovati kibernetičku sigurnost u narednim godinama:

  • Sajber odbrana proširena vještačkom inteligencijom postaje standard: Do 2025. godine i kasnije, možemo očekivati ​​da će većina srednjih i velikih organizacija u svoje sigurnosne operacije uključiti alate zasnovane na vještačkoj inteligenciji. Baš kao što su antivirusni programi i zaštitni zidovi danas standardni, vještački kopiloti i sistemi za otkrivanje anomalija mogli bi postati osnovne komponente sigurnosnih arhitektura. Ovi alati će vjerovatno postati specijalizovaniji - na primjer, različiti modeli vještačke inteligencije fino podešeni za sigurnost u oblaku, za praćenje IoT uređaja, za sigurnost koda aplikacije i tako dalje, a svi će raditi usklađeno. Kao što jedno predviđanje navodi, „2025. godine, generativna vještačka inteligencija će biti sastavni dio sajber sigurnosti, omogućavajući organizacijama da se proaktivno brane od sofisticiranih i promjenjivih prijetnji“ ( Kako se generativna vještačka inteligencija može koristiti u sajber sigurnosti ). Vještačka inteligencija će poboljšati otkrivanje prijetnji u stvarnom vremenu, automatizirati mnoge akcije odgovora i pomoći sigurnosnim timovima da upravljaju znatno većim količinama podataka nego što bi to mogli ručno.

  • Kontinuirano učenje i prilagođavanje: Budući generativni AI sistemi u sajber okruženju će se poboljšati u učenju u hodu iz novih incidenata i obavještajnih podataka o prijetnjama, ažurirajući svoju bazu znanja gotovo u realnom vremenu. Ovo bi moglo dovesti do istinski adaptivne odbrane – zamislite AI koji ujutro sazna o novoj phishing kampanji koja pogađa drugu kompaniju, a do popodneva je već prilagodio filtere e-pošte vaše kompanije kao odgovor. Sigurnosne usluge AI zasnovane na oblaku mogle bi olakšati ovu vrstu kolektivnog učenja, gdje anonimni uvidi iz jedne organizacije koriste svim pretplatnicima (slično dijeljenju obavještajnih podataka o prijetnjama, ali automatizovano). Međutim, ovo će zahtijevati pažljivo rukovanje kako bi se izbjeglo dijeljenje osjetljivih informacija i spriječilo napadače da unose loše podatke u dijeljene modele.

  • Konvergencija talenata za vještačku inteligenciju i kibernetičku sigurnost: Skup vještina stručnjaka za kibernetičku sigurnost će se razvijati i uključivat će vještinu u vještačkoj inteligenciji i nauci o podacima. Baš kao što današnji analitičari uče jezike za upite i skriptiranje, sutrašnji analitičari bi mogli redovno fino podešavati modele vještačke inteligencije ili pisati „priručnike“ koje vještačka inteligencija izvršava. Možda ćemo vidjeti nove uloge poput „Trenera za vještačku sigurnost“ ili „Inženjera za vještačku inteligenciju za kibernetičku sigurnost“ – ljudi koji su specijalizirani za prilagođavanje alata vještačke inteligencije potrebama organizacije, validaciju njihovih performansi i osiguravanje sigurnog rada. S druge strane, razmatranja kibernetičke sigurnosti će sve više utjecati na razvoj vještačke inteligencije. Sistemi vještačke inteligencije će biti izgrađeni sa sigurnosnim funkcijama od temelja (sigurna arhitektura, detekcija neovlaštenih promjena, zapisnici revizije za odluke vještačke inteligencije itd.), a okviri za pouzdanu vještačku inteligenciju (pošteni, objašnjivi, robusni i sigurni) će voditi njihovu primjenu u kontekstima kritičnim za sigurnost.

  • Sofisticiraniji napadi pokretani vještačkom inteligencijom: Nažalost, pejzaž prijetnji će se također razvijati s vještačkom inteligencijom. Očekujemo češću upotrebu vještačke inteligencije za otkrivanje zero-day ranjivosti, za kreiranje visoko ciljanog spear phishinga (npr. vještačka inteligencija pretražuje društvene mreže kako bi stvorila savršeno prilagođen mamac) i za generiranje uvjerljivih deepfake glasova ili videa kako bi zaobišla biometrijsku autentifikaciju ili počinila prevaru. Mogu se pojaviti automatizirani agenti za hakiranje koji mogu samostalno izvoditi višefazne napade (izviđanje, iskorištavanje, lateralno kretanje itd.) uz minimalan ljudski nadzor. Ovo će prisiliti branitelje da se također oslanjaju na vještačku inteligenciju – u suštini automatizacija naspram automatizacije . Neki napadi mogu se dogoditi brzinom mašine, poput AI botova koji pokušavaju hiljadu permutacija phishing e-pošte kako bi vidjeli koja prolazi filtere. Kibernetička odbrana će morati raditi sličnom brzinom i fleksibilnošću kako bi pratila tempo ( Šta je generativna vještačka inteligencija u kibernetičkoj sigurnosti? - Palo Alto Networks ).

  • Regulacija i etička umjetna inteligencija u sigurnosti: Kako se umjetna inteligencija sve više ugrađuje u funkcije kibernetičke sigurnosti, doći će do većeg nadzora i moguće regulacije kako bi se osiguralo da se ovi sistemi umjetne inteligencije koriste odgovorno. Možemo očekivati ​​okvire i standarde specifične za umjetnu inteligenciju u sigurnosti. Vlade bi mogle postaviti smjernice za transparentnost - npr. zahtijevajući da značajne sigurnosne odluke (poput prekida pristupa zaposlenika zbog sumnje na zlonamjernu aktivnost) ne može donositi sama umjetna inteligencija bez ljudskog pregleda. Mogu postojati i certifikati za sigurnosne proizvode umjetne inteligencije, kako bi se kupcima osiguralo da je umjetna inteligencija ocijenjena u pogledu pristranosti, robusnosti i sigurnosti. Nadalje, međunarodna saradnja mogla bi se proširiti oko kibernetičkih prijetnji povezanih s umjetnom inteligencijom; na primjer, sporazumi o rukovanju dezinformacijama koje stvara umjetna inteligencija ili norme protiv određenog kibernetičkog oružja pokretanog umjetnom inteligencijom.

  • Integracija sa širim AI i IT ekosistemima: Generativna AI u sajber sigurnosti će se vjerovatno integrirati s drugim AI sistemima i IT alatima za upravljanje. Na primjer, AI koja upravlja optimizacijom mreže mogla bi raditi sa sigurnosnom AI kako bi se osiguralo da promjene ne otvaraju rupe u zakonu. Poslovna analitika vođena AI mogla bi dijeliti podatke sa sigurnosnim AI-ima kako bi se povezale anomalije (poput naglog pada prodaje s mogućim problemom s web stranicom zbog napada). U suštini, AI neće živjeti u silosu – bit će dio veće inteligentne strukture poslovanja organizacije. Ovo otvara mogućnosti za holističko upravljanje rizicima gdje bi operativni podaci, podaci o prijetnjama, pa čak i podaci o fizičkoj sigurnosti mogli biti kombinovani od strane AI kako bi se dobio 360-stepeni pogled na sigurnosno stanje organizacije.

Dugoročno gledano, nada je da će generativna umjetna inteligencija pomoći u preokretanju ravnoteže u korist onih koji brane sistem. Rješavanjem obima i složenosti modernih IT okruženja, umjetna inteligencija može učiniti sajber prostor odbranjivijim. Međutim, to je putovanje i bit će poteškoća dok usavršavamo ove tehnologije i učimo im vjerovati na odgovarajući način. Organizacije koje ostaju informirane i ulažu u odgovorno usvajanje umjetne inteligencije za sigurnost vjerovatno će biti one koje će biti najbolje pozicionirane da se nose s prijetnjama budućnosti.

Kao što je navedeno u nedavnom izvještaju Gartnera o trendovima u sajber sigurnosti, „pojava generativnih slučajeva upotrebe (i rizika) umjetne inteligencije stvara pritisak za transformaciju“ ( Trendovi u sajber sigurnosti: Otpornost kroz transformaciju - Gartner ). Oni koji se prilagode iskoristit će umjetnu inteligenciju kao moćnog saveznika; oni koji zaostaju mogli bi se naći u situaciji da ih nadmašuju protivnici osnaženi umjetnom inteligencijom. Sljedećih nekoliko godina bit će ključno vrijeme u definiranju načina na koji umjetna inteligencija mijenja sajber bojno polje.

Praktične informacije za usvajanje generativne umjetne inteligencije u kibernetičkoj sigurnosti

Za kompanije koje procjenjuju kako iskoristiti generativnu umjetnu inteligenciju u svojoj strategiji kibernetičke sigurnosti, evo nekoliko praktičnih zaključaka i preporuka za odgovorno i efikasno usvajanje:

  1. Započnite s edukacijom i obukom: Osigurajte da vaš sigurnosni tim (i šire IT osoblje) razumiju šta generativna umjetna inteligencija može, a šta ne može učiniti. Osigurajte obuku o osnovama sigurnosnih alata vođenih umjetnom inteligencijom i ažurirajte svoje programe podizanja svijesti o sigurnosti za sve zaposlenike kako bi obuhvatili prijetnje omogućene umjetnom inteligencijom. Na primjer, podučite osoblje kako umjetna inteligencija može generirati vrlo uvjerljive phishing prevare i lažne pozive. Istovremeno, obučite zaposlenike o sigurnoj i odobrenoj upotrebi alata umjetne inteligencije u njihovom radu. Dobro informirani korisnici imaju manju vjerojatnost da će pogrešno rukovati umjetnom inteligencijom ili postati žrtve napada poboljšanih umjetnom inteligencijom ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ).

  2. Definirajte jasne politike korištenja umjetne inteligencije: Tretirajte generativnu umjetnu inteligenciju kao bilo koju moćnu tehnologiju – uz upravljanje. Razvijte politike koje specificiraju ko može koristiti alate umjetne inteligencije, koji su alati odobreni i u koje svrhe. Uključite smjernice o rukovanju osjetljivim podacima (npr. zabrana unošenja povjerljivih podataka u eksterne usluge umjetne inteligencije) kako biste spriječili curenje informacija. Na primjer, možete dozvoliti samo članovima sigurnosnog tima da koriste internog asistenta umjetne inteligencije za odgovor na incidente, a marketing može koristiti provjerenu umjetnu inteligenciju za sadržaj – svi ostali su ograničeni. Mnoge organizacije sada se eksplicitno bave generativnom umjetnom inteligencijom u svojim IT politikama, a vodeća tijela za standardizaciju potiču politike sigurne upotrebe, a ne direktne zabrane ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Obavezno komunicirajte ova pravila i obrazloženje iza njih svim zaposlenicima.

  3. Ublažite „sjenovitu umjetnu inteligenciju“ i pratite korištenje: Slično kao kod sjenovite IT tehnologije, „sjenovita umjetna inteligencija“ nastaje kada zaposlenici počnu koristiti alate ili usluge umjetne inteligencije bez znanja IT odjela (npr. programer koristi neovlaštenog asistenta za kodiranje umjetne inteligencije). Ovo može uvesti neviđene rizike. Implementirajte mjere za otkrivanje i kontrolu nesankcioniranog korištenja umjetne inteligencije . Praćenje mreže može označiti veze s popularnim AI API-jima, a ankete ili revizije alata mogu otkriti što osoblje koristi. Ponudite odobrene alternative kako dobronamjerni zaposlenici ne bi bili u iskušenju da se pokažu nepošteno (na primjer, osigurajte službeni ChatGPT Enterprise račun ako ljudi smatraju da je koristan). Iznošenjem korištenja umjetne inteligencije na vidjelo, sigurnosni timovi mogu procijeniti i upravljati rizikom. Praćenje je također ključno – evidentirajte aktivnosti i rezultate alata umjetne inteligencije koliko god je to moguće, kako bi postojao revizorski trag za odluke na koje je umjetna inteligencija utjecala ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ).

  4. Iskoristite vještačku inteligenciju u odbrani – ne zaostajajte: Prepoznajte da će napadači koristiti vještačku inteligenciju, pa bi i vaša odbrana trebala. Identifikujte nekoliko područja visokog uticaja gdje generativna vještačka inteligencija može odmah pomoći vašim sigurnosnim operacijama (možda trijaža upozorenja ili automatska analiza logova) i pokrenite pilot projekte. Povećajte svoju odbranu brzinom i skalom vještačke inteligencije kako biste se suprotstavili brzorastućim prijetnjama ( Kako se generativna vještačka inteligencija može koristiti u sajber sigurnosti? 10 primjera iz stvarnog svijeta ). Čak i jednostavne integracije, poput korištenja vještačke inteligencije za sažimanje izvještaja o zlonamjernom softveru ili generiranje upita za lov na prijetnje, mogu analitičarima uštedjeti sate. Počnite s malim koracima, procijenite rezultate i ponavljajte. Uspjesi će izgraditi argumente za širu primjenu vještačke inteligencije. Cilj je koristiti vještačku inteligenciju kao multiplikator sile – na primjer, ako phishing napadi preplavljuju vašu službu za podršku, implementirajte klasifikator e-pošte zasnovan na vještačkoj inteligenciji kako biste proaktivno smanjili taj obim.

  5. Investirajte u sigurne i etičke prakse umjetne inteligencije: Prilikom implementacije generativne umjetne inteligencije, slijedite prakse sigurnog razvoja i implementacije. Koristite privatne ili samostalno hostovane modele za osjetljive zadatke kako biste zadržali kontrolu nad podacima. Ako koristite usluge umjetne inteligencije trećih strana, pregledajte njihove mjere sigurnosti i privatnosti (šifriranje, politike zadržavanja podataka itd.). Uključite okvire za upravljanje rizicima umjetne inteligencije (poput NIST-ovog okvira za upravljanje rizicima umjetne inteligencije ili smjernica ISO/IEC) kako biste sistematski riješili stvari poput pristranosti, objašnjivosti i robusnosti u svojim alatima umjetne inteligencije ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti? 10 primjera iz stvarnog svijeta ). Također planirajte ažuriranja/zakrpe modela kao dio održavanja – modeli umjetne inteligencije također mogu imati „ranjivosti“ (npr. možda će im biti potrebna ponovna obuka ako počnu lutati ili ako se otkrije nova vrsta neprijateljskog napada na model). Uključivanjem sigurnosti i etike u korištenje umjetne inteligencije gradite povjerenje u rezultate i osiguravate usklađenost s novim propisima.

  6. Održavajte ljude u toku: Koristite vještačku inteligenciju da pomognete, a ne da u potpunosti zamijenite, ljudsku prosudbu u sajber sigurnosti. Odredite tačke odlučivanja gdje je potrebna ljudska validacija (na primjer, vještačka inteligencija može sastaviti izvještaj o incidentu, ali ga analitičar pregleda prije distribucije; ili vještačka inteligencija može predložiti blokiranje korisničkog računa, ali čovjek odobri tu radnju). Ovo ne samo da sprječava da greške vještačke inteligencije ostanu neprovjerene, već i pomaže vašem timu da uči od vještačke inteligencije i obrnuto. Potaknite kolaborativni tijek rada: analitičari bi se trebali osjećati ugodno propitujući rezultate vještačke inteligencije i vršeći provjere razumnosti. Vremenom, ovaj dijalog može poboljšati i vještačku inteligenciju (kroz povratne informacije) i vještine analitičara. U suštini, dizajnirajte svoje procese tako da se snage vještačke inteligencije i ljudske snage međusobno nadopunjuju – vještačka inteligencija rješava količinu i brzinu, ljudi rješavaju dvosmislenost i konačne odluke.

  7. Mjerenje, praćenje i prilagođavanje: Konačno, tretirajte svoje generativne AI alate kao žive komponente vašeg sigurnosnog ekosistema. Kontinuirano mjerite njihove performanse – da li smanjuju vrijeme odgovora na incidente? Da li ranije otkrivaju prijetnje? Kakav je trend stope lažno pozitivnih rezultata? Tražite povratne informacije od tima: da li su preporuke AI korisne ili stvaraju buku? Koristite ove metrike za poboljšanje modela, ažuriranje podataka o obuci ili prilagođavanje načina na koji je AI integriran. Kibernetičke prijetnje i poslovne potrebe se razvijaju, a vaše AI modele treba periodično ažurirati ili ponovo obučavati kako bi ostali efikasni. Imajte plan za upravljanje modelom, uključujući ko je odgovoran za njegovo održavanje i koliko često se preispituje. Aktivnim upravljanjem životnim ciklusom AI-a osiguravate da on ostane prednost, a ne obaveza.

Zaključno, generativna umjetna inteligencija može značajno poboljšati mogućnosti kibernetičke sigurnosti, ali uspješno usvajanje zahtijeva promišljeno planiranje i kontinuirani nadzor. Preduzeća koja obrazuju svoje ljude, postavljaju jasne smjernice i integrišu umjetnu inteligenciju na uravnotežen i siguran način ubrajat će plodove bržeg i pametnijeg upravljanja prijetnjama. Ove zaključke pružaju mapu puta: kombinujte ljudsku stručnost s automatizacijom umjetne inteligencije, obuhvatite osnove upravljanja i održavajte agilnost kako se i tehnologija umjetne inteligencije i pejzaž prijetnji neizbježno razvijaju.

Preduzimanjem ovih praktičnih koraka, organizacije mogu s pouzdanjem odgovoriti na pitanje „Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti?“ – ne samo u teoriji, već i u svakodnevnoj praksi – i time ojačati svoju odbranu u našem sve digitalnijem svijetu koji je sve više vođen umjetnom inteligencijom. ( Kako se generativna umjetna inteligencija može koristiti u kibernetičkoj sigurnosti )

Bijele knjige koje biste možda željeli pročitati nakon ove:

🔗 Poslovi koje vještačka inteligencija ne može zamijeniti i koje će poslove zamijeniti?
Istražite globalni pogled na to koje su uloge sigurne od automatizacije, a koje nisu.

🔗 Može li vještačka inteligencija predvidjeti kretanje na berzi?
Detaljniji pogled na ograničenja, otkrića i mitove o sposobnosti vještačke inteligencije da predviđa kretanja na tržištu.

🔗 Na šta se generativna umjetna inteligencija može osloniti bez ljudske intervencije?
Razumjeti gdje umjetna inteligencija može funkcionirati samostalno, a gdje je ljudski nadzor i dalje neophodan.

Nazad na blog