Expert în securitate cibernetică care analizează amenințările folosind instrumente de inteligență artificială generativă.

Cum poate fi utilizată inteligența artificială generativă în securitatea cibernetică?

Introducere

IA generativă – sisteme de inteligență artificială capabile să creeze conținut nou sau predicții – se impune ca o forță transformatoare în domeniul securității cibernetice. Instrumente precum GPT-4 de la OpenAI au demonstrat capacitatea de a analiza date complexe și de a genera text asemănător cu cel uman, permițând noi abordări pentru apărarea împotriva amenințărilor cibernetice. Profesioniștii în domeniul securității cibernetice și factorii de decizie din diverse industrii explorează modul în care IA generativă poate consolida apărarea împotriva atacurilor în continuă evoluție. De la finanțe și asistență medicală la comerț cu amănuntul și guvern, organizațiile din fiecare sector se confruntă cu tentative sofisticate de phishing, programe malware și alte amenințări pe care IA generativă le-ar putea contracara. În această lucrare informativă, examinăm modul în care IA generativă poate fi utilizată în domeniul securității cibernetice , evidențiind aplicații din lumea reală, posibilități viitoare și considerații importante pentru adoptare.

IA generativă diferă de IA analitică tradițională nu doar prin detectarea tiparelor, ci și prin crearea de conținut - fie prin simularea atacurilor pentru a antrena apărarea, fie prin producerea de explicații în limbaj natural pentru date complexe de securitate. Această capacitate dublă o transformă într-o sabie cu două tăișuri: oferă noi instrumente defensive puternice, dar și actorii amenințători o pot exploata. Următoarele secțiuni explorează o gamă largă de cazuri de utilizare pentru IA generativă în securitatea cibernetică, de la automatizarea detectării phishing-ului până la îmbunătățirea răspunsului la incidente. De asemenea, discutăm beneficiile pe care le promit aceste inovații în domeniul IA, alături de riscurile (cum ar fi „halucinațiile” IA sau utilizarea abuzivă din partea adversarilor) pe care organizațiile trebuie să le gestioneze. În cele din urmă, oferim concluzii practice pentru a ajuta companiile să evalueze și să integreze în mod responsabil IA generativă în strategiile lor de securitate cibernetică.

IA generativă în cibersecuritate: o prezentare generală

IA generativă în securitatea cibernetică se referă la modele de IA – adesea modele lingvistice mari sau alte rețele neuronale – care pot genera informații, recomandări, cod sau chiar date sintetice pentru a ajuta la sarcinile de securitate. Spre deosebire de modelele pur predictive, IA generativă poate simula scenarii și poate produce rezultate lizibile de către om (de exemplu, rapoarte, alerte sau chiar mostre de cod malițios) pe baza datelor sale de antrenament. Această capacitate este utilizată pentru a prezice, detecta și răspunde la amenințări în moduri mai dinamice decât înainte ( Ce este IA generativă în securitatea cibernetică? - Palo Alto Networks ). De exemplu, modelele generative pot analiza jurnale vaste sau depozite de informații despre amenințări și pot produce un rezumat concis sau o acțiune recomandată, funcționând aproape ca un „asistent” de IA pentru echipele de securitate.

Implementările timpurii ale inteligenței artificiale generative pentru apărarea cibernetică s-au dovedit promițătoare. În 2023, Microsoft a introdus Security Copilot , un asistent bazat pe GPT-4 pentru analiștii de securitate, pentru a ajuta la identificarea breșelor de securitate și la filtrarea celor 65 de trilioane de semnale pe care Microsoft le procesează zilnic ( Microsoft Security Copilot este un nou asistent AI GPT-4 pentru securitate cibernetică | The Verge ). Analiștii pot solicita acest sistem în limbaj natural (de exemplu, „Rezumați toate incidentele de securitate din ultimele 24 de ore” ), iar copilotul va produce un rezumat narativ util. În mod similar, inteligența artificială pentru amenințări utilizează un model generativ numit Gemini pentru a permite căutarea conversațională prin vasta bază de date de informații despre amenințări a Google, analizând rapid codul suspect și rezumând constatările pentru a ajuta vânătorii de programe malware ( Cum poate fi utilizată inteligența artificială generativă în securitatea cibernetică? 10 exemple din lumea reală ). Aceste exemple ilustrează potențialul: inteligența artificială generativă poate digera date complexe, la scară largă, despre securitatea cibernetică și poate prezenta informații într-o formă accesibilă, accelerând procesul decizional.

În același timp, inteligența artificială generativă poate crea conținut fals extrem de realist, ceea ce reprezintă un avantaj pentru simulare și antrenament (și, din păcate, pentru atacatorii care creează inginerie socială). Pe măsură ce vom trece la cazuri de utilizare specifice, vom vedea că abilitatea inteligenței artificiale generative de a sintetiza și analiza informațiile stă la baza numeroaselor sale aplicații de securitate cibernetică. Mai jos, vom analiza cazuri de utilizare cheie, de la prevenirea phishing-ului până la dezvoltarea de software securizată, cu exemple despre modul în care fiecare este aplicat în diferite industrii.

Aplicații cheie ale inteligenței artificiale generative în cibersecuritate

Figura: Cazurile cheie de utilizare a IA generativă în securitatea cibernetică includ copiloți IA pentru echipele de securitate, analiza vulnerabilităților codului, detectarea adaptivă a amenințărilor, simularea atacurilor zero-day, securitatea biometrică îmbunătățită și detectarea phishing-ului ( 6 cazuri de utilizare pentru IA generativă în securitatea cibernetică [+ exemple] ).

Detectarea și prevenirea phishing-ului

Phishing-ul rămâne una dintre cele mai răspândite amenințări cibernetice, păcălind utilizatorii să dea clic pe linkuri rău intenționate sau să divulge acreditări. Inteligența artificială generativă este implementată atât pentru a detecta tentativele de phishing , cât și pentru a consolida instruirea utilizatorilor pentru a preveni atacurile reușite. În defensivă, modelele de inteligență artificială pot analiza conținutul e-mailurilor și comportamentele expeditorilor pentru a identifica semne subtile de phishing pe care filtrele bazate pe reguli le-ar putea rata. Învățând din seturi mari de date de e-mailuri legitime versus frauduloase, un model generativ poate semnala anomalii de ton, formulare sau context care indică o înșelătorie - chiar și atunci când gramatica și ortografia nu o mai dau de gol. De fapt, cercetătorii de la Palo Alto Networks notează că inteligența artificială generativă poate identifica „semne subtile ale e-mailurilor de phishing care altfel ar putea trece nedetectate”, ajutând organizațiile să fie cu un pas înaintea escrocilor ( Ce este inteligența artificială generativă în securitatea cibernetică? - Palo Alto Networks ).

Echipele de securitate utilizează, de asemenea, inteligența artificială generativă pentru a simula atacurile de phishing în scopuri de instruire și analiză. De exemplu, Ironscales a introdus un instrument de simulare a phishing bazat pe GPT, care generează automat e-mailuri de phishing false, adaptate angajaților unei organizații ( Cum se poate utiliza inteligența artificială generativă în securitatea cibernetică? 10 exemple din lumea reală ). Aceste e-mailuri create cu ajutorul inteligenței artificiale reflectă cele mai recente tactici ale atacatorilor, oferind personalului o practică realistă în detectarea conținutului phishing. O astfel de instruire personalizată este crucială, deoarece atacatorii înșiși adoptă inteligența artificială pentru a crea momeli mai convingătoare. În special, deși inteligența artificială generativă poate produce mesaje de phishing foarte rafinate (au apus vremurile englezei stricate ușor de detectat), apărătorii au descoperit că inteligența artificială nu este imbatabilă. În 2024, cercetătorii IBM Security au efectuat un experiment care a comparat e-mailurile de phishing scrise de oameni cu cele generate de inteligență artificială și „în mod surprinzător, e-mailurile generate de inteligență artificială erau încă ușor de detectat, în ciuda gramaticalei lor corecte” ( 6 cazuri de utilizare pentru inteligența artificială generativă în securitatea cibernetică [+ exemple] ). Acest lucru sugerează că intuiția umană combinată cu detectarea asistată de inteligență artificială poate totuși recunoaște inconsecvențe subtile sau semnale de metadate în escrocheriile scrise cu ajutorul inteligenței artificiale.

IA generativă ajută la apărarea împotriva phishing-ului și în alte moduri. Modelele pot fi utilizate pentru a genera răspunsuri automate sau filtre care testează e-mailurile suspecte. De exemplu, un sistem de IA ar putea răspunde la un e-mail cu anumite interogări pentru a verifica legitimitatea expeditorului sau ar putea utiliza un LLM pentru a analiza linkurile și atașamentele unui e-mail într-un sandbox, apoi ar putea rezuma orice intenție rău intenționată. Platforma de securitate Morpheus demonstrează puterea IA în acest domeniu - folosește modele NLP generative pentru a analiza și clasifica rapid e-mailurile și s-a constatat că îmbunătățește detectarea e-mailurilor de tip spear-phishing cu 21% în comparație cu instrumentele de securitate tradiționale ( 6 cazuri de utilizare pentru IA generativă în cibersecuritate [+ exemple] ). Morpheus chiar profilează modelele de comunicare ale utilizatorilor pentru a detecta comportamente neobișnuite (cum ar fi un utilizator care trimite brusc e-mailuri la multe adrese externe), ceea ce poate indica un cont compromis care trimite e-mailuri de phishing.

În practică, companiile din diverse industrii încep să aibă încredere în inteligența artificială pentru a filtra e-mailurile și traficul web în cazul atacurilor de inginerie socială. Firmele financiare, de exemplu, utilizează inteligența artificială generativă pentru a scana comunicațiile pentru tentative de uzurpare a identității care ar putea duce la fraudă electronică, în timp ce furnizorii de servicii medicale implementează inteligența artificială pentru a proteja datele pacienților de breșele de securitate legate de phishing. Prin generarea de scenarii realiste de phishing și identificarea semnelor distinctive ale mesajelor rău intenționate, inteligența artificială generativă adaugă un nivel puternic strategiilor de prevenire a phishing-ului. Concluzia: inteligența artificială poate ajuta la detectarea și dezarmarea atacurilor de phishing mai rapid și mai precis, chiar dacă atacatorii folosesc aceeași tehnologie pentru a-și îmbunătăți performanța.

Detectarea programelor malware și analiza amenințărilor

Malware-ul modern este în continuă evoluție – atacatorii generează variante noi sau obfuscă cod pentru a ocoli semnăturile antivirus. IA generativă oferă tehnici noi atât pentru detectarea malware-ului, cât și pentru înțelegerea comportamentului acestuia. O abordare este utilizarea IA pentru a genera „gemeni malefici” de malware : cercetătorii în domeniul securității pot introduce un eșantion de malware cunoscut într-un model generativ pentru a crea mai multe variante mutate ale acelui malware. Procedând astfel, ei anticipează eficient modificările pe care le-ar putea face un atacator. Aceste variante generate de IA pot fi apoi utilizate pentru a antrena sisteme antivirus și de detectare a intruziunilor, astfel încât chiar și versiunile modificate ale malware-ului să fie recunoscute în mediul virtual ( 6 cazuri de utilizare pentru IA generativă în cibersecuritate [+ exemple] ). Această strategie proactivă ajută la ruperea ciclului în care hackerii își modifică ușor malware-ul pentru a evita detectarea, iar apărătorii trebuie să se grăbească să scrie semnături noi de fiecare dată. După cum se menționează într-un podcast din industrie, experții în securitate folosesc acum IA generativă pentru a „simula traficul de rețea și a genera sarcini utile rău intenționate care imită atacuri sofisticate”, testându-și apărarea împotriva unei întregi familii de amenințări, mai degrabă decât împotriva unei singure instanțe. Această detectare adaptivă a amenințărilor înseamnă că instrumentele de securitate devin mai rezistente la malware-ul polimorfic care altfel ar trece neobservat.

Dincolo de detectare, inteligența artificială generativă ajută la analiza programelor malware și la ingineria inversă , care în mod tradițional sunt sarcini care necesită multă muncă pentru analiștii de amenințări. Modelele de limbaj mari pot fi însărcinate cu examinarea codului sau a scripturilor suspecte și explicarea în limbaj simplu a scopului codului. Un exemplu concret este VirusTotal Code Insight , o funcție a VirusTotal de la Google care utilizează un model de inteligență artificială generativă (Sec-PaLM de la Google) pentru a produce rezumate în limbaj natural ale codului potențial malițios ( Cum poate fi utilizată inteligența artificială generativă în securitatea cibernetică? 10 exemple concrete ). Este, în esență, „un tip de ChatGPT dedicat codării de securitate”, acționând ca un analist de programe malware bazat pe inteligență artificială care lucrează 24/7 pentru a ajuta analiștii umani să înțeleagă amenințările ( 6 cazuri de utilizare pentru inteligența artificială generativă în securitatea cibernetică [+ exemple] ). În loc să analizeze cu atenție scripturi sau coduri binar nefamiliare, un membru al echipei de securitate poate obține o explicație imediată de la inteligența artificială - de exemplu, „Acest script încearcă să descarce un fișier de pe serverul XYZ și apoi să modifice setările sistemului, ceea ce indică un comportament al programelor malware”. Acest lucru accelerează dramatic răspunsul la incidente, deoarece analiștii pot evalua și înțelege noile programe malware mai rapid ca niciodată.

IA generativă este utilizată și pentru a identifica programe malware în seturi de date masive . Motoarele antivirus tradiționale scanează fișierele pentru semnături cunoscute, dar un model generativ poate evalua caracteristicile unui fișier și chiar poate prezice dacă este malițios pe baza tiparelor învățate. Prin analizarea atributelor a miliarde de fișiere (malițioase și benigne), o IA ar putea detecta intențiile malițioase acolo unde nu există o semnătură explicită. De exemplu, un model generativ ar putea marca un executabil ca suspect, deoarece profilul său de comportament „arată” ca o ușoară variație a ransomware-ului pe care l-a văzut în timpul antrenamentului, chiar dacă binarul este nou. Această detectare bazată pe comportament ajută la contracararea programelor malware noi sau zero-day. Se pare că IA Threat Intelligence de la Google (parte a Chronicle/Mandiant) își folosește modelul generativ pentru a analiza codul potențial malițios și „a ajuta mai eficient și mai efectiv profesioniștii în domeniul securității în combaterea programelor malware și a altor tipuri de amenințări”. ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ).

Pe de altă parte, trebuie să recunoaștem că atacatorii pot folosi și aici inteligența artificială generativă – pentru a crea automat programe malware care se adaptează. De fapt, experții în securitate avertizează că inteligența artificială generativă poate ajuta infractorii cibernetici să dezvolte programe malware mai greu de detectat ( Ce este inteligența artificială generativă în securitatea cibernetică? - Palo Alto Networks ). Un model de inteligență artificială poate fi instruit să transforme în mod repetat un program malware (modificându-i structura fișierelor, metodele de criptare etc.) până când acesta eludează toate verificările antivirus cunoscute. Această utilizare adversă este o preocupare tot mai mare (uneori denumită „malware bazat pe inteligență artificială” sau malware polimorfic ca serviciu). Vom discuta despre astfel de riscuri mai târziu, dar acest lucru subliniază faptul că inteligența artificială generativă este un instrument în acest joc de-a șoarecele și pisica, folosit atât de apărători, cât și de atacatori.

Per total, inteligența artificială generativă îmbunătățește apărarea împotriva programelor malware, permițând echipelor de securitate să gândească ca un atacator - generând noi amenințări și soluții intern. Fie că este vorba de producerea de programe malware sintetice pentru a îmbunătăți ratele de detectare, fie de utilizarea inteligenței artificiale pentru a explica și a izola programele malware reale găsite în rețele, aceste tehnici se aplică în toate industriile. O bancă ar putea utiliza analiza programelor malware bazată pe inteligență artificială pentru a analiza rapid o macrocomandă suspectă dintr-o foaie de calcul, în timp ce o firmă producătoare s-ar putea baza pe inteligență artificială pentru a detecta programe malware care vizează sistemele de control industrial. Prin completarea analizei tradiționale a programelor malware cu inteligența artificială generativă, organizațiile pot răspunde la campaniile malware mai rapid și mai proactiv decât înainte.

Informații despre amenințări și automatizarea analizei

În fiecare zi, organizațiile sunt bombardate cu date de informații despre amenințări – de la fluxuri de indicatori de compromitere (IOC) nou descoperiți, până la rapoarte ale analiștilor despre tacticile emergente ale hackerilor. Provocarea pentru echipele de securitate este de a cerne acest avalanș de informații și de a extrage informații utile. IA generativă se dovedește a fi neprețuită în automatizarea analizei și consumului de informații despre amenințări . În loc să citească manual zeci de rapoarte sau intrări în baza de date, analiștii pot utiliza IA pentru a rezuma și contextualiza informațiile despre amenințări la viteza mașinii.

Un exemplu concret este Threat Intelligence , care integrează inteligența artificială generativă (modelul Gemini) cu bazele de date despre amenințări de la Mandiant și VirusTotal. Această inteligență artificială oferă „căutare conversațională în vastul depozit de informații despre amenințări al Google” , permițând utilizatorilor să pună întrebări naturale despre amenințări și să obțină răspunsuri distilate ( Cum poate fi utilizată inteligența artificială generativă în securitatea cibernetică? 10 exemple din lumea reală ). De exemplu, un analist ar putea întreba: „Am văzut vreun malware legat de Grupul de amenințări X care vizează industria noastră?”, iar inteligența artificială va extrage informații relevante, poate menționând „Da, Grupul de amenințări X a fost legat de o campanie de phishing luna trecută folosind malware-ul Y” , împreună cu un rezumat al comportamentului acelui malware. Acest lucru reduce dramatic timpul necesar pentru colectarea de informații care altfel ar necesita interogarea mai multor instrumente sau citirea unor rapoarte lungi.

IA generativă poate, de asemenea, corela și rezuma tendințele în domeniul amenințărilor . Ar putea analiza cu atenție mii de postări pe bloguri despre securitate, știri despre breșe de securitate și discuții despre dark web, iar apoi să genereze un rezumat executiv al „principalelor amenințări cibernetice din această săptămână” pentru o ședință de informare a CISO-ului. În mod tradițional, acest nivel de analiză și raportare necesita un efort uman semnificativ; acum, un model bine reglat îl poate redacta în câteva secunde, oamenii doar rafinând rezultatul. Companii precum ZeroFox au dezvoltat FoxGPT , un instrument de IA generativă special conceput pentru a „accelera analiza și sumarizarea informațiilor din seturi mari de date”, inclusiv conținut rău intenționat și date de phishing ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). Prin automatizarea muncii grele de citire și referințe încrucișate a datelor, IA permite echipelor de informații despre amenințări să se concentreze pe luarea deciziilor și pe răspuns.

Un alt caz de utilizare este vânarea amenințărilor conversaționale . Imaginați-vă că un analist de securitate interacționează cu un asistent IA: „Arată-mi orice semne de exfiltrare de date în ultimele 48 de ore” sau „Care sunt principalele vulnerabilități noi pe care atacatorii le exploatează săptămâna aceasta?”. IA poate interpreta interogarea, poate căuta în jurnale interne sau surse externe de informații și poate răspunde cu un răspuns clar sau chiar cu o listă de incidente relevante. Acest lucru nu este exagerat - sistemele moderne de gestionare a informațiilor și evenimentelor de securitate (SIEM) încep să încorporeze interogarea în limbaj natural. Suita de securitate QRadar de la IBM, de exemplu, adaugă funcții de IA generativă în 2024 pentru a permite analiștilor să „pună [...] întrebări specifice despre calea de atac rezumată” a unui incident și să obțină răspunsuri detaliate. De asemenea, poate „interpreta și rezuma automat informații despre amenințări extrem de relevante” ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). În esență, IA generativă transformă munți de date tehnice în informații de dimensiunea unui chat, la cerere.

În toate industriile, acest lucru are implicații majore. Un furnizor de servicii medicale poate utiliza inteligența artificială pentru a fi la curent cu cele mai recente grupuri de ransomware care vizează spitalele, fără a dedica un analist cercetării cu normă întreagă. SOC-ul unei companii de retail poate rezuma rapid noile tactici malware POS atunci când informează personalul IT al magazinului. Iar în administrația publică, unde trebuie sintetizate datele privind amenințările de la diverse agenții, inteligența artificială poate produce rapoarte unificate care evidențiază avertismentele cheie. Prin automatizarea colectării și interpretării informațiilor despre amenințări , inteligența artificială generativă ajută organizațiile să reacționeze mai rapid la amenințările emergente și reduce riscul de a rata avertismentele critice ascunse în zgomot.

Optimizarea Centrului de Operațiuni de Securitate (SOC)

Centrele de Operațiuni de Securitate sunt cunoscute pentru oboseala cauzată de alerte și volumul copleșitor de date. Un analist SOC tipic ar putea parcurge mii de alerte și evenimente în fiecare zi, investigând potențiale incidente. IA generativă acționează ca un multiplicator de forță în SOC-uri prin automatizarea activității de rutină, furnizarea de rezumate inteligente și chiar orchestrarea unor răspunsuri. Scopul este de a optimiza fluxurile de lucru SOC, astfel încât analiștii umani să se poată concentra asupra celor mai critice probleme, în timp ce copilotul IA se ocupă de restul.

O aplicație majoră este utilizarea inteligenței artificiale generative ca „copilot al analiștilor” . Copilot-ul de securitate de la Microsoft, menționat anterior, exemplifică acest lucru: „este conceput pentru a asista munca unui analist de securitate, mai degrabă decât pentru a o înlocui”, ajutând la investigarea și raportarea incidentelor ( Microsoft Security Copilot este un nou asistent AI GPT-4 pentru securitate cibernetică | The Verge ). În practică, aceasta înseamnă că un analist poate introduce date brute – jurnale de firewall, o cronologie a evenimentelor sau o descriere a incidentului – și poate solicita inteligenței artificiale să le analizeze sau să le rezume. Copilot-ul ar putea genera o narațiune de genul: „Se pare că la 2:35 AM, o conectare suspectă de la IP-ul X a reușit pe serverul Y, urmată de transferuri neobișnuite de date, indicând o potențială încălcare a serverului respectiv”. Acest tip de contextualizare imediată este neprețuit atunci când timpul este esențial.

Copiloții IA ajută, de asemenea, la reducerea sarcinii de triaj de nivel 1. Conform datelor din industrie, o echipă de securitate poate petrece 15 ore pe săptămână sortând doar aproximativ 22.000 de alerte și fals pozitive ( 6 cazuri de utilizare pentru IA generativă în cibersecuritate [+ exemple] ). Cu IA generativă, multe dintre aceste alerte pot fi triate automat - IA le poate ignora pe cele care sunt în mod clar benigne (cu argumente justificate) și le poate evidenția pe cele care necesită cu adevărat atenție, uneori chiar sugerând prioritatea. De fapt, puterea IA generativă în înțelegerea contextului înseamnă că poate corela încrucișat alerte care ar putea părea inofensive izolat, dar împreună indică un atac în mai multe etape. Acest lucru reduce șansa de a rata un atac din cauza „oboselii de alertă”.

Analiștii SOC folosesc, de asemenea, limbajul natural împreună cu inteligența artificială pentru a accelera procesul de căutare și investigațiile. Platforma Purple AI „pună întrebări complexe despre căutarea amenințărilor în limbaj simplu și să obțină răspunsuri rapide și precise” ( Cum poate fi utilizată inteligența artificială generativă în securitatea cibernetică? 10 exemple din lumea reală ). Un analist ar putea tasta „Au comunicat vreun endpoint cu domeniul badguy123[.]com în ultima lună?” , iar Purple AI va căuta în jurnale pentru a răspunde. Acest lucru îl scutește pe analist de a scrie interogări sau scripturi în baza de date - inteligența artificială face acest lucru în ascuns. De asemenea, înseamnă că analiștii juniori pot gestiona sarcini care anterior necesitau un inginer experimentat, specializat în limbaje de interogare, îmbunătățind efectiv competențele echipei prin asistență din partea inteligenței artificiale . Într-adevăr, analiștii raportează că îndrumarea prin IA generativă „le sporește abilitățile și competența” , deoarece personalul junior poate primi acum asistență la cerere pentru codare sau sfaturi de analiză de la IA, reducând dependența de a cere întotdeauna ajutor membrilor seniori ai echipei ( 6 cazuri de utilizare pentru IA generativă în cibersecuritate [+ exemple] ).

O altă optimizare SOC este sumarizarea și documentarea automată a incidentelor . După ce un incident este gestionat, cineva trebuie să scrie raportul - o sarcină pe care mulți o consideră plictisitoare. IA generativă poate prelua datele criminalistice (jurnale de sistem, analiza programelor malware, cronologia acțiunilor) și poate genera o primă schiță a raportului de incident. IBM încorporează această capacitate în QRadar, astfel încât, cu „un singur clic”, să poată fi produs un rezumat al incidentului pentru diferite părți interesate (directori, echipe IT etc.) ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). Acest lucru nu numai că economisește timp, dar asigură și că nimic nu este omis în raport, deoarece IA poate include toate detaliile relevante în mod constant. De asemenea, pentru conformitate și audit, IA poate completa formulare sau tabele de dovezi pe baza datelor incidentelor.

Rezultatele din lumea reală sunt convingătoare. Cei care au adoptat de la bun început soluția SOAR (orchestrarea, automatizarea și răspunsul securității) bazată pe inteligență artificială de la Swimlane raportează câștiguri uriașe de productivitate - Global Data Systems, de exemplu, și-a văzut echipa SecOps gestionând un volum de muncă mult mai mare; un director a spus: „ceea ce fac astăzi cu 7 analiști ar necesita probabil 20 de membri ai personalului fără” automatizarea bazată pe inteligență artificială ( Cum poate fi utilizată inteligența artificială generativă în cibersecuritatea ). Cu alte cuvinte, inteligența artificială din SOC poate multiplica capacitatea . În toate industriile, fie că este vorba de o companie de tehnologie care se ocupă de alerte de securitate în cloud sau de o fabrică care monitorizează sisteme OT, echipele SOC pot obține o detectare și un răspuns mai rapid, mai puține incidente ratate și operațiuni mai eficiente prin adoptarea asistenților inteligenței artificiale generative. Este vorba despre a lucra mai inteligent - permițând mașinilor să gestioneze sarcinile repetitive și grele de date, astfel încât oamenii să își poată aplica intuiția și expertiza acolo unde contează cel mai mult.

Managementul vulnerabilităților și simularea amenințărilor

Identificarea și gestionarea vulnerabilităților – puncte slabe ale software-ului sau sistemelor pe care atacatorii le-ar putea exploata – reprezintă o funcție esențială a securității cibernetice. IA generativă îmbunătățește gestionarea vulnerabilităților prin accelerarea descoperirii, prin sprijinirea prioritizării patch-urilor și chiar prin simularea atacurilor asupra acestor vulnerabilități pentru a îmbunătăți pregătirea. În esență, IA ajută organizațiile să găsească și să remedieze mai rapid lacunele din armura lor și proactiv apărarea înainte ca atacatorii reali să o facă.

O aplicație semnificativă este utilizarea inteligenței artificiale generative pentru revizuirea automată a codului și descoperirea vulnerabilităților . Bazele de cod mari (în special sistemele vechi) adăpostesc adesea defecte de securitate care trec neobservate. Modelele de inteligență artificială generativă pot fi antrenate pe baza practicilor de codare sigure și a tiparelor comune de erori, apoi declanșate pe codul sursă sau pe fișierele binare compilate pentru a găsi potențiale vulnerabilități. De exemplu, cercetătorii NVIDIA au dezvoltat o conductă de inteligență artificială generativă care ar putea analiza containerele de software vechi și identifica vulnerabilitățile „cu o precizie ridicată - de până la 4 ori mai rapid decât experții umani” ( 6 cazuri de utilizare pentru inteligența artificială generativă în cibersecuritate [+ exemple] ). Inteligența artificială a învățat, în esență, cum arată codul nesigur și a fost capabilă să scaneze software vechi de zeci de ani pentru a semnala funcții și biblioteci riscante, accelerând considerabil procesul în mod normal lent de auditare manuală a codului. Acest tip de instrument poate schimba regulile jocului pentru industrii precum finanțele sau guvernul, care se bazează pe baze de cod mari și mai vechi - inteligența artificială ajută la modernizarea securității prin identificarea problemelor pe care personalul ar putea avea nevoie de luni sau ani pentru a le găsi (dacă le găsește vreodată).

IA generativă ajută, de asemenea, la fluxurile de lucru pentru gestionarea vulnerabilităților prin procesarea rezultatelor scanării vulnerabilităților și prioritizarea acestora. Instrumente precum ExposureAI utilizează IA generativă pentru a permite analiștilor să interogheze datele privind vulnerabilitățile într-un limbaj simplu și să obțină răspunsuri instantanee ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). ExposureAI poate „rezuma calea completă de atac într-o narațiune” pentru o anumită vulnerabilitate critică, explicând cum un atacator ar putea să o înlănțuie cu alte slăbiciuni pentru a compromite un sistem. Recomandă chiar acțiuni de remediere și răspunde la întrebări ulterioare despre risc. Aceasta înseamnă că, atunci când este anunțată o nouă vulnerabilitate critică (CVE - Common Vulnerabilities and Exposures), un analist ar putea întreba IA: „Este vreunul dintre serverele noastre afectat de această vulnerabilitate și care este cel mai rău scenariu dacă nu aplicăm corecturi?” și ar putea primi o evaluare clară extrasă din propriile date de scanare ale organizației. Prin contextualizarea vulnerabilităților (de exemplu, aceasta este expusă la internet și pe un server de mare valoare, deci este prioritară), IA generativă ajută echipele să aplice corecturi inteligente cu resurse limitate.

Pe lângă găsirea și gestionarea vulnerabilităților cunoscute, IA generativă contribuie la testarea penetrării și la simularea atacurilor – practic, descoperind necunoscute sau testând controalele de securitate. Rețelele adversariale generative (GAN), un tip de IA generativă, au fost utilizate pentru a crea date sintetice care imită traficul real de rețea sau comportamentul utilizatorilor, putând include modele de atac ascunse. Un studiu din 2023 a sugerat utilizarea GAN-urilor pentru a genera trafic de atac zero-day realist pentru a antrena sistemele de detectare a intruziunilor ( 6 cazuri de utilizare pentru IA generativă în cibersecuritate [+ exemple] ). Prin alimentarea IDS-ului cu scenarii de atac create de IA (care nu riscă să utilizeze programe malware reale în rețelele de producție), organizațiile își pot antrena apărarea pentru a recunoaște amenințările noi fără a aștepta să fie lovite de acestea în realitate. În mod similar, IA poate simula un atacator care sondează un sistem – de exemplu, încercând automat diverse tehnici de exploatare într-un mediu sigur pentru a vedea dacă vreuna reușește. Agenția pentru Proiecte de Cercetare Avansată în Apărare din SUA (DARPA) vede aici un potențial: ediția sa a AI Cyber ​​Challenge din 2023 folosește în mod explicit IA generativă (cum ar fi modelele lingvistice mari) pentru a „găsi și remedia automat vulnerabilitățile din software-ul open-source”, ca parte a unei competiții ( DARPA își propune să dezvolte IA și aplicații autonome în care luptătorii pot avea încredere > Departamentul Apărării din SUA > Știri din Departamentul Apărării ). Această inițiativă subliniază faptul că IA nu doar ajută la remedierea lacunelor cunoscute; ci descoperă în mod activ altele noi și propune remedieri, o sarcină limitată în mod tradițional la cercetătorii în domeniul securității calificați (și costisitori).

IA generativă poate chiar crea honeypot-uri inteligente și gemeni digitali pentru apărare. Startup-urile dezvoltă sisteme capcană bazate pe IA care imită în mod convingător servere sau dispozitive reale. După cum a explicat un CEO, IA generativă poate „clona sisteme digitale pentru a le imita pe cele reale și a atrage hackerii” ( 6 cazuri de utilizare pentru IA generativă în cibersecuritate [+ exemple] ). Aceste honeypot-uri generate de IA se comportă ca mediul real (de exemplu, un dispozitiv IoT fals care trimite telemetrie normală), dar există exclusiv pentru a atrage atacatorii. Atunci când un atacator vizează momeala, IA l-a păcălit, practic, să-și dezvăluie metodele, pe care apărătorii le pot studia și utiliza apoi pentru a consolida sistemele reale. Acest concept, bazat pe modelare generativă, oferă o modalitate prospectivă de a întoarce rolurile împotriva atacatorilor , folosind înșelăciunea îmbunătățită de IA.

În toate industriile, o gestionare mai rapidă și mai inteligentă a vulnerabilităților înseamnă mai puține breșe de securitate. În IT-ul medical, de exemplu, inteligența artificială ar putea identifica rapid o bibliotecă vulnerabilă învechită într-un dispozitiv medical și ar putea solicita o remediere a firmware-ului înainte ca vreun atacator să o exploateze. În domeniul bancar, inteligența artificială ar putea simula un atac intern asupra unei aplicații noi pentru a se asigura că datele clienților rămân în siguranță în toate scenariile. Prin urmare, inteligența artificială generativă acționează atât ca un microscop, cât și ca un tester de stres pentru postura de securitate a organizațiilor: evidențiază defectele ascunse și pune presiune pe sisteme în moduri imaginative pentru a asigura reziliența.

Generare securizată de cod și dezvoltare software

Talentele inteligenței artificiale generative nu se limitează la detectarea atacurilor - ele se extind și la crearea de sisteme mai sigure de la început . În dezvoltarea de software, generatoarele de cod bazate pe inteligență artificială (cum ar fi GitHub Copilot, OpenAI Codex etc.) pot ajuta dezvoltatorii să scrie cod mai rapid, sugerând fragmente de cod sau chiar funcții întregi. Aspectul securității cibernetice constă în asigurarea securității acestor fragmente de cod sugerate de inteligența artificială și utilizarea inteligenței artificiale pentru îmbunătățirea practicilor de codare.

Pe de o parte, inteligența artificială generativă poate acționa ca un asistent de codare care integrează cele mai bune practici de securitate . Dezvoltatorii pot solicita unui instrument de inteligență artificială să „Genereze o funcție de resetare a parolei în Python” și, în mod ideal, să primească cod care nu este doar funcțional, ci respectă și instrucțiuni securizate (de exemplu, validarea corectă a datelor de intrare, înregistrarea în jurnal, gestionarea erorilor fără scurgerea de informații etc.). Un astfel de asistent, instruit pe exemple extinse de cod securizat, poate ajuta la reducerea erorilor umane care duc la vulnerabilități. De exemplu, dacă un dezvoltator uită să igienizeze datele de intrare ale utilizatorului (deschizând ușa către injecții SQL sau probleme similare), o inteligență artificială ar putea fie să includă acest lucru în mod implicit, fie să îl avertizeze. Unele instrumente de codare bazate pe inteligență artificială sunt acum ajustate cu date axate pe securitate pentru a servi exact acestui scop - în esență, inteligența artificială combină programarea cu o conștiință de securitate .

Există însă și o altă medalie: IA generativă poate introduce la fel de ușor vulnerabilități dacă nu este guvernată corespunzător. După cum a remarcat expertul în securitate Sophos, Ben Verschaeren, utilizarea IA generativă pentru codare este „acceptabilă pentru cod scurt și verificabil, dar riscantă atunci când codul neverificat este integrat” în sistemele de producție. Riscul este ca o IA să producă cod logic corect, care este nesigur în moduri pe care un non-expert nu le-ar putea observa. Mai mult, actorii rău intenționați ar putea influența intenționat modelele publice de IA prin însămânțarea lor cu modele de cod vulnerabile (o formă de otrăvire a datelor), astfel încât IA să sugereze cod nesigur. Majoritatea dezvoltatorilor nu sunt experți în securitate , așa că, dacă o IA sugerează o soluție convenabilă, ar putea să o folosească orbește, fără să-și dea seama că are o problemă ( 6 cazuri de utilizare pentru IA generativă în cibersecuritate [+ exemple] ). Această preocupare este reală - de fapt, există acum o listă OWASP Top 10 pentru LLM (modele lingvistice mari) care prezintă riscuri comune, cum ar fi acesta, în utilizarea IA pentru codare.

Pentru a contracara aceste probleme, experții sugerează „combaterea IA generativă cu IA generativă” în domeniul codării. În practică, aceasta înseamnă utilizarea IA pentru a revizui și testa codul scris de alte IA (sau oameni). O IA poate scana noile commit-uri de cod mult mai rapid decât un recenzent de cod uman și poate semnala potențialele vulnerabilități sau probleme logice. Vedem deja instrumente emergente care se integrează în ciclul de viață al dezvoltării de software: codul este scris (poate cu ajutorul IA), apoi un model generativ antrenat pe principii de cod securizat îl revizuiește și generează un raport cu orice probleme (de exemplu, utilizarea funcțiilor depreciate, lipsă a verificărilor de autentificare etc.). Cercetările NVIDIA, menționate anterior, care au realizat o detectare a vulnerabilităților în cod de 4 ori mai rapidă, sunt un exemplu de valorificare a IA pentru analiza securizată a codului ( 6 cazuri de utilizare pentru IA generativă în cibersecuritate [+ exemple] ).

În plus, inteligența artificială generativă poate ajuta la crearea de configurații și scripturi sigure . De exemplu, dacă o companie trebuie să implementeze o infrastructură cloud securizată, un inginer ar putea solicita unei inteligențe artificiale să genereze scripturile de configurare (Infrastructură ca și cod) cu controale de securitate (cum ar fi segmentarea corectă a rețelei, roluri IAM cu cele mai puține privilegii) integrate. Inteligența artificială, fiind antrenată pe mii de astfel de configurații, poate produce o bază pe care inginerul o ajustează apoi. Acest lucru accelerează configurarea securizată a sistemelor și reduce erorile de configurare greșită - o sursă comună de incidente de securitate în cloud.

Unele organizații utilizează, de asemenea, inteligența artificială generativă pentru a menține o bază de cunoștințe cu modele de codare securizate. Dacă un dezvoltator nu este sigur cum să implementeze o anumită funcționalitate în siguranță, poate interoga o inteligență artificială internă care a învățat din proiectele anterioare și din ghidurile de securitate ale companiei. Inteligența artificială ar putea returna o abordare recomandată sau chiar un fragment de cod care se aliniază atât cu cerințele funcționale, cât și cu standardele de securitate ale companiei. Această abordare a fost utilizată de instrumente precum Automatizarea Chestionarelor de la Secureframe , care extrage răspunsuri din politicile și soluțiile anterioare ale unei companii pentru a asigura răspunsuri consecvente și precise (în esență, generând documentație securizată) ( Cum poate fi utilizată inteligența artificială generativă în securitatea cibernetică? 10 exemple din lumea reală ). Conceptul se traduce în codare: o inteligență artificială care „își amintește” cum ați implementat ceva în siguranță înainte și vă ghidează să o faceți din nou în același mod.

În concluzie, inteligența artificială generativă influențează dezvoltarea de software prin faptul că face asistența securizată pentru codare mai accesibilă . Industriile care dezvoltă mult software personalizat – tehnologie, finanțe, apărare etc. – pot beneficia de pe urma unor copiloți de inteligență artificială care nu numai că accelerează codarea, dar și acționează ca un evaluator de securitate mereu vigilent. Atunci când sunt guvernate corespunzător, aceste instrumente de inteligență artificială pot reduce introducerea de noi vulnerabilități și pot ajuta echipele de dezvoltare să respecte cele mai bune practici, chiar dacă echipa nu are un expert în securitate implicat la fiecare pas. Rezultatul este un software mai robust împotriva atacurilor încă din prima zi.

Suport pentru răspuns la incidente

Când apare un incident de securitate cibernetică – fie că este vorba de o epidemie de malware, o încălcare a datelor sau o întrerupere a sistemului în urma unui atac – timpul este esențial. IA generativă este utilizată din ce în ce mai mult pentru a sprijini echipele de răspuns la incidente (IR) în limitarea și remedierea incidentelor mai rapid și cu mai multe informații la îndemână. Ideea este că IA poate prelua o parte din povara investigației și a documentării în timpul unui incident și chiar poate sugera sau automatiza anumite acțiuni de răspuns.

Un rol cheie al inteligenței artificiale în relațiile cu clienții (IR) este analiza și sumarizarea incidentelor în timp real . În mijlocul unui incident, echipa de intervenție ar putea avea nevoie de răspunsuri la întrebări precum „Cum a intrat atacatorul?” , „Ce sisteme sunt afectate?” și „Ce date ar putea fi compromise?” . IA generativă poate analiza jurnalele, alertele și datele criminalistice de la sistemele afectate și poate oferi rapid informații. De exemplu, Microsoft Security Copilot permite unui respondent la incidente să introducă diverse dovezi (fișiere, adrese URL, jurnale de evenimente) și să solicite o cronologie sau un rezumat ( Microsoft Security Copilot este un nou asistent IA GPT-4 pentru securitate cibernetică | The Verge ). IA ar putea răspunde cu: „Încălcarea a început probabil cu un e-mail de phishing către utilizatorul JohnDoe la 10:53 GMT care conținea malware-ul X. Odată executat, malware-ul a creat un backdoor care a fost utilizat două zile mai târziu pentru a se deplasa lateral către serverul financiar, unde a colectat date.” Obținerea acestei imagini coerente în câteva minute, mai degrabă decât în ​​ore, permite echipei să ia decizii informate (cum ar fi ce sisteme să izoleze) mult mai rapid.

IA generativă poate sugera, de asemenea, acțiuni de izolare și remediere . De exemplu, dacă un endpoint este infectat de ransomware, un instrument de IA ar putea genera un script sau un set de instrucțiuni pentru a izola acea mașină, a dezactiva anumite conturi și a bloca adresele IP rău intenționate cunoscute de pe firewall - practic, o execuție de tip playbook. Palo Alto Networks notează că IA generativă este capabilă să „genereze acțiuni sau scripturi adecvate pe baza naturii incidentului” , automatizând pașii inițiali de răspuns ( Ce este IA generativă în cibersecuritatea? - Palo Alto Networks ). Într-un scenariu în care echipa de securitate este copleșită (să zicem, un atac pe scară largă pe sute de dispozitive), IA ar putea chiar executa direct unele dintre aceste acțiuni în condiții pre-aprobate, acționând ca un respondent junior care lucrează neobosit. De exemplu, un agent de IA ar putea reseta automat acreditările pe care le consideră compromise sau ar putea pune în carantină gazdele care prezintă activități rău intenționate care corespund profilului incidentului.

În timpul răspunsului la incidente, comunicarea este vitală – atât în ​​cadrul echipei, cât și cu părțile interesate. IA generativă poate ajuta prin redactarea rapidă a rapoartelor de actualizare a incidentelor sau a brief-urilor . În loc ca un inginer să oprească depanarea pentru a scrie o actualizare prin e-mail, acesta ar putea cere IA: „Rezumați ce s-a întâmplat până acum în acest incident pentru a informa directorii”. IA, după ce a ingerat datele incidentului, poate produce un rezumat concis: „Începând cu ora 15:00, atacatorii au accesat 2 conturi de utilizator și 5 servere. Datele afectate includ înregistrări ale clienților din baza de date X. Măsuri de izolare: Accesul VPN pentru conturile compromise a fost revocat, iar serverele izolate. Pașii următori: scanarea pentru orice mecanisme de persistență.” Persoana care răspunde poate apoi verifica sau modifica rapid acest lucru și îl poate trimite, asigurându-se că părțile interesate sunt ținute la curent cu informații precise și actualizate.

După ce se liniștește praful, există de obicei un raport detaliat al incidentului de pregătit și lecțiile învățate de compilat. Acesta este un alt domeniu în care suportul IA strălucește. Acesta poate revizui toate datele incidentului și poate genera un raport post-incident care acoperă cauza principală, cronologia, impactul și recomandările. IBM, de exemplu, integrează IA generativă pentru a crea „rezumate simple ale cazurilor de securitate și incidentelor care pot fi partajate cu părțile interesate” prin apăsarea unui buton ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). Prin eficientizarea raportării post-acțiune, organizațiile pot implementa mai rapid îmbunătățiri și pot avea, de asemenea, o documentație mai bună în scopuri de conformitate.

O utilizare inovatoare și orientată spre viitor o reprezintă simulările de incidente bazate pe inteligență artificială . Similar modului în care s-ar putea derula un exercițiu de incendiu, unele companii utilizează inteligența artificială generativă pentru a parcurge scenarii de incidente de tip „ce-ar fi dacă”. Inteligența artificială ar putea simula modul în care s-ar putea răspândi un ransomware, având în vedere configurația rețelei, sau modul în care o persoană din interior ar putea exfiltra date, apoi ar putea evalua eficacitatea planurilor de răspuns actuale. Acest lucru ajută echipele să pregătească și să rafineze strategiile înainte de producerea unui incident real. Este ca și cum ai avea un consultant în răspuns la incidente în continuă îmbunătățire, care îți testează constant gradul de pregătire.

În industrii cu miză mare, precum finanțele sau asistența medicală, unde timpii de nefuncționare sau pierderea de date în urma incidentelor sunt deosebit de costisitoare, aceste capabilități de răspuns la incidente bazate pe inteligență artificială sunt foarte atractive. Un spital care se confruntă cu un incident cibernetic nu își poate permite întreruperi prelungite ale sistemului - o inteligență artificială care ajută rapid la izolare ar putea salva vieți. În mod similar, o instituție financiară poate utiliza inteligența artificială pentru a gestiona triajul inițial al unei intruziuni suspectate de fraudă la ora 3 dimineața, astfel încât, până când oamenii de gardă sunt online, o mare parte din munca de pregătire (deconectarea conturilor afectate, blocarea tranzacțiilor etc.) să fie deja efectuată. Prin completarea echipelor de răspuns la incidente cu inteligență artificială generativă , organizațiile pot reduce semnificativ timpii de răspuns și pot îmbunătăți temeinicia gestionării acestora, atenuând în cele din urmă daunele cauzate de incidentele cibernetice.

Analiză comportamentală și detectarea anomaliilor

Multe atacuri cibernetice pot fi detectate prin observarea momentelor în care ceva deviază de la comportamentul „normal” – fie că este vorba de un cont de utilizator care descarcă o cantitate neobișnuită de date sau de un dispozitiv de rețea care comunică brusc cu o gazdă necunoscută. IA generativă oferă tehnici avansate pentru analiza comportamentală și detectarea anomaliilor , învățând tiparele normale ale utilizatorilor și sistemelor și apoi semnalând atunci când ceva pare a fi în neregulă.

Detectarea tradițională a anomaliilor utilizează adesea praguri statistice sau învățare automată simplă pe anumite valori (vârfuri de utilizare a procesorului, conectări la ore neobișnuite etc.). IA generativă poate duce acest lucru mai departe prin crearea de profiluri de comportament mai nuanțate. De exemplu, un model de IA poate asimila datele de conectare, modelele de acces la fișiere și obiceiurile de e-mail ale unui angajat în timp și poate forma o înțelegere multidimensională a „normalității” utilizatorului respectiv. Dacă acel cont face ulterior ceva drastic în afara normei sale (cum ar fi conectarea dintr-o țară nouă și accesarea unei terase de fișiere HR la miezul nopții), IA ar detecta o abatere nu doar la o singură valoare, ci ca un întreg model de comportament care nu se potrivește profilului utilizatorului. În termeni tehnici, modelele generative (cum ar fi autoencoderele sau modelele de secvență) pot modela cum arată „normalitatea” și apoi pot genera o gamă așteptată de comportament. Când realitatea se află în afara acestui interval, este semnalată ca o anomalie ( Ce este IA generativă în cibersecuritatea? - Palo Alto Networks ).

O implementare practică este monitorizarea traficului de rețea . Conform unui sondaj din 2024, 54% dintre organizațiile din SUA au menționat monitorizarea traficului de rețea ca fiind un caz de utilizare principal pentru IA în securitatea cibernetică ( America de Nord: principalele cazuri de utilizare a IA în securitatea cibernetică la nivel mondial 2024 ). IA generativă poate învăța modelele normale de comunicare ale rețelei unei întreprinderi - ce servere comunică de obicei între ele, ce volume de date se mișcă în timpul orelor de program față de noapte etc. Dacă un atacator începe să exfiltreze date de pe un server, chiar și lent pentru a evita detectarea, un sistem bazat pe IA ar putea observa că „Serverul A nu trimite niciodată 500 MB de date la ora 2 dimineața către o adresă IP externă” și ar putea declanșa o alertă. Deoarece IA nu folosește doar reguli statice, ci un model în evoluție al comportamentului rețelei, aceasta poate detecta anomalii subtile pe care regulile statice (cum ar fi „alertă dacă datele > X MB”) le-ar putea rata sau semnala din greșeală. Această natură adaptivă este ceea ce face ca detectarea anomaliilor bazată pe IA să fie puternică în medii precum rețelele de tranzacții bancare, infrastructura cloud sau flotele de dispozitive IoT, unde definirea regulilor fixe pentru normal vs. anormal este extrem de complexă.

Inteligența artificială generativă ajută și la analiza comportamentului utilizatorilor (UBA) , care este esențială pentru identificarea amenințărilor interne sau a conturilor compromise. Prin generarea unei baze de date pentru fiecare utilizator sau entitate, inteligența artificială poate detecta lucruri precum utilizarea necorespunzătoare a acreditărilor. De exemplu, dacă Bob de la contabilitate începe brusc să interogheze baza de date a clienților (ceva ce nu a mai făcut niciodată), modelul de inteligență artificială pentru comportamentul lui Bob va marca acest lucru ca fiind neobișnuit. S-ar putea să nu fie malware - ar putea fi un caz în care acreditările lui Bob au fost furate și utilizate de un atacator sau Bob investighează unde nu ar trebui. În orice caz, echipa de securitate este avertizată să investigheze. Astfel de sisteme UBA bazate pe inteligență artificială există în diverse produse de securitate, iar tehnicile de modelare generativă le cresc precizia și reduc alarmele false luând în considerare contextul (poate Bob este implicat într-un proiect special etc., pe care inteligența artificială îl poate deduce uneori din alte date).

În domeniul gestionării identității și accesului, detectarea deepfake-urilor este o nevoie tot mai mare - inteligența artificială generativă poate crea voci și videoclipuri sintetice care păcălesc securitatea biometrică. Interesant este că inteligența artificială generativă poate ajuta, de asemenea, la detectarea acestor deepfake-uri prin analizarea artefactelor subtile din audio sau video, greu de observat de către oameni. Am văzut un exemplu cu Accenture, care a folosit inteligența artificială generativă pentru a simula nenumărate expresii faciale și condiții pentru a -și antrena sistemele biometrice să distingă utilizatorii reali de deepfake-urile generate de inteligență artificială. Pe parcursul a cinci ani, această abordare a ajutat Accenture să elimine parolele pentru 90% din sistemele sale (trecând la biometrie și alți factori) și să reducă atacurile cu 60% ( 6 cazuri de utilizare pentru inteligența artificială generativă în cibersecuritate [+ exemple] ). În esență, au folosit inteligența artificială generativă pentru a consolida autentificarea biometrică, făcând-o rezistentă la atacurile generative (o ilustrare excelentă a luptei dintre inteligența artificială). Acest tip de modelare comportamentală - în acest caz, recunoașterea diferenței dintre o față umană vie și una sintetizată de inteligență artificială - este crucială, deoarece ne bazăm tot mai mult pe inteligența artificială în autentificare.

Detectarea anomaliilor bazată pe inteligența artificială generativă este aplicabilă în diverse industrii: în domeniul sănătății, monitorizând comportamentul dispozitivelor medicale pentru semne de hacking; în finanțe, urmărind sistemele de tranzacționare pentru modele neregulate care ar putea indica fraudă sau manipulare algoritmică; în energie/utilități, observând semnalele sistemului de control pentru semne de intruziuni. Combinația dintre amploarea (examinarea tuturor aspectelor comportamentului) și profunzimea (înțelegerea modelelor complexe) pe care o oferă inteligența artificială generativă o face un instrument puternic pentru identificarea indicatorilor de tip „acul în carul cu fân” ai unui incident cibernetic. Pe măsură ce amenințările devin mai discrete, ascunzându-se printre operațiunile normale, această capacitate de a caracteriza cu precizie „normalul” și de a alerta când ceva deviază devine vitală. Astfel, inteligența artificială generativă servește ca o santinelă neobosită, învățând și actualizând mereu definiția sa de normalitate pentru a ține pasul cu schimbările din mediu și alertând echipele de securitate cu privire la anomaliile care merită o inspecție mai atentă.

Oportunități și beneficii ale inteligenței artificiale generative în cibersecuritate

Aplicarea inteligenței artificiale generative în domeniul securității cibernetice aduce o serie de oportunități și beneficii pentru organizațiile care doresc să adopte aceste instrumente. Mai jos, rezumăm avantajele cheie care fac din inteligența artificială generativă un plus convingător pentru programele de securitate cibernetică:

  • Detectare și răspuns mai rapid la amenințări: Sistemele de inteligență artificială generativă pot analiza cantități vaste de date în timp real și pot recunoaște amenințările mult mai rapid decât analiza umană manuală. Acest avantaj al vitezei înseamnă detectarea mai timpurie a atacurilor și o izolare mai rapidă a incidentelor. În practică, monitorizarea securității bazată pe inteligență artificială poate detecta amenințări a căror corelare ar dura mult mai mult din partea oamenilor. Prin răspunsul prompt la incidente (sau chiar prin executarea autonomă a răspunsurilor inițiale), organizațiile pot reduce dramatic timpul de staționare a atacatorilor în rețelele lor, minimizând daunele.

  • Precizie și acoperire îmbunătățite ale amenințărilor: Deoarece învață continuu din date noi, modelele generative se pot adapta la amenințările în evoluție și pot detecta semne mai subtile de activitate rău intenționată. Acest lucru duce la o precizie îmbunătățită a detectării (mai puține falsuri negative și falsuri pozitive) în comparație cu regulile statice. De exemplu, o inteligență artificială care a învățat caracteristicile unui e-mail de phishing sau ale unui comportament malware poate identifica variante care nu au mai fost văzute până acum. Rezultatul este o acoperire mai largă a tipurilor de amenințări - inclusiv atacuri noi - consolidând postura generală de securitate. Echipele de securitate obțin, de asemenea, informații detaliate din analiza inteligenței artificiale (de exemplu, explicații ale comportamentului malware), permițând apărări mai precise și mai direcționate ( Ce este inteligența artificială generativă în securitatea cibernetică? - Palo Alto Networks ).

  • Automatizarea sarcinilor repetitive: IA generativă excelează în automatizarea sarcinilor de securitate de rutină, care necesită multă muncă - de la examinarea jurnalelor și compilarea rapoartelor până la scrierea de scripturi de răspuns la incidente. Această automatizare reduce povara analiștilor umani , eliberându-i să se concentreze pe strategia la nivel înalt și pe luarea deciziilor complexe ( Ce este IA generativă în cibersecuritate? - Palo Alto Networks ). Sarcini banale, dar importante, cum ar fi scanarea vulnerabilităților, auditul configurației, analiza activității utilizatorilor și raportarea conformității pot fi gestionate (sau cel puțin elaborate inițial) de IA. Prin gestionarea acestor sarcini la viteza mașinii, IA nu numai că îmbunătățește eficiența, dar reduce și eroarea umană (un factor semnificativ în breșe).

  • Apărare și simulare proactive: IA generativă permite organizațiilor să treacă de la securitate reactivă la proactivă. Prin tehnici precum simularea atacurilor, generarea de date sintetice și instruirea bazată pe scenarii, apărătorii pot anticipa și se pot pregăti pentru amenințări înainte ca acestea să se materializeze în lumea reală. Echipele de securitate pot simula atacuri cibernetice (campanii de phishing, focare de malware, DDoS etc.) în medii sigure pentru a le testa răspunsurile și a consolida orice puncte slabe. Această instruire continuă, adesea imposibil de realizat complet doar cu efort uman, menține apărarea precisă și actualizată. Este similar cu un „exercițiu de incendiu” cibernetic - IA poate lansa numeroase amenințări ipotetice asupra apărării dvs., astfel încât să puteți exersa și îmbunătăți.

  • Creșterea expertizei umane (IA ca multiplicator de forță): IA generativă acționează ca un analist junior neobosit, consultant și asistent, integrate într-unul singur. Aceasta poate oferi membrilor echipei mai puțin experimentați îndrumări și recomandări așteptate de obicei de la experți experimentați, democratizând efectiv expertiza în cadrul echipei ( 6 cazuri de utilizare pentru IA generativă în securitatea cibernetică [+ exemple] ). Acest lucru este deosebit de valoros având în vedere deficitul de talente în domeniul securității cibernetice - IA ajută echipele mai mici să facă mai mult cu mai puțin. Analiștii experimentați, pe de altă parte, beneficiază de IA care gestionează munca grea și scoate la iveală informații neevidente, pe care apoi le pot valida și pe baza cărora pot acționa. Rezultatul general este o echipă de securitate mult mai productivă și mai capabilă, IA amplificând impactul fiecărui membru uman ( Cum poate fi utilizată IA generativă în securitatea cibernetică ).

  • Suport decizional și raportare îmbunătățite: Prin traducerea datelor tehnice în informații în limbaj natural, inteligența artificială generativă îmbunătățește comunicarea și luarea deciziilor. Liderii din domeniul securității obțin o vizibilitate mai clară asupra problemelor prin intermediul rezumatelor generate de inteligența artificială și pot lua decizii strategice informate fără a fi nevoie să analizeze datele brute. De asemenea, comunicarea interfuncțională (către directori, ofițeri de conformitate etc.) este îmbunătățită atunci când inteligența artificială pregătește rapoarte ușor de înțeles privind postura de securitate și incidentele ( Cum poate fi utilizată inteligența artificială generativă în securitatea cibernetică? 10 exemple din lumea reală ). Acest lucru nu numai că consolidează încrederea și alinierea în problemele de securitate la nivel de conducere, dar ajută și la justificarea investițiilor și a schimbărilor prin articularea clară a riscurilor și a lacunelor descoperite de inteligența artificială.

Împreună, aceste beneficii înseamnă că organizațiile care utilizează inteligența artificială generativă în domeniul securității cibernetice pot obține o postură de securitate mai puternică, cu costuri operaționale potențial mai mici. Acestea pot răspunde la amenințări care anterior erau copleșitoare, pot acoperi lacune care nu erau monitorizate și se pot îmbunătăți continuu prin intermediul buclelor de feedback bazate pe inteligență artificială. În cele din urmă, inteligența artificială generativă oferă șansa de a depăși adversarii, prin potrivirea vitezei, amplorii și sofisticării atacurilor moderne cu apărări la fel de sofisticate. După cum a constatat un sondaj, peste jumătate dintre liderii de afaceri și din domeniul cibernetic anticipează o detectare mai rapidă a amenințărilor și o precizie sporită prin utilizarea inteligenței artificiale generative ( [PDF] Perspective globale privind securitatea cibernetică 2025 | Forumul Economic Mondial ) ( Inteligența artificială generativă în securitatea cibernetică: o analiză cuprinzătoare a studiilor de licență în drept... ) - o dovadă a optimismului din jurul beneficiilor acestor tehnologii.

Riscuri și provocări ale utilizării inteligenței artificiale generative în cibersecuritatea

Deși oportunitățile sunt semnificative, este esențial să abordăm IA generativă în domeniul securității cibernetice având ochii deschiși la riscurile și provocările implicate. Încrederea oarbă în IA sau utilizarea greșită a acesteia poate introduce noi vulnerabilități. Mai jos, prezentăm principalele preocupări și capcane, împreună cu contextul pentru fiecare:

  • Utilizarea adversarială de către infractorii cibernetici: Aceleași capacități generative care îi ajută pe apărători pot oferi putere atacatorilor. Actorii care fac amenințări utilizează deja IA generativă pentru a crea e-mailuri de phishing mai convingătoare, pentru a crea personaje false și videoclipuri deepfake pentru inginerie socială, pentru a dezvolta programe malware polimorfice care se schimbă constant pentru a evita detectarea și chiar pentru a automatiza aspecte ale hacking-ului ( Ce este IA generativă în securitatea cibernetică? - Palo Alto Networks ). Aproape jumătate (46%) dintre liderii din domeniul securității cibernetice sunt îngrijorați că IA generativă va duce la atacuri adversariale mai avansate ( Securitatea IA generativă: tendințe, amenințări și strategii de atenuare ). Această „cursă a înarmărilor prin IA” înseamnă că, pe măsură ce apărătorii adoptă IA, atacatorii nu vor fi cu mult în urmă (de fapt, aceștia ar putea fi în frunte în anumite domenii, utilizând instrumente IA nereglementate). Organizațiile trebuie să fie pregătite pentru amenințări îmbunătățite prin IA, care sunt mai frecvente, mai sofisticate și mai dificil de urmărit.

  • Halucinații și inexactități ale IA: Modelele de IA generativă pot produce rezultate plauzibile, dar incorecte sau înșelătoare – un fenomen cunoscut sub numele de halucinație. Într-un context de securitate, o IA ar putea analiza un incident și să concluzioneze în mod eronat că o anumită vulnerabilitate a fost cauza sau ar putea genera un script de remediere defect care nu reușește să conțină un atac. Aceste greșeli pot fi periculoase dacă sunt luate ad litteram. După cum avertizează NTT Data, „IA generativă poate genera în mod plauzibil conținut neadevărat, iar acest fenomen se numește halucinații... în prezent este dificil să le elimini complet” ( Riscurile de securitate ale IA generativă și contramăsurile și impactul acesteia asupra securității cibernetice | NTT DATA Group ). Dependența excesivă de IA fără verificare ar putea duce la eforturi direcționate greșit sau la un fals sentiment de securitate. De exemplu, o IA ar putea marca în mod fals un sistem critic ca fiind sigur atunci când nu este sau, dimpotrivă, ar putea declanșa panică prin „detectarea” unei încălcări care nu s-a întâmplat niciodată. Validarea riguroasă a rezultatelor IA și implicarea oamenilor în luarea deciziilor critice sunt esențiale pentru a atenua acest risc.

  • Rezultate false pozitive și negative: În legătură cu halucinațiile, dacă un model de IA este slab antrenat sau configurat, acesta ar putea supraevalua activitatea benignă ca fiind rău intenționată (rezultate false pozitive) sau, mai rău, ar putea rata amenințări reale (rezultate false negative) ( Cum poate fi utilizată IA generativă în securitatea cibernetică ). Alertele false excesive pot copleși echipele de securitate și pot duce la oboseală din cauza alertelor (anulând chiar câștigurile de eficiență promise de IA), în timp ce detecțiile ratate lasă organizația expusă. Reglarea modelelor generative pentru echilibrul corect este o provocare. Fiecare mediu este unic, iar o IA s-ar putea să nu funcționeze optim imediat după deschidere. Învățarea continuă este, de asemenea, o sabie cu două tăișuri - dacă IA învață din feedback-ul distorsionat sau dintr-un mediu care se schimbă, precizia sa poate fluctua. Echipele de securitate trebuie să monitorizeze performanța IA și să ajusteze pragurile sau să ofere feedback corectiv modelelor. În contexte cu miză mare (cum ar fi detectarea intruziunilor pentru infrastructura critică), ar putea fi prudent să se ruleze sugestii de IA în paralel cu sistemele existente pentru o perioadă, pentru a se asigura că acestea se aliniază și se completează, mai degrabă decât să intre în conflict.

  • Confidențialitatea datelor și scurgerile de informații: Sistemele de inteligență artificială generativă necesită adesea cantități mari de date pentru antrenament și operare. Dacă aceste modele sunt bazate pe cloud sau nu sunt izolate corespunzător, există riscul ca informațiile sensibile să se scurgă. Utilizatorii ar putea introduce în mod accidental date proprietare sau date personale într-un serviciu de inteligență artificială (gândiți-vă la solicitarea ChatGPT de a rezuma un raport de incident confidențial), iar aceste date ar putea deveni parte a cunoștințelor modelului. Într-adevăr, un studiu recent a constatat că 55% din datele introduse în instrumentele de inteligență artificială generativă conțineau informații sensibile sau de identificare personală , ceea ce ridică îngrijorări serioase cu privire la scurgerile de date ( Securitatea inteligenței artificiale generative: tendințe, amenințări și strategii de atenuare ). În plus, dacă o inteligență artificială a fost antrenată pe baza datelor interne și este interogată în anumite moduri, aceasta ar putea transmite părți din acele date sensibile către altcineva. Organizațiile trebuie să implementeze politici stricte de gestionare a datelor (de exemplu, utilizarea instanțelor de inteligență artificială locale sau private pentru materiale sensibile) și să-și educe angajații cu privire la faptul că nu vor lipi informații secrete în instrumentele publice de inteligență artificială. Reglementările privind confidențialitatea (GDPR etc.) intră, de asemenea, în joc - utilizarea datelor personale pentru antrenarea inteligenței artificiale fără consimțământul sau protecția adecvate ar putea încălca legile.

  • Securitatea și manipularea modelului: Modelele de IA generativă pot deveni ținte. Adversarii ar putea încerca otrăvirea modelului , furnizând date rău intenționate sau înșelătoare în timpul fazei de antrenament sau reantrenament, astfel încât IA să învețe tipare incorecte ( Cum poate fi utilizată IA generativă în securitatea cibernetică ). De exemplu, un atacator ar putea otrăvi subtil datele de informații despre amenințări, astfel încât IA să nu recunoască propriul malware al atacatorului ca fiind rău intenționat. O altă tactică este injecția promptă sau manipularea ieșirilor , în care un atacator găsește o modalitate de a emite inputuri către IA care o fac să se comporte în moduri neintenționate - poate pentru a ignora balustradele sale de siguranță sau pentru a dezvălui informații pe care nu ar trebui (cum ar fi solicitări sau date interne). În plus, există riscul de evitare a modelului : atacatorii creează inputuri special concepute pentru a păcăli IA. Vedem acest lucru în exemple adverse - date ușor perturbate pe care un om le vede ca fiind normale, dar IA le clasifică greșit. Asigurarea securității lanțului de aprovizionare cu inteligență artificială (integritatea datelor, controlul accesului la modele, testarea robusteții în situații adverse) este o parte nouă, dar necesară, a securității cibernetice atunci când se implementează aceste instrumente ( Ce este inteligența artificială generativă în cibersecuritatea? - Palo Alto Networks ).

  • Dependență excesivă și erodarea competențelor: Există un risc mai mic ca organizațiile să devină excesiv de dependente de inteligența artificială și să permită atrofierea competențelor umane. Dacă analiștii juniori ajung să aibă încredere orbește în rezultatele inteligenței artificiale, este posibil să nu dezvolte gândirea critică și intuiția necesare atunci când inteligența artificială nu este disponibilă sau este greșită. Un scenariu de evitat este o echipă de securitate care are instrumente excelente, dar nu are nicio idee despre cum să opereze dacă aceste instrumente se defectează (similar cu piloții care se bazează excesiv pe pilotul automat). Exercițiile regulate de antrenament fără asistență a inteligenței artificiale și promovarea unei mentalități conform căreia inteligența artificială este un asistent, nu un oracol infailibil, sunt importante pentru a menține analiștii umani ageri. Oamenii trebuie să rămână factorii de decizie finali, în special pentru judecățile cu impact ridicat.

  • Provocări etice și de conformitate: Utilizarea IA în securitatea cibernetică ridică întrebări etice și ar putea declanșa probleme de conformitate cu reglementările. De exemplu, dacă un sistem de IA implică în mod eronat un angajat ca fiind o persoană din interior rău intenționată din cauza unei anomalii, acesta ar putea afecta în mod nedrept reputația sau cariera acelei persoane. Deciziile luate de IA pot fi opace (problema „cutiei negre”), ceea ce face dificilă explicarea auditorilor sau autorităților de reglementare a motivului pentru care au fost întreprinse anumite acțiuni. Pe măsură ce conținutul generat de IA devine mai răspândit, asigurarea transparenței și menținerea responsabilității sunt cruciale. Autoritățile de reglementare încep să examineze cu atenție IA - Legea UE privind IA, de exemplu, va impune cerințe sistemelor de IA „cu risc ridicat”, iar IA în domeniul securității cibernetice s-ar putea încadra în această categorie. Companiile vor trebui să navigheze prin aceste reglementări și, eventual, să respecte standarde precum Cadrul NIST de gestionare a riscurilor de IA pentru a utiliza IA generativă în mod responsabil ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). Conformitatea se extinde și la licențiere: utilizarea modelelor open-source sau terțe ar putea avea termeni care restricționează anumite utilizări sau necesită îmbunătățiri ale partajării.

În concluzie, IA generativă nu este o soluție miraculoasă – dacă nu este implementată cu atenție, poate introduce noi deficiențe chiar și în timp ce rezolvă altele. Un studiu al Forumului Economic Mondial din 2024 a evidențiat faptul că ~47% dintre organizații menționează progresele în IA generativă ale atacatorilor ca fiind o preocupare principală, ceea ce o face „cel mai îngrijorător impact al IA generativă” asupra securității cibernetice ( [PDF] Perspective globale privind securitatea cibernetică 2025 | Forumul Economic Mondial ) ( IA generativă în securitatea cibernetică: o analiză cuprinzătoare a LLM... ). Prin urmare, organizațiile trebuie să adopte o abordare echilibrată: să valorifice beneficiile IA, gestionând în același timp riguros aceste riscuri prin guvernanță, testare și supraveghere umană. Vom discuta în continuare cum să atingem practic acest echilibru.

Perspective viitoare: Rolul în evoluție al inteligenței artificiale generative în cibersecuritatea

Privind în perspectivă, inteligența artificială generativă este pe cale să devină o parte integrantă a strategiei de securitate cibernetică – și, în același timp, un instrument pe care adversarii cibernetici îl vor continua să exploateze. Dinamica șoarecelui și pisica se va accelera, IA fiind de ambele părți ale barierei. Iată câteva perspective prospective asupra modului în care IA generativă ar putea modela securitatea cibernetică în următorii ani:

  • Apărarea cibernetică augmentată prin inteligență artificială devine standard: Până în 2025 și ulterior, ne putem aștepta ca majoritatea organizațiilor medii și mari să fi încorporat instrumente bazate pe inteligență artificială în operațiunile lor de securitate. Așa cum antivirusurile și firewall-urile sunt standard astăzi, copiloții inteligenței artificiale și sistemele de detectare a anomaliilor ar putea deveni componente de bază ale arhitecturilor de securitate. Aceste instrumente vor deveni probabil mai specializate - de exemplu, modele distincte de inteligență artificială, reglate fin pentru securitatea cloud, pentru monitorizarea dispozitivelor IoT, pentru securitatea codului aplicațiilor și așa mai departe, toate funcționând concertat. După cum notează o predicție, „în 2025, inteligența artificială generativă va fi parte integrantă a securității cibernetice, permițând organizațiilor să se apere proactiv împotriva amenințărilor sofisticate și în evoluție” ( Cum poate fi utilizată inteligența artificială generativă în securitatea cibernetică ). Inteligența artificială va îmbunătăți detectarea amenințărilor în timp real, va automatiza multe acțiuni de răspuns și va ajuta echipele de securitate să gestioneze volume mult mai mari de date decât ar putea face manual.

  • Învățare și adaptare continuă: Viitoarele sisteme de inteligență artificială generativă în domeniul cibernetic se vor îmbunătăți la învățarea din mers din incidente noi și din informații despre amenințări, actualizându-și baza de cunoștințe aproape în timp real. Acest lucru ar putea duce la apărări cu adevărat adaptive - imaginați-vă o inteligență artificială care află despre o nouă campanie de phishing care lovește o altă companie dimineața și care până după-amiaza a ajustat deja filtrele de e-mail ale companiei dvs. ca răspuns. Serviciile de securitate cu inteligență artificială bazate pe cloud ar putea facilita acest tip de învățare colectivă, în care informațiile anonimizate de la o organizație beneficiază toți abonații (similar cu partajarea informațiilor despre amenințări, dar automatizat). Cu toate acestea, acest lucru va necesita o gestionare atentă pentru a evita partajarea informațiilor sensibile și pentru a împiedica atacatorii să introducă date greșite în modelele partajate.

  • Convergența talentelor din domeniul inteligenței artificiale (IA) și al securității cibernetice: Setul de competențe al profesioniștilor în domeniul securității cibernetice va evolua pentru a include competențe în domeniul inteligenței artificiale (IA) și științei datelor. Așa cum analiștii de astăzi învață limbaje de interogare și scripting, analiștii de mâine ar putea ajusta în mod regulat modelele de IA sau ar putea scrie „manuale” pe care IA le va executa. Am putea vedea noi roluri precum „Instructor de securitate IA” sau „Inginer de securitate cibernetică IA” - persoane specializate în adaptarea instrumentelor IA la nevoile unei organizații, validarea performanței acestora și asigurarea funcționării în siguranță. Pe de altă parte, considerațiile legate de securitatea cibernetică vor influența din ce în ce mai mult dezvoltarea IA. Sistemele de IA vor fi construite cu caracteristici de securitate de la zero (arhitectură securizată, detectare a manipulărilor, jurnale de audit pentru deciziile legate de IA etc.), iar cadrele pentru o IA de încredere (echitabilă, explicabilă, robustă și sigură) vor ghida implementarea lor în contexte critice din punct de vedere al securității.

  • Atacuri mai sofisticate bazate pe inteligență artificială: Din păcate, peisajul amenințărilor va evolua și odată cu inteligența artificială. Anticipăm o utilizare mai frecventă a inteligenței artificiale pentru a descoperi vulnerabilități zero-day, pentru a crea phishing-uri de tip spear phishing extrem de țintite (de exemplu, inteligența artificială care extrage informații de pe rețelele sociale pentru a crea o momeală perfect adaptată) și pentru a genera voci sau videoclipuri deepfake convingătoare pentru a ocoli autentificarea biometrică sau a comite fraude. Ar putea apărea agenți de hacking automatizați care pot efectua independent atacuri în mai multe etape (recunoaștere, exploatare, mișcare laterală etc.) cu o supraveghere umană minimă. Acest lucru va presa apărătorii să se bazeze și pe inteligență artificială - în esență, automatizare vs. automatizare . Unele atacuri pot avea loc la viteza mașinii, cum ar fi roboții inteligenței artificiale care încearcă o mie de permutări de e-mailuri de phishing pentru a vedea care dintre ele trece de filtre. Apărarea cibernetică va trebui să funcționeze la o viteză și o flexibilitate similare pentru a ține pasul ( Ce este inteligența artificială generativă în securitatea cibernetică? - Palo Alto Networks ).

  • Reglementare și IA etică în securitate: Pe măsură ce IA devine profund integrată în funcțiile de securitate cibernetică, va exista o supraveghere mai atentă și, eventual, o reglementare mai strictă pentru a asigura că aceste sisteme de IA sunt utilizate în mod responsabil. Ne putem aștepta la cadre și standarde specifice IA în securitate. Guvernele ar putea stabili linii directoare pentru transparență - de exemplu, impunând ca deciziile semnificative de securitate (cum ar fi încetarea accesului unui angajat pentru o activitate suspectată de rău intenționată) să nu poată fi luate doar de IA fără o verificare umană. De asemenea, pot exista certificări pentru produsele de securitate IA, pentru a asigura cumpărătorii că IA a fost evaluată pentru părtinire, robustețe și siguranță. În plus, cooperarea internațională ar putea crește în jurul amenințărilor cibernetice legate de IA; de exemplu, acorduri privind gestionarea dezinformărilor create de IA sau norme împotriva anumitor arme cibernetice bazate pe IA.

  • Integrarea cu ecosisteme IT și de inteligență artificială mai ample: Inteligența artificială generativă în domeniul securității cibernetice se va integra probabil cu alte sisteme de inteligență artificială și instrumente de management IT. De exemplu, o inteligență artificială care gestionează optimizarea rețelei ar putea lucra cu inteligența artificială de securitate pentru a se asigura că modificările nu deschid lacune. Analizele de afaceri bazate pe inteligență artificială ar putea partaja date cu inteligența artificială de securitate pentru a corela anomalii (cum ar fi o scădere bruscă a vânzărilor cu o posibilă problemă a site-ului web din cauza unui atac). În esență, inteligența artificială nu va trăi într-un siloz - va face parte dintr-o structură inteligentă mai amplă a operațiunilor unei organizații. Acest lucru deschide oportunități pentru o gestionare holistică a riscurilor, unde datele operaționale, datele privind amenințările și chiar datele de securitate fizică ar putea fi combinate de inteligența artificială pentru a oferi o vedere de 360 ​​de grade asupra posturii de securitate organizațională.

Pe termen lung, speranța este că IA generativă va ajuta la înclinarea balanței în favoarea apărătorilor. Gestionând amploarea și complexitatea mediilor IT moderne, IA poate face spațiul cibernetic mai ușor de apărat. Cu toate acestea, este o călătorie și vor exista dificultăți pe măsură ce perfecționăm aceste tehnologii și învățăm să avem încredere în ele în mod corespunzător. Organizațiile care se mențin informate și investesc în adoptarea responsabilă a IA pentru securitate vor fi probabil cele mai bine poziționate pentru a naviga prin amenințările viitorului.

După cum a menționat recentul raport Gartner privind tendințele în domeniul securității cibernetice, „apariția cazurilor de utilizare (și a riscurilor) generative ale inteligenței artificiale creează presiune pentru transformare” ( Tendințe în securitate cibernetică: Reziliență prin transformare - Gartner ). Cei care se adaptează vor valorifica inteligența artificială ca pe un aliat puternic; cei care rămân în urmă s-ar putea trezi depășiți de adversarii dotați cu inteligență artificială. Următorii câțiva ani vor fi o perioadă crucială în definirea modului în care inteligența artificială remodelează câmpul de luptă cibernetic.

Concluzii practice pentru adoptarea inteligenței artificiale generative în cibersecuritatea

Pentru companiile care evaluează modul în care să utilizeze inteligența artificială generativă în strategia lor de securitate cibernetică, iată câteva aspecte practice și recomandări pentru a ghida o adoptare responsabilă și eficientă:

  1. Începeți cu educație și instruire: Asigurați-vă că echipa dvs. de securitate (și personalul IT în general) înțelege ce poate și ce nu poate face IA generativă. Oferiți instruire cu privire la elementele de bază ale instrumentelor de securitate bazate pe IA și actualizați-vă programele de conștientizare a securității pentru toți angajații, pentru a acoperi amenințările bazate pe IA. De exemplu, învățați personalul cum IA poate genera escrocherii de tip phishing și apeluri deepfake foarte convingătoare. Simultan, instruiți angajații cu privire la utilizarea sigură și aprobată a instrumentelor IA în munca lor. Utilizatorii bine informați sunt mai puțin predispuși să gestioneze greșit IA sau să cadă victime atacurilor îmbunătățite de IA ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ).

  2. Definiți politici clare de utilizare a IA: Tratați IA generativă ca orice tehnologie puternică – cu guvernanță. Dezvoltați politici care specifică cine poate utiliza instrumente de IA, ce instrumente sunt aprobate și în ce scopuri. Includeți îndrumări privind gestionarea datelor sensibile (de exemplu, interzicerea introducerii de date confidențiale în servicii externe de IA) pentru a preveni scurgerile de informații. De exemplu, ați putea permite doar membrilor echipei de securitate să utilizeze un asistent intern de IA pentru răspunsul la incidente, iar marketingul poate utiliza o IA verificată pentru conținut – toți ceilalți sunt restricționați. Multe organizații abordează acum în mod explicit IA generativă în politicile lor IT, iar organismele de standardizare de top încurajează politicile de utilizare în siguranță, mai degrabă decât interdicțiile directe ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). Asigurați-vă că comunicați aceste reguli și rațiunea din spatele lor tuturor angajaților.

  3. Atenuarea „IA din umbră” și monitorizarea utilizării: Similar IT-ului din umbră, „IA din umbră” apare atunci când angajații încep să utilizeze instrumente sau servicii de IA fără știrea departamentului IT (de exemplu, un dezvoltator care utilizează un asistent de cod IA neautorizat). Acest lucru poate introduce riscuri nevăzute. Implementați măsuri pentru a detecta și controla utilizarea neautorizată a IA . Monitorizarea rețelei poate semnala conexiunile către API-uri IA populare, iar sondajele sau auditurile instrumentelor pot descoperi ce utilizează personalul. Oferiți alternative aprobate, astfel încât angajații bine intenționați să nu fie tentați să acționeze necinstit (de exemplu, furnizați un cont oficial ChatGPT Enterprise dacă oamenii îl consideră util). Prin scoaterea la iveală a utilizării IA, echipele de securitate pot evalua și gestiona riscul. Monitorizarea este, de asemenea, esențială - înregistrați activitățile și rezultatele instrumentelor IA cât mai mult posibil, astfel încât să existe o pistă de audit pentru deciziile influențate de IA ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ).

  4. Folosește IA în mod defensiv – Nu rămâne în urmă: Recunoaște că atacatorii vor folosi IA, așa că și apărarea ta ar trebui să o facă. Identifica câteva domenii cu impact ridicat în care IA generativă ar putea ajuta imediat operațiunile tale de securitate (poate triajul alertelor sau analiza automată a jurnalelor) și derulează proiecte pilot. Consolidați-vă apărarea cu viteza și scalabilitatea IA pentru a contracara amenințările cu evoluție rapidă ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). Chiar și integrările simple, cum ar fi utilizarea unei IA pentru a rezuma rapoartele de malware sau a genera interogări de vânătoare a amenințărilor, pot economisi ore întregi analiștilor. Începeți cu puțin, evaluați rezultatele și iterați. Succesele vor consolida argumentele pentru o adoptare mai largă a IA. Scopul este de a utiliza IA ca multiplicator de forță – de exemplu, dacă atacurile de phishing copleșesc biroul de asistență, implementați un clasificator de e-mailuri IA pentru a reduce proactiv acest volum.

  5. Investiți în practici de IA sigure și etice: Atunci când implementați IA generativă, urmați practici de dezvoltare și implementare sigure. Utilizați modele private sau auto-găzduite pentru sarcini sensibile, pentru a păstra controlul asupra datelor. Dacă utilizați servicii de IA terțe, revizuiți măsurile lor de securitate și confidențialitate (criptare, politici de păstrare a datelor etc.). Încorporați cadre de gestionare a riscurilor legate de IA (cum ar fi Cadrul de gestionare a riscurilor legate de IA al NIST sau îndrumările ISO/IEC) pentru a aborda sistematic aspecte precum părtinirea, explicabilitatea și robustețea în instrumentele dvs. de IA ( Cum poate fi utilizată IA generativă în securitatea cibernetică? 10 exemple din lumea reală ). De asemenea, planificați actualizări/corecții ale modelului ca parte a întreținerii - modelele de IA pot avea și „vulnerabilități” (de exemplu, ar putea necesita recalificare dacă încep să devieze sau dacă este descoperit un nou tip de atac advers asupra modelului). Prin integrarea securității și eticii în utilizarea IA, construiți încredere în rezultate și asigurați conformitatea cu reglementările emergente.

  6. Mențineți oamenii la curent: Folosiți inteligența artificială pentru a asista, nu a înlocui complet, judecata umană în domeniul securității cibernetice. Determinați punctele de decizie în care este necesară validarea umană (de exemplu, o inteligență artificială ar putea redacta un raport de incident, dar un analist îl revizuiește înainte de distribuire; sau o inteligență artificială ar putea sugera blocarea unui cont de utilizator, dar un om aprobă această acțiune). Acest lucru nu numai că previne neverificarea erorilor inteligenței artificiale, dar ajută și echipa dvs. să învețe de la inteligență artificială și invers. Încurajați un flux de lucru colaborativ: analiștii ar trebui să se simtă confortabil să pună sub semnul întrebării rezultatele inteligenței artificiale și să efectueze verificări ale integrității fizice. În timp, acest dialog poate îmbunătăți atât inteligența artificială (prin feedback), cât și abilitățile analiștilor. În esență, proiectați-vă procesele astfel încât punctele forte ale inteligenței artificiale și ale oamenilor să se completeze reciproc - inteligența artificială se ocupă de volum și viteză, oamenii se ocupă de ambiguitate și de deciziile finale.

  7. Măsurați, monitorizați și ajustați: În cele din urmă, tratați instrumentele dvs. de inteligență artificială generativă ca pe componente vii ale ecosistemului dvs. de securitate. Măsurați continuu performanța lor - reduc timpii de răspuns la incidente? Detectează amenințările mai devreme? Care este tendința ratei fals pozitive? Solicitați feedback de la echipă: sunt recomandările inteligenței artificiale utile sau creează zgomot? Folosiți aceste valori pentru a rafina modelele, a actualiza datele de antrenament sau a ajusta modul în care este integrată inteligența artificială. Amenințările cibernetice și nevoile afacerii evoluează, iar modelele dvs. de inteligență artificială ar trebui actualizate sau reinstruite periodic pentru a rămâne eficiente. Aveți un plan pentru guvernanța modelului, inclusiv cine este responsabil pentru întreținerea acestuia și cât de des este revizuit. Prin gestionarea activă a ciclului de viață al inteligenței artificiale, vă asigurați că aceasta rămâne un activ, nu o datorie.

În concluzie, IA generativă poate îmbunătăți semnificativ capacitățile de securitate cibernetică, dar adoptarea cu succes necesită o planificare atentă și o supraveghere continuă. Companiile care își educă angajații, stabilesc linii directoare clare și integrează IA într-un mod echilibrat și sigur vor culege roadele unei gestionări a amenințărilor mai rapide și mai inteligente. Aceste concluzii oferă o foaie de parcurs: combinarea expertizei umane cu automatizarea IA, acoperirea elementelor de bază ale guvernanței și menținerea agilității pe măsură ce atât tehnologia IA, cât și peisajul amenințărilor evoluează inevitabil.

Prin parcurgerea acestor măsuri practice, organizațiile pot răspunde cu încredere la întrebarea „Cum poate fi utilizată IA generativă în securitatea cibernetică?” – nu doar în teorie, ci și în practica de zi cu zi – și, prin urmare, își pot consolida apărarea în lumea noastră din ce în ce mai digitală și bazată pe IA. ( Cum poate fi utilizată IA generativă în securitatea cibernetică )

Documente informative pe care ți-ar putea plăcea să le citești după aceasta:

🔗 Locuri de muncă pe care inteligența artificială nu le poate înlocui și ce locuri de muncă va înlocui inteligența artificială?
Explorează perspectiva globală asupra rolurilor care sunt ferite de automatizare și care nu.

🔗 Poate inteligența artificială să prezică piața bursieră?
O analiză mai atentă a limitărilor, descoperirilor și miturilor legate de capacitatea inteligenței artificiale de a prezice mișcările pieței.

🔗 La ce se poate baza inteligența artificială generativă fără intervenție umană?
Înțelegeți unde poate funcționa IA independent și unde supravegherea umană este încă esențială.

Înapoi la blog