Inteligența artificială (IA), securitatea sistemelor AI și utilizarea IA în securitate nu mai aparțin viitorului – sunt prezentul nostru. Și au fost mult timp o parte integrantă a muncii noastre zilnice de a îmbunătăți securitatea IT. În același timp, ele aduc cu ele o nouă calitate a riscurilor pe care noi, cei din industria securității, trebuie să le luăm foarte în serios.
De la Bach la inteligența artificială: o călătorie în timp
Prima mea întâlnire cu AI a fost cu mult timp în urmă. În 1979, un prieten de-al meu și-a petrecut fiecare minut liber citind o carte albă groasă numită „Gödel, Escher, Bach”. Ca muzician, inițial am fost interesat doar de aspectul legat de Johann Sebastian Bach. Din păcate, nu m-a ajutat prea mult în încercările mele de a interpreta „Clavicenacul bine temperat” și fugile sale. Dar am învățat despre IA.
În carte, autorul Douglas R. Hofstadter descrie cum poate apărea un comportament complex și inteligent din sisteme uimitor de simple. Ideea: structuri de buclă autoreferențiale care creează niveluri de semnificație – fie în demonstrații logice, desene sau compoziții muzicale.
Fugile lui Bach conțin în mod repetat melodii care se conțin pe ele însele și sunt interpretate simultan în variațiuni, creând un nou nivel muzical în care melodia individuală pare să dispară iar și iar, dar de fapt este mereu acolo. Așadar, este cam ca ceea ce experimentăm cu modelele lingvistice mari și inteligența artificială generativă: individul dispare într-un întreg nou, mai mare.
Atunci când structurile complexe generează semnificație la un nivel superior și putem apoi să o cartografiem folosind instrumente digitale, numim totul inteligență artificială. Hofstadter se referă la acestea ca sisteme bazate pe reguli. Sistemele noastre actuale de inteligență artificială fac acest lucru sub forma unor rețele neuronale, care produc rezultate aparent „inteligente” prin interacțiunea a miliarde de parametri. Similar stolurilor de păsări, coloniilor de furnici sau pieței bursiere, apare comportamentul emergent: folosim sisteme pe care nu le mai înțelegem pe deplin, dar ale căror rezultate ni se par suficient de plauzibile și utile pentru a le folosi.
Echilibrul dintre utilitate și control
După decenii de dezvoltare, utilizarea inteligenței artificiale a devenit ceva obișnuit în ultimii ani. Rămâne de văzut dacă i-am epuizat deja în mare măsură capacitățile reale sau ne aflăm încă la începutul unei curbe exponențiale. Ne aflăm pe calea critică de la funcții simple de dialog la sisteme semi-autonome sau chiar autonome. Aici, eficiența tehnică (de exemplu, timpul de răspuns sau toleranța la pierderi) intră în conflict în mod natural cu calitățile umane, cum ar fi judecata, responsabilitatea și capacitatea de a lua decizii raționale. Și pentru că facem sistemele de IA din ce în ce mai puternice, întrebarea devine mai urgentă: Cât de sigure, vulnerabile și de încredere sunt acestea cu adevărat?
Încredere
La fel ca în cazul partenerilor, colegilor și oamenilor în general, nu putem înțelege pe deplin procesele interne ale IA. Acest lucru nu numai că face ca IA să fie dificil de verificat, dar este și deosebit de vulnerabilă la manipulări țintite, fie prin atacuri adverse, fie prin distorsiuni subtile ale inputului. Dar, evident, nici neutilizarea IA nu este o soluție. Nu există nicio cale de ocolire: trebuie să ne confruntăm cu asta. Putem doar să stabilim instrumente și procese de încredere care să ne protejeze suficient de bine.
Este în natura lucrurilor să ne mulțumim cu probabilități statistice în loc de adevăruri demonstrabile pe care le putem înțelege. În practică, acest lucru funcționează de obicei bine – dar nu întotdeauna. Acolo unde încrederea se bazează pe obișnuință mai degrabă decât pe înțelegere, nu există nicio bază pentru control în caz de urgență. Acest lucru poate duce la neînțelegeri cu privire la ceea ce poate și nu poate face AI. Se fac apoi propuneri serioase de a permite pur și simplu AI să controleze centralele nucleare din cauza lipsei de personal specializat disponibil. Am prefera să nu facem asta.
Protecția tehnică potențială a sistemelor AI este probabil mai avansată decât protecția împotriva unor astfel de idei. Care este starea actuală a protecției tehnice pentru sistemele AI? Iată câteva răspunsuri:
Sistemele AI sunt doar software și hardware. Arhitectura clasică de securitate IT rămâne relevantă, chiar și pentru AI. Pe de o parte, acest lucru este oarecum alarmant, dar, pe de altă parte, înseamnă că suntem cel puțin bine echipați pentru a testa securitatea.
Există mecanisme inițiale de protecție specifice IA care pot cel puțin atenua lucruri simple, cum ar fi injecția promptă. Sistemele de filtrare și moderare a conținutului pot proteja împotriva ieșirilor toxice sau nedorite.
Sistemele AI pot fi monitorizate folosind o combinație de verificări statistice și bazate pe reguli. Modelele mai mici, cum ar fi Modelele de Limbaj Mici (SLM), ne permit să reducem suprafața de atac. Modelele mari, cum ar fi ChatGPT, Claude sau Gemini, sunt puternice, dar deosebit de dificil de controlat și testat. De asemenea, sunt foarte mari, practic imposibil de transportat, extrem de consumatoare de energie și foarte scumpe de întreținut. Cu toate acestea, există soluții din ce în ce mai bune și mai inteligente disponibile.
Cu cât pot defini o sarcină mai specific, cu atâtCu cât am mai puțină nevoie de un LLM de uz general – și cu atât mai bine poate fi utilizat un SLM: SLM-urile sunt mai ușor de supravegheat, mai transparente de operat, pot fi consolidate local și securizate mai eficient. Acestea nu sunt panacee, ci elemente constitutive importante pentru utilizarea responsabilă a IA. S-ar putea întreba: Dacă această AI poate face atât de multe, de ce nu se poate pur și simplu proteja singură? De ce nu construim o IA securizată pentru AI?
De ce AI nu se poate pur și simplu securiza singură
Încă din 1937, Alan Turing a publicat „Despre numerele calculabile”, o descriere matematică a ceea ce el numea o mașină universală, o abstracție care poate, în principiu, să rezolve orice problemă matematică prezentată sub formă simbolică. Cu toate acestea, problema deciziei a dezvăluit limitele gândirii automate încă de la început. Turing a dovedit că nu există o metodă generală pentru prezicerea completă a comportamentului programelor arbitrare. Acest lucru se aplică în egală măsură, dacă nu chiar mai mult, AI-ului de astăzi.
În orice sistem formal suficient de puternic, există afirmații adevărate care nu pot fi demonstrate. Acest lucru ne aduce la Gödel și la teorema sa de incompletitudine. AI poate și va deveni din ce în ce mai puternică, chiar dacă nu va fi niciodată complet previzibilă sau ușor de înțeles. Desigur, acest lucru nu ne împiedică să folosim sisteme de AI.
Cu toate acestea, superinteligența nu va exista în viitorul apropiat. Nu putem construi o AI care să fie garantată a fi fără erori și nici IA nu poate face acest lucru. Este interesantă și uneori fascinantă, dar nu este nici un panaceu, nici un mister. Prin urmare, sarcina noastră nu este să eliminăm riscurile, ci să le identificăm, să le limităm și să le asumăm în mod responsabil. Este nevoie de pragmatism: trebuie să profităm de oportunități, gestionând în același timp riscurile.
Optimiștii spun: Putem reuși.
Pesimiștii spun: Va fi un dezastru.
Pragmatiștii spun: Trebuie să trecem peste asta.
Greenbone Networks oferă soluții de analiză a vulnerabilităților și sunt distribuite în România de compania SolvIT Networks.