LOADING

Type to search

STIRI

Inteligența Artificială va aduce o creștere cu 14% a economiei globale până în 2030. Cum pot capitaliza companiile beneficiile AI, cu riscuri minime?

Share

Tehnologiile bazate pe inteligență artificială (AI) ar putea genera o creștere economică globală de 14% (15,7 trilioane de dolari) până în 2030, potrivit unui studiu realizat de PwC, ca urmare a creșterii productivității din automatizarea proceselor. De la asistenții personali ai telefoanelor mobile la tot ce înseamnă personalizare în interacțiunile comerciale și detectarea fraudelor și de la automatizarea unor procese și activități la strategii de lansare pe piață a noilor produse, AI va atinge aproape fiecare aspect al vieții noastre.

Și dacă în prezent, inteligența artificială automatizează sarcini care necesită și implicare umană, cercetătorii și companiile de tehnologie din întreaga lume se străduiesc să obțină o inteligență artificială autonomă, care să nu necesite intervenția umană pentru a lua decizii extrem de complexe. Acest lucru va însemna noi modele de afaceri, fie că este vorba de servicii financiare, sănătate, energie, industrie sau media și divertisment.

Însă, odată cu numeroasele beneficii descrise deja de literatura de specialitate, adoptarea inteligenței artificiale generative aduce atât riscuri la nivel de utilizare a aplicațiilor software – cum ar fi riscul de operare (de exemplu erori, operare instabilă), de securitate (fraudă, atacuri cibernetice), riscuri legate de controlul acesteia (lipsa supravegherii umane, lipsa responsabilității clare) – cât și la nivel de organizație/societale – riscul afacerii (reputație, performanță financiară, juridic și conformitate, încălcarea drepturilor intelectuale), risc economic (pierderea locurilor de muncă, polarizare) sau riscul societal în sine (manipulare și dezinformare, supraveghere și acte de război)

Modul în care vom evalua credibilitatea informațiilor din jurul nostru se va schimba și la fel și modul în care vom lua deciziile – imaginile false, informațiile eronate sau inexacte, încălcarea drepturilor de autor, sau modurile în care vor fi colectate datele confidențiale sau cu caracter personal vor fi mai multe și mai complexe decât cele cu care suntem obișnuiți astăzi. În același timp, viteza luării deciziilor, sprijinită de digitalizare și îmbunătățirea structurilor de date, va crește semnificativ.

Se dezvoltă mai multe reglementări în domeniu

În prezent cea mai cunoscută reglementare în vigoare, care vizează și partea de AI este Regulamentul General privind Protecția Datelor (GDPR), care stabilește însă doar modul de colectare, stocare, procesare și transfer al datelor cu caracter personal. Pentru sectorul financiar, se mai adaugă alte două, respectiv cerințele Băncii Centrale Europene, care impun entităților supravegheate să pună în aplicare măsuri eficiente de gestionare a riscurilor în ceea ce privește terții și DORA, care vizează asigurarea rezilienței operaționale și securitatea cibernetică în sectorul financiar european pentru a fi capabil să reziste în cazul unor perturbări operaționale grave.

În 2024, este așteptat actul UE privind inteligența artificială, care va reglementa dezvoltarea și implementarea inteligenței artificiale în UE. Astfel, furnizorii de inteligență artificială trebuie să evalueze și să atenueze riscurile, să respecte cerințele de proiectare, de informare și de mediu și să se înregistreze în baza de date a UE. Inteligența artificială utilizată în furnizarea de servicii financiare va fi clasificată ca fiind de risc ridicat.

Iar la stadiul de propunere se află Directiva privind răspunderea civilă (AILD). Prin urmare, în cazul în care un sistem de inteligență artificială provoacă un prejudiciu unei persoane, dezvoltatorii unui astfel de sistem pot fi trași la răspundere pentru aceste prejudicii.

Cum pot companiile să valorifice inteligența artificială fără a pune în pericol încrederea clienților, acționarilor și investitorilor? Câteva măsuri propuse de către PwC:

Riscurile asociate inteligenței artificiale nu sunt încă un subiect în majoritatea consiliilor de administrație – răspunsurile executivilor din companiile intervievate în PwC’s 2023 Trust Survey au prioritizat riscurile asociate cu inteligența artificială cu mult sub alte amenințări cum ar fi cele de natură cibernetică (încălcarea securității datelor sau un atac ransomware), cel mai probabil datorită gradului incipient de dezvoltare al acestei tehnologii. Acest lucru se va schimba însă in curând și de aceea, detaliem mai jos câteva recomandări pe care administratorii sau executivii le pot utiliza în pregătirea organizațiilor pe care le conduc:

Stabiliți priorități bazate pe riscuri. Unele riscuri generate de inteligența artificială sunt mai importante decât altele. Ajustați sau stabiliți reguli astfel încât echipele de guvernanță, transformare digitală dar și de conformitate, risc și audit intern să acorde o atenție sporită celor mai mari riscuri.

Îmbunătățirea protecției cibernetice, a datelor și a confidențialității. Actualizați protocoalele de securitate cibernetică, guvernanță a datelor și confidențialitate pentru a contribui la atenuarea riscurilor ca inteligența artificială generativă a hackerilor să aibă acces la date private, să expună identități sau să realizeze atacuri cibernetice. Implementați un proces de analiză al modului în care furnizorii aplicațiilor și site-urile utilizate de către organizația dumneavoastră, și care folosesc inteligența artificială generativă, colectează, stochează și transferă datele confidențiale sau importante pentru activitatea companiei..

Abordarea riscului de ne-reglementare. În cazul unor sisteme de inteligență artificială generativă, “modelul de bază” utilizat pentru a produce rezultate nu este dezvăluit sau ușor accesibil utilizatorilor, ceea ce face imposibilă deslușirea motivelor pentru care un sistem a generat anumite rezultate. Identificați aceste sisteme și luați în considerare ce practici pot sprijini corectitudinea, acuratețea și conformitatea lor.

Pregătirea angajaților implicați pentru utilizarea și supravegherea responsabilă. Învățați-i pe angajați noțiunile de bază despre cum funcționează inteligența artificială generativă – și, de asemenea, când să o utilizați și când nu. De asemenea, aceștia vor trebui să învețe când și cum să verifice sau să modifice rezultatele. Oferiți echipelor de conformitate și juridice abilități și aplicatii IT pentru a identifica încălcările proprietății intelectuale și alte riscuri conexe, consolidand liniile directoare de guvernanță a AI și alte structuri de guvernanță (de exemplu, confidențialitate și securitate cibernetică) care pot fi deja în vigoare.

Monitorizați părțile terțe. Aflați care dintre furnizorii dvs. furnizează conținut sau servicii care utilizează inteligența artificială generativă, cum gestionează riscurile aferente și care ar putea fi posibila dvs. expunere.

Adăugați supravegherea automată. Luați în considerare instrumente software pentru a identifica conținutul generat de AI, pentru a-i verifica acuratețea, pentru a-l evalua în ceea ce privește părtinirea sau încălcarea confidențialității și pentru a adăuga avertismente, după caz.

Urmăriți evoluția discuțiilor privind reglementarea. Factorii de decizie politică din întreaga lume emit tot mai multe direcții de reglementare privind dezvoltarea și utilizarea AI. Aceste îndrumări sunt încă un mozaic, nu un cadru de reglementare complet.

Mircea Bozga, Partener PwC România

Tags:

You Might also Like

Leave a Comment

Your email address will not be published. Required fields are marked *