Opinii

Mircea Bozga, PwC: Inteligenţa Artificială va aduce o creştere cu 14% a economiei globale până în 2030. Cum pot capitaliza companiile beneficiile AI, cu riscuri minime?

Mircea Bozga, Partener PwC România

Mircea Bozga, Partener PwC România

24.08.2023, 11:36 590

Tehnologiile bazate pe inteligenţă artificială (AI) ar putea genera o creştere economică globală de 14% (15,7 trilioane de dolari) până în 2030, potrivit unui studiu realizat de PwC, ca urmare a creşterii productivităţii din automatizarea proceselor. De la asistenţii personali ai telefoanelor mobile la tot ce înseamnă personalizare în interacţiunile comerciale şi detectarea fraudelor şi de la automatizarea unor procese şi activităţi la strategii de lansare pe piaţă a noilor produse, AI va atinge aproape fiecare aspect al vieţii noastre.

Şi dacă în prezent, inteligenţa artificială automatizează sarcini care necesită şi implicare umană, cercetătorii şi companiile de tehnologie din întreaga lume se străduiesc să obţină o inteligenţă artificială autonomă, care să nu necesite intervenţia umană pentru a lua decizii extrem de complexe. Acest lucru va însemna noi modele de afaceri, fie că este vorba de servicii financiare, sănătate, energie, industrie sau media şi divertisment.

Însă, odată cu numeroasele beneficii descrise deja de literatura de specialitate, adoptarea inteligenţei artificiale generative aduce atât riscuri la nivel de utilizare a aplicaţiilor software  - cum ar fi riscul de operare (de exemplu erori, operare instabilă), de securitate (fraudă, atacuri cibernetice), riscuri legate de controlul acesteia (lipsa supravegherii umane, lipsa responsabilităţii clare) - cât şi la nivel de organizaţie/societale - riscul afacerii (reputaţie, performanţă financiară, juridic şi conformitate, încălcarea drepturilor intelectuale), risc economic (pierderea locurilor de muncă, polarizare) sau riscul societal în sine (manipulare şi dezinformare, supraveghere şi acte de război)

Modul în care vom evalua credibilitatea informaţiilor din jurul nostru se va schimba şi la fel şi modul în care vom lua deciziile - imaginile false, informaţiile eronate sau inexacte, încălcarea drepturilor de autor, sau modurile în care vor fi colectate datele confidenţiale sau cu caracter personal vor fi mai multe şi mai complexe decât cele cu care suntem obişnuiţi astăzi. În acelaşi timp, viteza luării deciziilor, sprijinită de digitalizare şi îmbunătăţirea structurilor de date, va creşte semnificativ.

Se dezvoltă mai multe reglementări în domeniu

În prezent cea mai cunoscută reglementare în vigoare, care vizează şi partea de AI este Regulamentul General privind Protecţia Datelor (GDPR), care stabileşte însă doar modul de colectare, stocare, procesare şi transfer al datelor cu caracter personal. Pentru sectorul financiar, se mai adaugă alte două, respectiv cerinţele Băncii Centrale Europene, care impun entităţilor supravegheate să pună în aplicare măsuri eficiente de gestionare a riscurilor în ceea ce priveşte terţii şi DORA, care vizează asigurarea rezilienţei operaţionale şi securitatea cibernetică în sectorul financiar european pentru a fi capabil să reziste în cazul unor perturbări operaţionale grave.

În 2024, este aşteptat actul UE privind inteligenţa artificială, care va reglementa dezvoltarea şi implementarea inteligenţei artificiale în UE. Astfel, furnizorii de inteligenţă artificială trebuie să evalueze şi să atenueze riscurile, să respecte cerinţele de proiectare, de informare şi de mediu şi să se înregistreze în baza de date a UE. Inteligenţa artificială utilizată în furnizarea de servicii financiare va fi clasificată ca fiind de risc ridicat.

Iar la stadiul de propunere se află Directiva privind răspunderea civilă (AILD). Prin urmare, în cazul în care un sistem de inteligenţă artificială provoacă un prejudiciu unei persoane, dezvoltatorii unui astfel de sistem pot fi traşi la răspundere pentru aceste prejudicii.

Cum pot companiile să valorifice inteligenţa artificială fără a pune în pericol încrederea clienţilor, acţionarilor şi investitorilor? Câteva măsuri propuse de către PwC:

Riscurile asociate inteligenţei artificiale nu sunt încă un subiect în majoritatea consiliilor de administraţie - răspunsurile executivilor din companiile intervievate în PwC’s 2023 Trust Survey au prioritizat riscurile asociate cu inteligenţa artificială cu mult sub alte ameninţări cum ar fi cele de natură cibernetică (încălcarea securităţii datelor sau un atac ransomware), cel mai probabil datorită gradului incipient de dezvoltare al acestei tehnologii. Acest lucru se va schimba însă in curând şi de aceea, detaliem mai jos câteva recomandări pe care administratorii sau executivii le pot utiliza în pregătirea organizaţiilor pe care le conduc:

Stabiliţi priorităţi bazate pe riscuri. Unele riscuri generate de inteligenţa artificială sunt mai importante decât altele. Ajustaţi sau stabiliţi reguli astfel încât echipele de guvernanţă, transformare digitală dar şi de conformitate, risc şi audit intern să acorde o atenţie sporită celor mai mari riscuri.

Îmbunătăţirea protecţiei cibernetice, a datelor şi a confidenţialităţii. Actualizaţi protocoalele de securitate cibernetică, guvernanţă a datelor şi confidenţialitate pentru a contribui la atenuarea riscurilor ca inteligenţa artificială generativă a hackerilor să aibă acces la date private, să expună identităţi sau să realizeze atacuri cibernetice. Implementaţi un proces de analiză al modului în care furnizorii aplicaţiilor şi site-urile utilizate de către organizaţia dumneavoastră, şi care folosesc inteligenţa artificială generativă, colectează, stochează şi transferă datele confidenţiale sau importante pentru activitatea companiei..

Abordarea riscului de ne-reglementare. În cazul unor sisteme de inteligenţă artificială generativă, "modelul de bază” utilizat pentru a produce rezultate nu este dezvăluit sau uşor accesibil utilizatorilor, ceea ce face imposibilă desluşirea motivelor pentru care un sistem a generat anumite rezultate. Identificaţi aceste sisteme şi luaţi în considerare ce practici pot sprijini corectitudinea, acurateţea şi conformitatea lor.

Pregătirea angajaţilor implicaţi pentru utilizarea şi supravegherea responsabilă. Învăţaţi-i pe angajaţi noţiunile de bază despre cum funcţionează inteligenţa artificială generativă - şi, de asemenea, când să o utilizaţi şi când nu. De asemenea, aceştia vor trebui să înveţe când şi cum să verifice sau să modifice rezultatele. Oferiţi echipelor de conformitate şi juridice abilităţi şi aplicatii IT pentru a identifica încălcările proprietăţii intelectuale şi alte riscuri conexe, consolidand liniile directoare de guvernanţă a AI şi alte structuri de guvernanţă (de exemplu, confidenţialitate şi securitate cibernetică) care pot fi deja în vigoare.

Monitorizaţi părţile terţe. Aflaţi care dintre furnizorii dvs. furnizează conţinut sau servicii care utilizează inteligenţa artificială generativă, cum gestionează riscurile aferente şi care ar putea fi posibila dvs. expunere.

Adăugaţi supravegherea automată. Luaţi în considerare instrumente software pentru a identifica conţinutul generat de AI, pentru a-i verifica acurateţea, pentru a-l evalua în ceea ce priveşte părtinirea sau încălcarea confidenţialităţii şi pentru a adăuga avertismente, după caz.

Urmăriţi evoluţia discuţiilor privind reglementarea. Factorii de decizie politică din întreaga lume emit tot mai multe direcţii de reglementare privind dezvoltarea şi utilizarea AI. Aceste îndrumări sunt încă un mozaic, nu un cadru de reglementare complet.

 
 
 


 

 

Pentru alte știri, analize, articole și informații din business în timp real urmărește Ziarul Financiar pe WhatsApp Channels

AFACERI DE LA ZERO