TSM - Actul privind inteligența artificială și impactul lui asupra companiilor

Ioana Barboș - Founder & Data Scientist @ Giraffa Analytics

Actul privind inteligența artificială succede GDPR și EU Digital Services Act, fiind cea mai recentă contribuție în pachetul de reglementări privind spațiul digital în Uniunea Europeană. Scopul acestui regulament este protecția sănătății, a integrității și a drepturilor fundamentale ale cetățenilor Uniunii Europene, prin definirea unui cadru armonizat referitor la modul în care sistemele de inteligență artificială sunt dezvoltate, puse pe piață și utilizate. Reglementarea acestui domeniu vine în contextul în care Inteligența Artificială Generală suscită controverse, atrăgând critici dure și discursuri anti-progres. Dincolo de preferințele personale, un lucru este cert: Actul AI intră în vigoare după un plan etapizat, iar, în lipsa alinierii, companiile riscă amenzi administrative de până la 7% din cifra globală de afaceri, motiv suficient pentru a-i acorda atenția cuvenită.

Clasificarea în funcție de risc

O contribuție importantă a acestei reglementări este clasificarea sistemelor de inteligență artificială în patru categorii de risc: minim, limitat, crescut și inacceptabil. Această clasificare trebuie înțeleasă în strânsă legătură cu contextul în care aceste sisteme operează. Dacă ne referim la chatboți, în general, aceștia sunt clasificați ca având un grad minim de risc, însă un chatbot care asistă victimele fraudelor financiare crește nivelul de risc.

În categoria sistemelor de inteligență artificială cu risc minim asupra oamenilor intră chatboți, sisteme de recomandare, motoare de căutare, programe de sumarizare a textelor și agregatoare de știri.

Sistemele cu grad de risc limitat sunt cele care nu influențează o decizie în mod semnificativ, neavând capacitatea de a afecta persoanele asupra cărora sunt utilizate. De exemplu, un sistem AI utilizat pentru o sarcină restrânsă, precum extragerea unor informații din CV și scrierea lor într-o bază de date, fără a altera informația. Un sistem AI folosit pentru a îmbunătăți modul de realizare a unei sarcini finalizate ar fi utilizarea unui LLM pentru formularea email-urilor către candidații acceptați la un interviu.

Sistemele cu grad de risc ridicat vizează arii care sunt de natură să aibă un impact major în viața oamenilor, în cazul în care lucrurile merg prost. Accesul la educație, accesul la muncă, accesul la servicii medicale de urgență, accesul la servicii financiare, justiție sau democrație sunt câteva din contextele delicate în care sistemele de inteligență artificială trebuie să respecte cerințe de conformitate stricte. Suplimentar, intră în această categorie și sistemele din aceste domenii care realizează profilare (în termeni de data science: clusterizare, segmentare de clienți).

Sistemele cu grad de risc inacceptabil sunt interzise a se dezvolta sau utiliza pe teritoriul Uniunii Europene, anume manipularea cognitiv-comportamentală, recunoașterea emoțiilor la locul de muncă sau în unitățile de învățământ, clasificarea biometrică cu scopul deducerii datelor personale sensibile, calcularea scorurilor sociale, colectarea de imagini faciale de pe internet sau CCTV, precum și anumite soluții bazate pe analiza predictivă, destinate desfășurării activităților polițienești.

Obligații diferite

Din această clasificare decurg obligații diferențiate pentru toți actorii din lanțul de aprovizionare: dezvoltator, importator, distribuitor, implementator și angajații acestuia, mai exact toți utilizatorii sistemelor de AI în scop profesional. În acest context, implicațiile Actului AI se extind nu doar asupra celor care creează și comercializează astfel de produse, ci și asupra angajaților care își eficientizează munca cu ajutorul inteligenței artificiale pentru recrutare și selecție de personal, evaluarea performanței angajaților, marketing și comunicare, acordarea de credite bancare, întocmirea de asigurări de viață și sănătate și multe altele.

Alfabetizarea personalului în inteligență artificială este obligație.

Alfabetizarea personalului în domeniul inteligenței artificiale este o obligație conform Actului AI. Dacă până acum programele educaționale privind familiarizarea cu această tehnologie au fost la latitudinea companiilor, începând cu luna februarie 2025, ele devin o necesitate de conformitate. Astfel că toți angajații care interacționează cu sisteme de inteligență artificială în scop profesional, indiferent de gradul de risc al acestora, trebuie, cel puțin, să cunoască principiile generale de funcționare a IA, să identifice beneficiile și oportunitățile, să poată recunoaște riscurile și implicațiile etice în general și în special în contextul muncii lor și, nu în ultimul rând, să fie familiarizați cu actul privind inteligența artificială.

Transparență vs. Explicabilitate în sistemele AI

Două noțiuni care apar tot mai frecvent în discuțiile privind inteligența artificială sunt transparența și explicabilitatea.

Transparența vizează modul în care un sistem AI sau un model predictiv a fost dezvoltat, de la procesul de colectare a datelor, analiza de risc la algoritmii folosiți și performanța modelului. Obligațiile de transparență nu sunt o noutate, întrucât Digital Services Act, în vigoare din 2024, le impune deja platformelor online și motoarelor de căutare foarte mari. Mai degrabă, reprezintă o aliniere a industriei AI cu piața.

Este importantă evaluarea relevanței diferitelor aspecte ale transparenței. În situațiile în care consecința unei decizii eronate este minoră, transparența se rezumă la a informa utilizatorul că interacționează cu un sistem de AI sau a marca distinctiv conținutul generat cu ajutorul AI. La polul opus, sunt sistemele care operează în contexte cu impact major asupra drepturilor fundamentale ale omului, a sănătății și a integrității lui. Este natural ca aceste sisteme să fie mai atent controlate, ceea ce se transpune într-un set mai amplu de obligații de transparență.

Explicabilitatea se referă la înțelegerea procesului decizional, la cunoașterea motivelor care au condus modelul predictiv la un rezultat anume. În domenii importante precum recrutare, sănătate, acces la educație sau alte servicii esențiale, este necesar ca decizia sistemelor de inteligență artificială să poată fi justificată și explicată persoanei asupra căreia se răsfrânge. Recent, în februarie 2025, CJUE a explicat ce reprezintă o justificare pertinentă a deciziei unui algoritm: modul în care o modificare la nivelul datelor de intrare ar fi condus la un rezultat diferit, și nu o formulă matematică complexă sau descrierea etapelor decizionale, care mai mult ar bulversa, decât ar informa solicitantul. Mai exact, dacă venitul sau sexul ar fi fost diferit, cum s-ar fi modificat decizia.

Care este locul acestor două noțiuni în contextul Actului privind inteligența artificială? Transparența devine o obligație, iar neconformarea atrage după sine penalități. Explicabilitatea este baza unei relații de încredere.

Transparența în practică

Majoritatea sistemelor AI sunt cu risc scăzut sau limitat. Dintre acestea menționăm chatboții, și sistemele de recomandare. Dezvoltatorii acestor tipuri de produse se vor asigura ca pentru persoanele care interacționează cu ele să fie evident că este vorba de inteligență artificială.

Dacă produsul final este conținut generat: audio, video, foto sau text, acesta va fi marcat corespunzător de către dezvoltator. Mai mult și companiile care utilizează acest tip de conținut trebuie să menționeze acest lucru, întărind respectarea transparenței. Dacă este vorba de text conținând informații de interes public, manipulat sau generat artificial (re-organizat, structurat, reformulat, sumarizat), acest lucru trebuie precizat.

Dacă ne referim la sisteme cu grad ridicat de risc, acestea trebuie însoțite de instrucțiuni de folosire, accesibile și pe înțelesul utilizatorilor, astfel încât să asigure o interpretare corectă a rezultatelor sistemului. Acestora li se adaugă obligația utilizatorului de a informa persoanele în cauză că asupra lor se folosește un sistem cu inteligență artificială. De exemplu, comunicarea acestui lucru unui client al băncii care aplică pentru un credit, unui pacient în cadrul departamentului de radiologie, sau unui candidat contactat prin Linkedin.

Care sunt pașii următori?

2 August 2025 este termenul până la care se va înființa autoritatea națională competentă responsabilă cu supravegherea pieței și comunicarea cu autoritățile europene.

Pentru dezvoltatorii sistemelor de inteligență artificială este necesar un inventar al proiectelor în contextul în care acestea operează, urmat de stabilirea gradului de risc asociat. În urma acestei evaluări preliminare se va continua cu luarea măsurilor necesare conformității cu Actul AI.

Similar, pentru companiile care utilizează sisteme de inteligență artificială, este necesar un inventar al tuturor sistemelor de inteligență artificială utilizate în cadrul companiei și a contextului în care sunt utilizate. Personalul care interacționează cu aceste sisteme trebuie alfabetizat pe două niveluri: cunoștințe generale și training specializat în contextul muncii pe care o desfășoară. Apoi, se continuă cu evaluarea riscurilor acestor sisteme, fie prin contact direct cu furnizorul, fie apelând la consultanți externi specializați.

Actul privind inteligența artificială intră în vigoare secvențial, după un plan prestabilit. Primele prevederi privind sistemele interzise și alfabetizarea sunt active de anul acesta, urmând ca în 1 August 2026 să intre în vigoare restul prevederilor.

Biografie:

  1. AI Act

  2. Programul de intrare în vigoare al AI Act

  3. Digital Services Act

  4. GDPR

  5. LegalUp

  6. AI Literacy courses