ABONAMENTE VIDEO REDACȚIA
RO
EN
Numărul 153
NOU
Numărul 152
Numărul 151 Numărul 150 Numărul 149 Numărul 148 Numărul 147 Numărul 146 Numărul 145 Numărul 144 Numărul 143 Numărul 142 Numărul 141 Numărul 140 Numărul 139 Numărul 138 Numărul 137 Numărul 136 Numărul 135 Numărul 134 Numărul 133 Numărul 132 Numărul 131 Numărul 130 Numărul 129 Numărul 128 Numărul 127 Numărul 126 Numărul 125 Numărul 124 Numărul 123 Numărul 122 Numărul 121 Numărul 120 Numărul 119 Numărul 118 Numărul 117 Numărul 116 Numărul 115 Numărul 114 Numărul 113 Numărul 112 Numărul 111 Numărul 110 Numărul 109 Numărul 108 Numărul 107 Numărul 106 Numărul 105 Numărul 104 Numărul 103 Numărul 102 Numărul 101 Numărul 100 Numărul 99 Numărul 98 Numărul 97 Numărul 96 Numărul 95 Numărul 94 Numărul 93 Numărul 92 Numărul 91 Numărul 90 Numărul 89 Numărul 88 Numărul 87 Numărul 86 Numărul 85 Numărul 84 Numărul 83 Numărul 82 Numărul 81 Numărul 80 Numărul 79 Numărul 78 Numărul 77 Numărul 76 Numărul 75 Numărul 74 Numărul 73 Numărul 72 Numărul 71 Numărul 70 Numărul 69 Numărul 68 Numărul 67 Numărul 66 Numărul 65 Numărul 64 Numărul 63 Numărul 62 Numărul 61 Numărul 60 Numărul 59 Numărul 58 Numărul 57 Numărul 56 Numărul 55 Numărul 54 Numărul 53 Numărul 52 Numărul 51 Numărul 50 Numărul 49 Numărul 48 Numărul 47 Numărul 46 Numărul 45 Numărul 44 Numărul 43 Numărul 42 Numărul 41 Numărul 40 Numărul 39 Numărul 38 Numărul 37 Numărul 36 Numărul 35 Numărul 34 Numărul 33 Numărul 32 Numărul 31 Numărul 30 Numărul 29 Numărul 28 Numărul 27 Numărul 26 Numărul 25 Numărul 24 Numărul 23 Numărul 22 Numărul 21 Numărul 20 Numărul 19 Numărul 18 Numărul 17 Numărul 16 Numărul 15 Numărul 14 Numărul 13 Numărul 12 Numărul 11 Numărul 10 Numărul 9 Numărul 8 Numărul 7 Numărul 6 Numărul 5 Numărul 4 Numărul 3 Numărul 2 Numărul 1
×
▼ LISTĂ EDIȚII ▼
Numărul 153
Abonamente

Actul privind inteligența artificială și impactul lui asupra companiilor

Ioana Barboș
Founder & Data Scientist @ Giraffa Analytics



DIVERSE

Actul privind inteligența artificială succede GDPR și EU Digital Services Act, fiind cea mai recentă contribuție în pachetul de reglementări privind spațiul digital în Uniunea Europeană. Scopul acestui regulament este protecția sănătății, a integrității și a drepturilor fundamentale ale cetățenilor Uniunii Europene, prin definirea unui cadru armonizat referitor la modul în care sistemele de inteligență artificială sunt dezvoltate, puse pe piață și utilizate. Reglementarea acestui domeniu vine în contextul în care Inteligența Artificială Generală suscită controverse, atrăgând critici dure și discursuri anti-progres. Dincolo de preferințele personale, un lucru este cert: Actul AI intră în vigoare după un plan etapizat, iar, în lipsa alinierii, companiile riscă amenzi administrative de până la 7% din cifra globală de afaceri, motiv suficient pentru a-i acorda atenția cuvenită.

Clasificarea în funcție de risc

O contribuție importantă a acestei reglementări este clasificarea sistemelor de inteligență artificială în patru categorii de risc: minim, limitat, crescut și inacceptabil. Această clasificare trebuie înțeleasă în strânsă legătură cu contextul în care aceste sisteme operează. Dacă ne referim la chatboți, în general, aceștia sunt clasificați ca având un grad minim de risc, însă un chatbot care asistă victimele fraudelor financiare crește nivelul de risc.

În categoria sistemelor de inteligență artificială cu risc minim asupra oamenilor intră chatboți, sisteme de recomandare, motoare de căutare, programe de sumarizare a textelor și agregatoare de știri.

Sistemele cu grad de risc limitat sunt cele care nu influențează o decizie în mod semnificativ, neavând capacitatea de a afecta persoanele asupra cărora sunt utilizate. De exemplu, un sistem AI utilizat pentru o sarcină restrânsă, precum extragerea unor informații din CV și scrierea lor într-o bază de date, fără a altera informația. Un sistem AI folosit pentru a îmbunătăți modul de realizare a unei sarcini finalizate ar fi utilizarea unui LLM pentru formularea email-urilor către candidații acceptați la un interviu.

Sistemele cu grad de risc ridicat vizează arii care sunt de natură să aibă un impact major în viața oamenilor, în cazul în care lucrurile merg prost. Accesul la educație, accesul la muncă, accesul la servicii medicale de urgență, accesul la servicii financiare, justiție sau democrație sunt câteva din contextele delicate în care sistemele de inteligență artificială trebuie să respecte cerințe de conformitate stricte. Suplimentar, intră în această categorie și sistemele din aceste domenii care realizează profilare (în termeni de data science: clusterizare, segmentare de clienți).

Sistemele cu grad de risc inacceptabil sunt interzise a se dezvolta sau utiliza pe teritoriul Uniunii Europene, anume manipularea cognitiv-comportamentală, recunoașterea emoțiilor la locul de muncă sau în unitățile de învățământ, clasificarea biometrică cu scopul deducerii datelor personale sensibile, calcularea scorurilor sociale, colectarea de imagini faciale de pe internet sau CCTV, precum și anumite soluții bazate pe analiza predictivă, destinate desfășurării activităților polițienești.

Obligații diferite

Din această clasificare decurg obligații diferențiate pentru toți actorii din lanțul de aprovizionare: dezvoltator, importator, distribuitor, implementator și angajații acestuia, mai exact toți utilizatorii sistemelor de AI în scop profesional. În acest context, implicațiile Actului AI se extind nu doar asupra celor care creează și comercializează astfel de produse, ci și asupra angajaților care își eficientizează munca cu ajutorul inteligenței artificiale pentru recrutare și selecție de personal, evaluarea performanței angajaților, marketing și comunicare, acordarea de credite bancare, întocmirea de asigurări de viață și sănătate și multe altele.

Alfabetizarea personalului în inteligență artificială este obligație.

Alfabetizarea personalului în domeniul inteligenței artificiale este o obligație conform Actului AI. Dacă până acum programele educaționale privind familiarizarea cu această tehnologie au fost la latitudinea companiilor, începând cu luna februarie 2025, ele devin o necesitate de conformitate. Astfel că toți angajații care interacționează cu sisteme de inteligență artificială în scop profesional, indiferent de gradul de risc al acestora, trebuie, cel puțin, să cunoască principiile generale de funcționare a IA, să identifice beneficiile și oportunitățile, să poată recunoaște riscurile și implicațiile etice în general și în special în contextul muncii lor și, nu în ultimul rând, să fie familiarizați cu actul privind inteligența artificială.

Transparență vs. Explicabilitate în sistemele AI

Două noțiuni care apar tot mai frecvent în discuțiile privind inteligența artificială sunt transparența și explicabilitatea.

Transparența vizează modul în care un sistem AI sau un model predictiv a fost dezvoltat, de la procesul de colectare a datelor, analiza de risc la algoritmii folosiți și performanța modelului. Obligațiile de transparență nu sunt o noutate, întrucât Digital Services Act, în vigoare din 2024, le impune deja platformelor online și motoarelor de căutare foarte mari. Mai degrabă, reprezintă o aliniere a industriei AI cu piața.

Este importantă evaluarea relevanței diferitelor aspecte ale transparenței. În situațiile în care consecința unei decizii eronate este minoră, transparența se rezumă la a informa utilizatorul că interacționează cu un sistem de AI sau a marca distinctiv conținutul generat cu ajutorul AI. La polul opus, sunt sistemele care operează în contexte cu impact major asupra drepturilor fundamentale ale omului, a sănătății și a integrității lui. Este natural ca aceste sisteme să fie mai atent controlate, ceea ce se transpune într-un set mai amplu de obligații de transparență.

Explicabilitatea se referă la înțelegerea procesului decizional, la cunoașterea motivelor care au condus modelul predictiv la un rezultat anume. În domenii importante precum recrutare, sănătate, acces la educație sau alte servicii esențiale, este necesar ca decizia sistemelor de inteligență artificială să poată fi justificată și explicată persoanei asupra căreia se răsfrânge. Recent, în februarie 2025, CJUE a explicat ce reprezintă o justificare pertinentă a deciziei unui algoritm: modul în care o modificare la nivelul datelor de intrare ar fi condus la un rezultat diferit, și nu o formulă matematică complexă sau descrierea etapelor decizionale, care mai mult ar bulversa, decât ar informa solicitantul. Mai exact, dacă venitul sau sexul ar fi fost diferit, cum s-ar fi modificat decizia.

Care este locul acestor două noțiuni în contextul Actului privind inteligența artificială? Transparența devine o obligație, iar neconformarea atrage după sine penalități. Explicabilitatea este baza unei relații de încredere.

Transparența în practică

Majoritatea sistemelor AI sunt cu risc scăzut sau limitat. Dintre acestea menționăm chatboții, și sistemele de recomandare. Dezvoltatorii acestor tipuri de produse se vor asigura ca pentru persoanele care interacționează cu ele să fie evident că este vorba de inteligență artificială.

Dacă produsul final este conținut generat: audio, video, foto sau text, acesta va fi marcat corespunzător de către dezvoltator. Mai mult și companiile care utilizează acest tip de conținut trebuie să menționeze acest lucru, întărind respectarea transparenței. Dacă este vorba de text conținând informații de interes public, manipulat sau generat artificial (re-organizat, structurat, reformulat, sumarizat), acest lucru trebuie precizat.

Dacă ne referim la sisteme cu grad ridicat de risc, acestea trebuie însoțite de instrucțiuni de folosire, accesibile și pe înțelesul utilizatorilor, astfel încât să asigure o interpretare corectă a rezultatelor sistemului. Acestora li se adaugă obligația utilizatorului de a informa persoanele în cauză că asupra lor se folosește un sistem cu inteligență artificială. De exemplu, comunicarea acestui lucru unui client al băncii care aplică pentru un credit, unui pacient în cadrul departamentului de radiologie, sau unui candidat contactat prin Linkedin.

Care sunt pașii următori?

2 August 2025 este termenul până la care se va înființa autoritatea națională competentă responsabilă cu supravegherea pieței și comunicarea cu autoritățile europene.

Pentru dezvoltatorii sistemelor de inteligență artificială este necesar un inventar al proiectelor în contextul în care acestea operează, urmat de stabilirea gradului de risc asociat. În urma acestei evaluări preliminare se va continua cu luarea măsurilor necesare conformității cu Actul AI.

Similar, pentru companiile care utilizează sisteme de inteligență artificială, este necesar un inventar al tuturor sistemelor de inteligență artificială utilizate în cadrul companiei și a contextului în care sunt utilizate. Personalul care interacționează cu aceste sisteme trebuie alfabetizat pe două niveluri: cunoștințe generale și training specializat în contextul muncii pe care o desfășoară. Apoi, se continuă cu evaluarea riscurilor acestor sisteme, fie prin contact direct cu furnizorul, fie apelând la consultanți externi specializați.

Actul privind inteligența artificială intră în vigoare secvențial, după un plan prestabilit. Primele prevederi privind sistemele interzise și alfabetizarea sunt active de anul acesta, urmând ca în 1 August 2026 să intre în vigoare restul prevederilor.

Biografie:

  1. AI Act

  2. Programul de intrare în vigoare al AI Act

  3. Digital Services Act

  4. GDPR

  5. LegalUp

  6. AI Literacy courses

Conferință TSM

NUMĂRUL 150 - Technologiile SAP ABAP

Sponsori

  • BT Code Crafters
  • Bosch
  • Betfair
  • MHP
  • BoatyardX
  • .msg systems
  • P3 group
  • Ing Hubs
  • Cognizant Softvision
  • GlobalLogic
  • Colors in projects