Recunosc că filmul The Social Dilemma mi-a dat de gândit și mi-a inspirat acest articol. Nu insist pe subiectul filmului, pentru că bănuiesc că mulți dintre cititorii revistei îl cunosc. Oricum, știam cu toții și înainte de a vedea acest film, că noi, oamenii, suntem urmăriți, analizați și "tranzacționați" de marile companii IT, cu ale lor super-computere și algoritmi inteligenți. Mai pe scurt: noi suntem "produsul" râvnit de aceste companii.
Așadar, simt nevoia ca la finalul unui an provocator, să propun o temă ce ține în primul rând de etică, dar și de practică: interferența dintre tehnologiile denumite generic artificial intelligence (AI) și drepturile noastre ca indivizi. De aceea, vă invit să reflectați la modul în care AI influențează drepturile și libertățile câștigate cu greu de societatea noastră.
În plină pandemie, pe 24 iunie 2020, Agenția pentru Drepturi Fundamentale a Uniunii Europene (FRA) a vrut să obțină unele răspunsuri la întrebarea de mai sus, așa că a realizat studiul Fundamental Rights Survey.
Știu oamenii ce este Carta Drepturilor Fundamentale a UE?
Cunosc oamenii faptul că - alături de demnitatea umană, dreptul la viață, dreptul la libertate, nediscriminarea, libertatea de gândire, libertatea de exprimare și de informare, dreptul la educație, dreptul de proprietate etc. - art. 8 al Cartei mai sus-menționate stabilește protecția datelor cu caracter personal ca fiind parte a drepturilor și libertăților cetățenilor UE?
Ce reiese din studiul Fundamental Rights Survey din iunie 2020 este că, pentru unii oameni, drepturile fundamentale, democrația și statul de drept sunt concepte îndepărtate de viața și preocupările lor cotidiene.
Atunci când i s-a prezentat la sondaj afirmația negativă "Drepturile omului sunt lipsite de sens pentru mine în viața de zi cu zi", una din cinci persoane din UE a spus că "sunt de acord" sau "tind să fiu de acord" . În România 33% din respondenți au fost de acord sau au manifestat tendința de a fi de acord. Cel mai mic procent de oameni care sunt de acord sau au tendința de a fi de acord cu afirmația de mai sus se găsește în Cipru (7%), Malta (10%), Portugalia, Spania și Suedia (14% în fiecare).
Recent, pe 14 decembrie 2020, aceeași Agenție pentru Drepturi Fundamentale a Uniunii Europene (FRA) a făcut un nou sondaj de opinie în țările UE (inclusiv în România) și a emis raportul Getting the future right - Artificial intelligence and fundamental rights. Sunt puse în discuție posibilele implicații pentru drepturile fundamentale și este analizat modul în care aceste drepturi sunt luate în considerare atunci când se utilizează sau se dezvoltă aplicații AI în țările UE.
Subiecte abordate în raport:
AI și drepturile fundamentale - relevanța discuției;
Punerea drepturilor fundamentale în context - exemple practice cu AI;
Cadrul drepturilor fundamentale aplicabil AI;
Impactul utilizării actuale a AI asupra drepturilor fundamentale;
Recomandarea de a se face o evaluare a impactului asupra drepturilor fundamentale - un instrument practic pentru protejarea drepturilor fundamentale;
Raportul prezintă exemple concrete privind modul în care companiile și administrațiile publice din țările UE utilizează sau încearcă să utilizeze AI și analizează modul în care drepturile fundamentale ale oamenilor sunt luate în considerare atunci când se folosesc sau se dezvoltă aplicații AI. De asemenea, se concentrează pe câteva domenii esențiale - beneficii sociale, servicii de sănătate, publicitate targetată și predictive policing.
Studiul care stă la baza raportului a implicat interviuri cu reprezentanți ai administrațiilor publice și ai companiilor private din UE care sunt implicate în utilizarea AI pentru serviciile lor, precum și interviuri cu experți care lucrează în domeniul AI. Pentru acest proiect, s-a folosit definiția AI furnizată de Grupul de experți la nivel înalt în domeniul inteligenței artificiale (AI HLEG) care extinde definiția propusă de Comisia Europeană (redată mai jos):
AI is understood broadly as systems and applications that display intelligent behaviour by analysing their environment and taking actions - with some degree of autonomy - to achieve specific goals. AI-based systems can be purely software-based, acting in the virtual world (e.g., voice assistants, image analysis software, search engines, speech and face recognition systems) or AI can be embedded in hardware devices (e.g., advanced robots, autonomous cars, drones or Internet of Things applications).
De exemplu, în administrația publică, AI ar putea fi un sistem software care alocă automat resurse sau susține deciziile funcționarilor publici.
Proiectul se concentrează pe aplicațiile care sprijină luarea deciziilor pe baza datelor (de exemplu, prin machine learning) și pe aplicațiile și sistemele care contribuie la automatizarea sarcinilor care sunt îndeplinite, de obicei, de oameni sau care nu pot fi întreprinse de oameni din cauza dimensiunii lor. Nu se referă la simpla digitalizare a fluxurilor de lucru care se bazau pe hârtie și nici la simpla utilizare a statisticilor pentru a sprijini deciziile.
Cu titlu de exemplu, dacă sistemul AI folosește date cu caracter personal, se va aplica întregul cadru legal aplicabil în domeniu. Acest lucru face posibil ca prelucrarea datelor să fie legală și să nu încalce datele cu caracter personal ale vreunui individ sau dreptul său la viața privată și de familie (toate acestea, ca drepturi și libertăți fundamentale). Alte drepturi și libertăți fundamentale pot fi relevante, în funcție de sectorul în care se folosește AI, precum:
dreptul la protecție socială, atunci când AI lucrează cu beneficii sociale (salarii, pensii etc.);
dreptul la libertatea de exprimare și informare, atunci când se utilizează AI pentru moderarea conținutului online;
dreptul de întrunire și de asociere, atunci când se ia în considerare utilizarea tehnologiilor de recunoaștere facială în spațiile publice;
dreptul la educație, atunci când se folosește AI în sectorul educației;
dreptul la condiții de muncă echitabile și corecte, atunci când se utilizează AI la locul de muncă;
Exemple de răspunsuri la sondaj (problematica AI - date cu caracter personal):
"We did not touch the topic because we assume that there are no human rights issues involved: all the activities are within the legal framework, all the activities are compliant with data protection and good practices, and therefore we assume that there are no human rights issues related to these systems."
(Administrația publică, Spania)
"We were a little anxious when the GDPR was implemented, but in the end it meant managing datasets and access rights […] It is a good reminder that not everything can be or should be done."
(Administrația publică, Finlanda)
"I do not think that we should regulate specific technology like AI. It is sufficient to have general principles and technology-neutral rules."
(Sectorul privat, Estonia)
"There is the GDPR but it does not give you specific rules. It gives principles but it comes down to ethical issues and interpretation."
(Companie privată, Estonia)
"When testing the system, we did not really look at the legal aspects, we looked at whether the system is profitable."
(Companie privată, Estonia)
"Yes, we assess the legality of personal data protection and the conformity with their specific legal acts."
(Administrația publică, Estonia)
"Actually, I'm concerned that the GDPR might hinder AI research. I'm afraid that some large databases that we have used previously cannot be used for our research anymore."
(Companie privată, Olanda)
"There is a huge tension surrounding the GDPR. So we want to do well, but might in fact be worse off, because interpretation of the data then turns out to be impossible."
(Administrația publică, Olanda)
"If we had to explain the model, we wouldn't be able to. The model is statistical and not very explainable."
(Administrația publică, Franța)
Exemple de răspunsuri la sondaj (problematica AI - principiul nediscriminării):
"If you want the machine not to discriminate on the basis of sex, do not put the variable of sex, as easy as that, or make the examples symmetrical if you notice that sex has certain relevance."
(Administrația publică, Spania)
"For discrimination, it's complicated because some diseases are more present in certain ethnic groups. Predictions take into account the sexual, ethnic, genetic character. But it is not discriminatory or a violation of human rights."
(Sectorul privat, Franța)
Ceea ce pare că transpare din exemplele de mai sus este faptul că mulți par să îmbrățișeze AI, dar relativ puțini se gândesc și la implicații sau riscuri.
AI joacă deja un rol impresionant în luarea multor decizii care ne vizează. Cu siguranță, va fi folosit din ce în ce mai mult pentru că prezintă posibilități - aparent - nesfârșite.
Dar - previzibil - se vorbește intens și din ce în ce mai des despre un viitor cadru de reglementare al UE pentru AI, iar 2021 poate fi un an important în acest sens. Raportul emis de FRA la final de 2020 oferă un punct de vedere ce va fi luat în considerare. Am reținut și aspectul conform căruia FRA consideră posibil ca, regulat, să fie necesară reevaluarea definiției juridice a conceptelor din zona AI (tocmai pentru că termenul AI include tehnologii foarte variate, și pentru că nu se cunoaște încă bine impactul pe care AI îl poate avea asupra drepturilor fundamentale ale oamenilor).
Având în vedere reformele legislative din ultimii ani (GDPR, NIS, dreptul de autor în mediul digital etc.), totul ne indică că legislația încearcă să țină pasul cu evoluția galopantă a tehnologiei. Dacă va reuși sau nu, vom vedea în anii ce urmează. Dar, din când în când, și mai ales în vremuri tulburi, este important să nu uităm că drepturile omului stau la baza libertății, egalității și bunei funcționări a oricărei societăți democratice. Ele sunt valori fundamentale ale UE.
Iar ca încheiere, îl citez pe Michael O'Flaherty, directorul FRA:
"AI is not infallible, it is made by people - and humans can make mistakes. That is why people need to be aware when AI is used, how it works and how to challenge automated decisions."
de Ovidiu Mățan
de Mihai Talpoș