ABONAMENTE VIDEO REDACȚIA
RO
EN
Numărul 162
NOU
Numărul 161
Numărul 160 Numărul 159 Numărul 158 Numărul 157 Numărul 156 Numărul 155 Numărul 154 Numărul 153 Numărul 152 Numărul 151 Numărul 150 Numărul 149 Numărul 148 Numărul 147 Numărul 146 Numărul 145 Numărul 144 Numărul 143 Numărul 142 Numărul 141 Numărul 140 Numărul 139 Numărul 138 Numărul 137 Numărul 136 Numărul 135 Numărul 134 Numărul 133 Numărul 132 Numărul 131 Numărul 130 Numărul 129 Numărul 128 Numărul 127 Numărul 126 Numărul 125 Numărul 124 Numărul 123 Numărul 122 Numărul 121 Numărul 120 Numărul 119 Numărul 118 Numărul 117 Numărul 116 Numărul 115 Numărul 114 Numărul 113 Numărul 112 Numărul 111 Numărul 110 Numărul 109 Numărul 108 Numărul 107 Numărul 106 Numărul 105 Numărul 104 Numărul 103 Numărul 102 Numărul 101 Numărul 100 Numărul 99 Numărul 98 Numărul 97 Numărul 96 Numărul 95 Numărul 94 Numărul 93 Numărul 92 Numărul 91 Numărul 90 Numărul 89 Numărul 88 Numărul 87 Numărul 86 Numărul 85 Numărul 84 Numărul 83 Numărul 82 Numărul 81 Numărul 80 Numărul 79 Numărul 78 Numărul 77 Numărul 76 Numărul 75 Numărul 74 Numărul 73 Numărul 72 Numărul 71 Numărul 70 Numărul 69 Numărul 68 Numărul 67 Numărul 66 Numărul 65 Numărul 64 Numărul 63 Numărul 62 Numărul 61 Numărul 60 Numărul 59 Numărul 58 Numărul 57 Numărul 56 Numărul 55 Numărul 54 Numărul 53 Numărul 52 Numărul 51 Numărul 50 Numărul 49 Numărul 48 Numărul 47 Numărul 46 Numărul 45 Numărul 44 Numărul 43 Numărul 42 Numărul 41 Numărul 40 Numărul 39 Numărul 38 Numărul 37 Numărul 36 Numărul 35 Numărul 34 Numărul 33 Numărul 32 Numărul 31 Numărul 30 Numărul 29 Numărul 28 Numărul 27 Numărul 26 Numărul 25 Numărul 24 Numărul 23 Numărul 22 Numărul 21 Numărul 20 Numărul 19 Numărul 18 Numărul 17 Numărul 16 Numărul 15 Numărul 14 Numărul 13 Numărul 12 Numărul 11 Numărul 10 Numărul 9 Numărul 8 Numărul 7 Numărul 6 Numărul 5 Numărul 4 Numărul 3 Numărul 2 Numărul 1
×
▼ LISTĂ EDIȚII ▼
Numărul 162
Abonamente

Construirea unui AI Etic: Cum se întâlnesc arhitectura, datele și reglementarea

Andreea Giurgiu
AI Master Student @ Vrije Universiteit Amsterdam



PROGRAMARE

Inteligența artificială a intrat firesc în conversațiile de zi cu zi, de la sălile de ședință până la discuțiile târzii din grupurile de prieteni. Dar în cursa globală de a construi "următorul model revoluționar", sărim adesea peste întrebarea mai importantă: construim sistemele potrivite pentru clienții noștri sau doar pe cele care sună impresionant?

Puterea AI-ului vine cu o provocare pe care nu o mai putem ignora: bias istoric ascuns în seturile de date, discriminare și modele care uneori reproduc ce este mai rău în comportamentul uman. Aceste sisteme nu doar reflectă societatea, ele arată cine riscăm să devenim dacă le proiectăm orbește. Provocarea centrală a AI-ului responsabil este simplă: cum amplificăm capacitatea umană fără a face rău oamenilor?

Mulți susțin că reglementările încetinesc Europa. Când vedem SUA și China lansând noi inovații în timp ce Europa dezbate cum să nu pierdem capacul de sticlă, este ușor să simți că pierdem cursa.

Dar eu nu sunt de acord. Consider că reglementarea nu este slăbiciunea Europei, ci avantajul ei pe termen lung.

Un exemplu clar este tehnologia de a încerca să oprească copierea în examene folosită de Vrije Universiteit Amsterdam în timpul pandemiei de COVID-19. Creată fără ideea de etică în minte, tehnologia nu putea recunoaște fiabil studenții cu tonuri mai închise ale pielii. Unii au fost blocați complet să participe la examene, ceea ce a dus la reacții publice și acțiuni legale.

Acest caz arată un adevăr simplu: fără reglementări bine gândite, chiar și un AI creat cu bune intenții poate adânci inegalitățile în loc să rezolve problemele. O bună guvernanță nu încetinește inovația, ci se asigură că inovația servește tuturor.

Mai jos am atașat arhitectura pe care o folosesc de obicei atunci când construiesc un sistem AI. Este rezultatul experienței mele și al reglementărilor pe care le respect. Este genul de template pe care mi-aș fi dorit să îl fi avut când am început să dezvolt sisteme AI.

Înțelege problema reală.

Prea des, echipele presupun că știu care este cea mai mare problemă a utilizatorului și sar direct în dezvoltare. În tehnologia care evoluează rapid, asta pare eficient, dar duce adesea la construirea unor lucruri de care nimeni nu are cu adevărat nevoie.

Exemplu:

În primul meu hackathon global AI, echipa mea a decis să rezolve ceea ce credeam noi că este cea mai mare problemă din educație în timpul COVID. Am construit un instrument de eye-tracking pentru a măsura atenția studenților. După ce ne-am chinuit cu configurarea în cloud, am împărtășit ideea online și am primit mii de comentarii negative care subliniau că nimeni nu dorește astfel de soluții.

Un sondaj ulterior a arătat că problema reală nu era atenția, ci conectivitatea slabă la internet. Acest insight ne-a condus la următorul pas.

Co-Design împreună cu utilizatorul.

Este important ca, în timp ce creăm o soluție, să menținem posibilii utilizatori în buclă și să fim deschiși la feedback pentru a construi un produs cu adevărat necesar. Uneori, pe măsură ce dezvoltăm, devenim prea atașați de propria soluție, și doar oamenii din exterior pot vedea problemele reale ale soluției.

Exemplu

După ce am schițat din nou soluția - un instrument speech-to-text care permite studenților să recupereze materialul chiar și în condiții de internet slab - am revenit cu el la profesori și elevi. Feedbackul lor a îmbunătățit enorm soluția: pentru că aceștia ne-au oferit ideea de a introduce funcția de trimitere automată a textului pierdut în timpul unei căderi totale de internet, astfel încât studenții să poată recupera mai rapid ceea ce au pierdut.

Testează incluziunea încă de la început.

Biasul poate apărea în multe forme și structuri, dar este clar că ignorarea lui nu îl elimină. Conștientizarea biasului ne permite să construim soluțiile în mod corect.

Exemplu: Pentru sistemul nostru, variațiile limbajului erau cel mai mare risc: accente, dialecte, vocabular specific materiilor, abrevieri. Așa că am colectat date audio în engleză din surse globale diverse, am analizat unde reprezentarea era insuficientă pentru a adăuga mai multă "greutate" acelor exemple. Apoi am ajustat modelul la stilul de vorbire al fiecărui utilizator, similar cu modul în care Siri se adaptează la începutul setărilor.

Identifică nivelul de risc al sistemului (Piramida EU AI Act).

Primul pas este de a afla unde se situează un sistem în piramida de risc a EU AI Act, ca mai apoi să înțelegem ce măsuri de protecție sunt necesare.

Sistemul nostru nu lua decizii care afectau note, sănătate sau siguranță, deci se încadra în categoria de risc limitat. Asta însemna să ne concentrăm pe transparență. Am construit o pagină web clară, ușor de înțeles, care explică exact ce date colectăm, cum le procesăm și când le ștergem.

Aplică principiile GDPR (Data Ethics Checklist).

1. Limitarea datelor asupra scopului.

Colectează doar ceea ce ai cu adevărat nevoie.

Exemplu: Am capturat doar inputul audio și datele despre bandwidth data.

2. Minimizarea datelor și limitarea stocării.

Colectează minimul necesar și nu păstra datele mai mult decât este nevoie.

Exemplu: Sistemul nostru realiza o transformare end-to-end a vorbirii în text. După convertire, înregistrarea audio era ștearsă, iar la finalul cursului, și transcrierea dispărea.

3. Legalitate, corectitudine și transparență.

Asigură-te că datele sunt gestionate legal, corect și transparent, actualizate și procesate fără discriminare.

Exemplu: Eșecuri precum sistemul de detectare a copierii de la VU arată ceea ce se întâmplă când corectitudinea nu este construită în sistem.

4. Confidențialitate datelor prin design și implicit.

Protejarea datelor trebuie integrată în sistem încă de la început, astfel încât utilizatorii să nu fie nevoiți să modifice setări pentru a fi în siguranță.

Exemplu: Sistemul nostru folosea etichete anonime precum "student" și "profesor", niciodată nume reale de la începutul folosirii aplicației.

5. Consimțământ valid.

Obține consimțământ informat de la toți utilizatorii și de la părinți în cazul minorilor.

Exemplu: Atât profesorii, cât și elevii trebuiau să-și dea acordul la crearea contului.

6. Validează în condiții reale

Sistemul trebuie testat dincolo de scenarii controlate, cu atenție la cazurile extreme, pentru a asigura acuratețe și o experiență plăcută pentru fiecare utilizator.

Exemplu: În roadmapul nostru am inclus sesiuni pilot experimentale, oferind aplicația gratuit unor clase selectate pentru a observa performanța sistemului în diverse medii.

Concluzie

Prin urmarea acestei arhitecturi, echipele se mișcă poate mai lent la început, dar construiesc sisteme mai sigure, mai incluzive și mult mai durabile, atât tehnic, cât și etic.

La final, reglementările nu complică designul AI, ci îl clarifică. Odată ce construiești cu această mentalitate, devine natural. Asta s-a întâmplat și la mine: după ce am văzut impactul unui AI bine făcut, nu mi-am mai dorit niciodată să proiectez altfel.

NUMĂRUL 159 - Industria Automotive

Sponsori

  • BT Code Crafters
  • Bosch
  • Betfair
  • MHP
  • BoatyardX
  • .msg systems
  • P3 group
  • Ing Hubs
  • Cognizant Softvision
  • GlobalLogic
  • BMW TechWorks Romania

Andreea Giurgiu a mai scris