Inteligența artificială a intrat firesc în conversațiile de zi cu zi, de la sălile de ședință până la discuțiile târzii din grupurile de prieteni. Dar în cursa globală de a construi "următorul model revoluționar", sărim adesea peste întrebarea mai importantă: construim sistemele potrivite pentru clienții noștri sau doar pe cele care sună impresionant?
Puterea AI-ului vine cu o provocare pe care nu o mai putem ignora: bias istoric ascuns în seturile de date, discriminare și modele care uneori reproduc ce este mai rău în comportamentul uman. Aceste sisteme nu doar reflectă societatea, ele arată cine riscăm să devenim dacă le proiectăm orbește. Provocarea centrală a AI-ului responsabil este simplă: cum amplificăm capacitatea umană fără a face rău oamenilor?
Mulți susțin că reglementările încetinesc Europa. Când vedem SUA și China lansând noi inovații în timp ce Europa dezbate cum să nu pierdem capacul de sticlă, este ușor să simți că pierdem cursa.
Dar eu nu sunt de acord. Consider că reglementarea nu este slăbiciunea Europei, ci avantajul ei pe termen lung.
Un exemplu clar este tehnologia de a încerca să oprească copierea în examene folosită de Vrije Universiteit Amsterdam în timpul pandemiei de COVID-19. Creată fără ideea de etică în minte, tehnologia nu putea recunoaște fiabil studenții cu tonuri mai închise ale pielii. Unii au fost blocați complet să participe la examene, ceea ce a dus la reacții publice și acțiuni legale.
Acest caz arată un adevăr simplu: fără reglementări bine gândite, chiar și un AI creat cu bune intenții poate adânci inegalitățile în loc să rezolve problemele. O bună guvernanță nu încetinește inovația, ci se asigură că inovația servește tuturor.
Mai jos am atașat arhitectura pe care o folosesc de obicei atunci când construiesc un sistem AI. Este rezultatul experienței mele și al reglementărilor pe care le respect. Este genul de template pe care mi-aș fi dorit să îl fi avut când am început să dezvolt sisteme AI.
Prea des, echipele presupun că știu care este cea mai mare problemă a utilizatorului și sar direct în dezvoltare. În tehnologia care evoluează rapid, asta pare eficient, dar duce adesea la construirea unor lucruri de care nimeni nu are cu adevărat nevoie.
În primul meu hackathon global AI, echipa mea a decis să rezolve ceea ce credeam noi că este cea mai mare problemă din educație în timpul COVID. Am construit un instrument de eye-tracking pentru a măsura atenția studenților. După ce ne-am chinuit cu configurarea în cloud, am împărtășit ideea online și am primit mii de comentarii negative care subliniau că nimeni nu dorește astfel de soluții.
Un sondaj ulterior a arătat că problema reală nu era atenția, ci conectivitatea slabă la internet. Acest insight ne-a condus la următorul pas.
Este important ca, în timp ce creăm o soluție, să menținem posibilii utilizatori în buclă și să fim deschiși la feedback pentru a construi un produs cu adevărat necesar. Uneori, pe măsură ce dezvoltăm, devenim prea atașați de propria soluție, și doar oamenii din exterior pot vedea problemele reale ale soluției.
După ce am schițat din nou soluția - un instrument speech-to-text care permite studenților să recupereze materialul chiar și în condiții de internet slab - am revenit cu el la profesori și elevi. Feedbackul lor a îmbunătățit enorm soluția: pentru că aceștia ne-au oferit ideea de a introduce funcția de trimitere automată a textului pierdut în timpul unei căderi totale de internet, astfel încât studenții să poată recupera mai rapid ceea ce au pierdut.
Biasul poate apărea în multe forme și structuri, dar este clar că ignorarea lui nu îl elimină. Conștientizarea biasului ne permite să construim soluțiile în mod corect.
Exemplu: Pentru sistemul nostru, variațiile limbajului erau cel mai mare risc: accente, dialecte, vocabular specific materiilor, abrevieri. Așa că am colectat date audio în engleză din surse globale diverse, am analizat unde reprezentarea era insuficientă pentru a adăuga mai multă "greutate" acelor exemple. Apoi am ajustat modelul la stilul de vorbire al fiecărui utilizator, similar cu modul în care Siri se adaptează la începutul setărilor.
Primul pas este de a afla unde se situează un sistem în piramida de risc a EU AI Act, ca mai apoi să înțelegem ce măsuri de protecție sunt necesare.
Sistemul nostru nu lua decizii care afectau note, sănătate sau siguranță, deci se încadra în categoria de risc limitat. Asta însemna să ne concentrăm pe transparență. Am construit o pagină web clară, ușor de înțeles, care explică exact ce date colectăm, cum le procesăm și când le ștergem.
Colectează doar ceea ce ai cu adevărat nevoie.
Exemplu: Am capturat doar inputul audio și datele despre bandwidth data.
Colectează minimul necesar și nu păstra datele mai mult decât este nevoie.
Exemplu: Sistemul nostru realiza o transformare end-to-end a vorbirii în text. După convertire, înregistrarea audio era ștearsă, iar la finalul cursului, și transcrierea dispărea.
Asigură-te că datele sunt gestionate legal, corect și transparent, actualizate și procesate fără discriminare.
Exemplu: Eșecuri precum sistemul de detectare a copierii de la VU arată ceea ce se întâmplă când corectitudinea nu este construită în sistem.
Protejarea datelor trebuie integrată în sistem încă de la început, astfel încât utilizatorii să nu fie nevoiți să modifice setări pentru a fi în siguranță.
Exemplu: Sistemul nostru folosea etichete anonime precum "student" și "profesor", niciodată nume reale de la începutul folosirii aplicației.
Obține consimțământ informat de la toți utilizatorii și de la părinți în cazul minorilor.
Exemplu: Atât profesorii, cât și elevii trebuiau să-și dea acordul la crearea contului.
Sistemul trebuie testat dincolo de scenarii controlate, cu atenție la cazurile extreme, pentru a asigura acuratețe și o experiență plăcută pentru fiecare utilizator.
Exemplu: În roadmapul nostru am inclus sesiuni pilot experimentale, oferind aplicația gratuit unor clase selectate pentru a observa performanța sistemului în diverse medii.
Prin urmarea acestei arhitecturi, echipele se mișcă poate mai lent la început, dar construiesc sisteme mai sigure, mai incluzive și mult mai durabile, atât tehnic, cât și etic.
La final, reglementările nu complică designul AI, ci îl clarifică. Odată ce construiești cu această mentalitate, devine natural. Asta s-a întâmplat și la mine: după ce am văzut impactul unui AI bine făcut, nu mi-am mai dorit niciodată să proiectez altfel.