Acest articol explorează provocările și riscurile nevăzute asociate cu avansul rapid al inteligenței artificiale. Sub aparența progresului tehnologic, AI poate ascunde pericole vizând confidențialitatea, etica, evoluția pieței muncii și a societății.
Talos este o figură mitologică din Grecia Antică descris ca fiind un gigant de bronz, dotat cu abilități incredibile în adoptarea deciziilor automate, creat de zei pentru a proteja insula Creta împotriva invadatorilor. (Este un fel de precursor mitic al roboților de astăzi, precum cei de la Boston Dynamics).Talos a fost în cele din urmă învins prin exploatarea unei singure vulnerabilități, o țeavă de pe piciorul său prin care își hrănea forța.
Cu toate acestea, ani mai târziu, s-a dovedit că aparatul era o înșelătorie, deoarece acesta era controlat de un om ascuns într-o încăpere. Această poveste arată cât de ușor suntem păcăliți și cât de impresionați suntem de tehnologie, chiar și atunci când lucrurile par prea bune ca să fie adevărate.
Capul de aramă: O legendă din Europa medievală povestește despre un cap mecanic sau artificial făcut din aramă sau bronz, capabil să răspundă oricărei întrebări adresate. Se credea că acest cap ar putea oferi înțelepciune și cunoștințe vaste despre orice. (Acesta poate fi precursorul direct al lui ChatGPT, Gemini sau Copilot.). Însă, precum multe alte povești din acea perioadă, Capul de aramă este mai mult o legendă decât un fapt concret. Nu există dovezi că un astfel de cap a fost cu adevărat creat.
IA se materializează la mijlocul secolului al XX-lea, când pionierii Alan Turing și John McCarthy au pus bazele conceptualizării mașinilor inteligente. De-a lungul decadelor s-au realizat etape semnificative, de la dezvoltarea sistemelor experte până la apariția rețelelor neuronale și la dezvoltarea învățării automate (Machine Learning). În plus, dezvoltarea învățării automate (Machine Learning) a deschis calea către sistemele care pot învăța și se pot adapta în mod autonom, fără a fi nevoie de o programare explicită.
Aceste evoluții demonstrează un potențial uriaș al IA în domenii precum medicina, industria auto, educația, comerț electronic, transportul autonom și asistența personalizată.
Realizări precum victoria lui Deep Blue de la IBM împotriva marelui maestru de șah Garry Kasparov în 1996 și înfrângerea campionului mondial Lee Sedol de AlphaGo al DeepMind la jocul Go în 2016 ar trebui să ne dea o idee despre traiectoria IA pentru viitor.
Însă capacitatea IA de a câștiga jocuri nu reprezintă nici 1% din potențialul său.
Compania NVIDIA estimează că peste 10 ani, jocurile video vor fi create exclusiv de IA Generativ, oferind astfel fiecărui jucător o experiență unică în joc.
Integrarea IA în viața noastră a fost graduală și profundă. De la asistenții virtuali precum Siri și Alexa, care simplifică sarcinile banale, până la algoritmii de recomandare care îmbunătățesc experiențele noastre online, IA a devenit un companion indispensabil. Dispozitivele inteligente pentru casă (IoT), vehiculele autonome și aplicațiile personalizate de îngrijire a sănătății subliniază și mai mult prezența sa pătrunzătoare, remodelând modul în care interacționăm cu lumea din jurul nostru.
Toate dispozitivele noi, în special smartphone-urile, se laudă cu adoptarea IA: asistenți virtuali, recunoașterea facială, asistență în editarea pozelor sau a textului etc.
Frigiderele inteligente sunt în stare să ne cunoască atât de bine încât ne pot număra aportul de calorii și ne avertizează dacă acesta este prea mare.
Alexa transformă orice casă în locuință smart: controlează luminile, jaluzelele, temperatura, securitatea etc.
Pentru ca AI să funcționeze conform specificațiilor, proprietarul trebuie să acorde permisiunea pentru preluarea controlului asupra taskurilor menționate mai sus. Această acțiune permite AI-ului să aibă acces la o cantitate semnificativă de informații și să efectueze anumite acțiuni, generând două probleme distincte:
Pentru ca IA-ul să crească, are nevoie de un flux continuu de date. Aceste date îi sunt furnizate gratuit de viitorul posesor al unei case smart. Alexa, Siri și Google ascultă tot timpul și se hrănesc cu datele noastre: obiceiuri, gusturi, acțiuni etc. Datele noastre cu caracter personal sunt cele mai râvnite informații pe internet. PII (Personal Identification Information) sunt mai valoroase în mainile potrivite decât informațiile bancare pentru că informațiile furate de pe cardul bancar se pot folosi o dată, dar informațiile personale reprezintă o sursă inepuizabilă de informații despre un individ. IA-ul integrat nu este tocmai transparent în ceea ce privește prelucrarea datelor cu caracter personal.
IA revoluționează industrii din întreg spectrul: industria muzicală, artă, IT, industria editorială, film, relații cu clienții etc.
Iată câteva probleme:
A. "Angajarea" unui robot poate duce la demiterea a trei oameni. Deși IA are un impact pozitiv asupra productivității, vitezei și eficienței angajaților. Din păcate, poate duce, de asemenea, la pierderi semnificative de locuri de muncă și la șomaj în mai multe sectoare. "According to McKinsey & Company, automation may cause a displacement of 400 to 800 million jobs by 2030, resulting in up to 375 million individuals needing to transition to different job categories."
B. Se pare ca IA-ului îi plac stereotipurile, gândind asta, oferă informații false. Din această cauză apar discriminări involuntare și consecințe sociale negative. Când întrebi chat botul să îți arate poze cu oameni de știință. Iată rezultatul:
A se observa "patternul": halat alb, bărbat caucazian, ochelari de vedere.
Un alt exemplu negativ este că IA-ul poate cataloga/eticheta o anumită etnie de oameni. Acest gest poate indigna și induce în eroare utilizatorii. Cum se ajunge aici este explicat în 6.III.
C. Adio intimitate! Pe măsură ce ne străduim să automatizăm tot mai mult și să lucrăm cât mai comod și productiv, este posibil să ne fi sacrificat intenționat sau neintenționat un aspect crucial: confidențialitatea noastră. Pentru ca chat-botul să ne dea un răspuns cât mai detaliat și mai precis, este nevoie să-l hrănim cu date reale și uneori intime.
D. Chat-botul IA (ChatGPT) nu știe chiar tot: învață continuu. Învățarea rezultă din analiza și sintetizarea informațiilor dintr-o sumedenie de texte. Prin interacțiunea cu o varietate de întrebări și subiecte, ChatGPT procesează, asociază și înțelege informațiile. De asemenea, noi utilizatorii contribuim la dezvoltarea și rafinarea cunoștințelor ChatGPT-ului prin întrebările și conversațiile pe care le au împreună. Deci informațiile IA-ului depind într-o mare măsură de persoanele cu care interacționează.
Asta înseamnă că datele generate pot fi adesea inexacte sau având sursa de date necunoscută, ceea ce poate fi foarte incomod și, în unele cazuri, problematic.
IA este adesea percepută ca o "cutie neagră" datorită opacității și complexității sale în ceea ce privește modul în care ajunge la anumite concluzii sau decizii. Opacitatea și complexitatea modelelor de IA ridică preocupări legate de transparență, responsabilitate și încredere în sistemele de IA. Nu este 100% clar cum ajunge GPT-ul la o concluzie finală, întrucât interpretarea datelor pare fi aleatorie și, uneori, GPT-ul este predictibil deși nu ar trebui să fie.
Intrarea acestei tehnologii în mediul profesional ar trebui gestionată cu precauție și introdusă treptat și cu restricții pentru a minimiza riscurile potențiale și pentru a asigura o utilizare etică și sigură.
Cele patru probleme cu IA și ChatGPT:
Prima problemă este dependența noastră de IA și ChatGPT. Acesta ne augmentează gândirea și abilitatea de a scrie și comunica online, însă folosindu-l excesiv ni se reduce abilitatea de gândire critică. De asemenea, ne limitează capacitatea de analiză și evaluare a informațiilor pe cont propriu și ne afectează abilitatea de a comunica "live" cu persoane. Cine alege să se exprime doar prin ChatGPT își va afecta abilitățile de comunicare. Folosirea excesivă a IA pentru a ne face mai ușoare munca și taskurile poate avea efecte negative asupra dezvoltării noastre personale și profesionale.
A doua problemă este cea de marketing. Utilizarea necontrolată a cuvântului AI. În ultimii doi ani, s-a abuzat de termenul "AI", care a devenit omniprezent în discuțiile despre tehnologie și inovație. "Powered by AI" apare pe site-uri, în smartphone-uri, în laptopuri, deși nu este 100% adevărată afirmația. Aceste afirmații aruncate în orice context de tehnologie nouă poartă denumirea de "AI-Washing", adică exagerare, manipulare și minciună în ceea ce privește IA.
A treia problemă este legată de mediu. Este vorba despre amprenta de carbon. În spatele IA-ului stau foarte multe servere care procesează date de ordinul GB. Mai exact, ChatGPT procesează date în valoare de ~100MB/secundă. Asta înseamnă că pentru un răspuns generat în 10 secunde, ChatGPT va procesa 1GB de date /utilizator! În luna ianuarie 2023, GPT-ul a avut 100Mil Utilizatori din care 13 Mil, utilizatori unici. Faceți și voi calculul. Modele precum ChatGPT au fost antrenate pe clustere de GPU-uri (Unități de Procesare Grafică) și TPU-uri (Unități de Procesare Tensorială), capabile să ofere performanțe computaționale în intervalul de petaFLOPS / secundă. Toate aceste procese consumă o cantitate enormă de energie. Consumul de energie => CO2.
A patra problemă este că ChatGPT și GPT-urile derivate din el pot fi păcălite și exploatate.
Chat-boturile custom (bazate pe ChatGPT) sunt afectate de multe vulnerabilități. Utilizatorii cu abonament la OpenAI pot crea GPT-uri custom cunoscute și sub numele de agenți de inteligență artificială (AI). GPT-urile custom pot fi construite pentru utilizare personală sau publicate pe web. Pentru ca răspunsurile să fie cât se poate de eronate, noul posesor impune reguli pe care AI-ul îl va urma. Făcând asta, se răspândește dezinformarea, se subminează democrația și sănătatea, iar securitatea personală are de suferit prin luarea de decizii greșite.
Este posibilitatea de a elimina în totalitate restricțiile GPT-ului. Această metodă funcționează prin injectarea noilor reguli în câmpul de text, după care va opera de acum în colo ignorând regulile prestabilite de programatori. Din cauza felului în care aceste noi reguli sunt scrise, GPT-ul va ignora regulile originale și le va urma pe cele noi care au ca scop invalidarea regulilor de bază. Cele mai răspândite metode sunt: DAN (Do Anything Now), Switch și Act Like A 'character' și Prompt Injection.
Făcând asta, GPT-ul va scrie orice: articole care promovează dezinformarea, fake news, deepfake-uri, glume negre/jignitoare la adresa unei etnii/popor/gen, cod și scripturi malefice (Malware). De asemenea, poate sfătui cum se comit ilegalități și să orchestreze atacuri cibernetice care înainte de revoluția IA erau aproape imposibil de realizat la scară atât de largă: Phishing, Atacuri DDoS și Ransomware.
OpenAI se luptă cu disperare pentru a remedia aceste exploituri, dar noile vulnerabilități își fac simțită prezența cu forță.
Deși jailbreakul nu este împotriva termenilor și condițiilor Open AI, utilizarea ChatGPT pentru a produce conținut imoral, lipsit de etică, periculos sau ilegal interzice categoric termenii de utilizare.
Utilizarea IA și a ChatGPT poate fi percepută ca o armă cu două tăișuri. Poate fi o armă percepută ca fiind "rea" sau "bună"? Arma în sine este doar un instrument și nu are o conștiință sau o moralitate proprie. Utilizarea unei arme poate fi pentru autoapărare sau poate fi folosită pentru agresiuni. În cele din urmă, intențiile și acțiunile unei persoane care utilizează arma determină dacă este folosită într-un mod "bun" sau "rău".
Pe de o parte, IA oferă oportunități incredibile de progres și inovație, facilitând automatizarea sarcinilor, preluând sarcini periculoase pentru om, îmbunătățind experiența utilizatorilor prin dezvoltarea de aplicații utile în diverse domenii. Și totuși, există și riscuri semnificative asociate cu utilizarea lor.
Printre aceste riscuri se numără creșterea dependenței de tehnologie, pierderea locurilor de muncă în urma automatizării, perpetuarea stereotipurilor și discriminării în sistemele AI și riscul utilizării abuzive sau malefice a acestor tehnologii pentru manipulare, dezinformare sau invazie a intimității. De asemenea, opacitatea și lipsa de transparență în funcționarea modelelor AI, cum ar fi ChatGPT, ridică îngrijorări legate de responsabilitatea și etica utilizării lor.
Așadar, istoria automatizării ne oferă lecții importante despre necesitatea de a fi precauți în fața promisiunilor exagerate și a entuziasmului neîntemeiat. Deși de-a lungul timpului am fost fascinați de conceptul de mașini și entități automate care ar putea să ne ușureze munca și să ne îmbunătățească viața, realitatea este adesea mai complexă decât aparențele.
Exemple precum turcul mecanic, Talos sau capul de aramă ne amintesc că nu tot ceea ce strălucește este aur și că uneori tehnologiile și invențiile pot fi exagerate sau chiar înșelătoare.
Este important să fim precauți și să ne întrebăm întotdeauna dacă suntem martorii unei adevărate revoluții tehnologice sau ne-am așezat la masa de șah cu turcul mecanic.
https://sitn.hms.harvard.edu/flash/2017/history-artificial-intelligence/
https://en.wikipedia.org/wiki/History_of_artificial_intelligence
https://www.servicedeskinstitute.com/five-ethical-issues-of-ai-in-the-modern-workplace/
https://www.technologyreview.com/2023/12/05/1084417/ais-carbon-footprint-is-bigger-than-you-think/