ABONAMENTE VIDEO REDACȚIA
RO
EN
Numărul 162
NOU
Numărul 161
Numărul 160 Numărul 159 Numărul 158 Numărul 157 Numărul 156 Numărul 155 Numărul 154 Numărul 153 Numărul 152 Numărul 151 Numărul 150 Numărul 149 Numărul 148 Numărul 147 Numărul 146 Numărul 145 Numărul 144 Numărul 143 Numărul 142 Numărul 141 Numărul 140 Numărul 139 Numărul 138 Numărul 137 Numărul 136 Numărul 135 Numărul 134 Numărul 133 Numărul 132 Numărul 131 Numărul 130 Numărul 129 Numărul 128 Numărul 127 Numărul 126 Numărul 125 Numărul 124 Numărul 123 Numărul 122 Numărul 121 Numărul 120 Numărul 119 Numărul 118 Numărul 117 Numărul 116 Numărul 115 Numărul 114 Numărul 113 Numărul 112 Numărul 111 Numărul 110 Numărul 109 Numărul 108 Numărul 107 Numărul 106 Numărul 105 Numărul 104 Numărul 103 Numărul 102 Numărul 101 Numărul 100 Numărul 99 Numărul 98 Numărul 97 Numărul 96 Numărul 95 Numărul 94 Numărul 93 Numărul 92 Numărul 91 Numărul 90 Numărul 89 Numărul 88 Numărul 87 Numărul 86 Numărul 85 Numărul 84 Numărul 83 Numărul 82 Numărul 81 Numărul 80 Numărul 79 Numărul 78 Numărul 77 Numărul 76 Numărul 75 Numărul 74 Numărul 73 Numărul 72 Numărul 71 Numărul 70 Numărul 69 Numărul 68 Numărul 67 Numărul 66 Numărul 65 Numărul 64 Numărul 63 Numărul 62 Numărul 61 Numărul 60 Numărul 59 Numărul 58 Numărul 57 Numărul 56 Numărul 55 Numărul 54 Numărul 53 Numărul 52 Numărul 51 Numărul 50 Numărul 49 Numărul 48 Numărul 47 Numărul 46 Numărul 45 Numărul 44 Numărul 43 Numărul 42 Numărul 41 Numărul 40 Numărul 39 Numărul 38 Numărul 37 Numărul 36 Numărul 35 Numărul 34 Numărul 33 Numărul 32 Numărul 31 Numărul 30 Numărul 29 Numărul 28 Numărul 27 Numărul 26 Numărul 25 Numărul 24 Numărul 23 Numărul 22 Numărul 21 Numărul 20 Numărul 19 Numărul 18 Numărul 17 Numărul 16 Numărul 15 Numărul 14 Numărul 13 Numărul 12 Numărul 11 Numărul 10 Numărul 9 Numărul 8 Numărul 7 Numărul 6 Numărul 5 Numărul 4 Numărul 3 Numărul 2 Numărul 1
×
▼ LISTĂ EDIȚII ▼
Numărul 162
Abonamente

Experts panel: Smarter AI Automation

Ovidiu Mățan
Fondator @ Today Software Magazine



INTERVIU

Cum se integrează AI-ul în fluxul de lucru al unui programator și ce putem automatiza. Sunt câteva din temele panelului nostru de discuție. Alături de mine au fost:

Ovidiu Mățan: Vă invit să începem cu o scurtă introducere personală

Alin Turcu: Mă ocup cu AI și Data în cadrul Cognizant. Avem proiecte multiple. Prima categorie de proiecte este cea care se ocupă cu analiza de date. Vedem din ce în ce mai mulți clienți care vor să facă upgrade la partea de BI și Dashboards, astfel încât să poată genera insights dinamic. A doua categorie de proiecte este din zona de generare de documentație, de generare de cod, de autorizații și de generare a unui catalog de deviații pentru un produs.

George Todoran: Sunt de 4 luni jumătate în Cluj. Am terminat facultatea la Timișoara, dar am fost și în Franța la studii. Am terminat și un doctorat. Am lucrat în domenii precum robotică, e-commerce în Franța, iar de un an jumătate am lucrat în Japonia până acum 4 luni. În Japonia, unde am fost angajat la Toyota, am lucrat pe Machine Learning într-un proiect de conducere autonomă. În medii controlate, nu suntem departe de nivelul 5 de autonomie. În Europa, suntem departe. Putem fi mai aproape sau mai departe în funcție de legislația mai permisivă sau nu. La BMW TechWorks avem foarte multe proiecte, dar poziția mea este una orizontală, adică nu sunt asignat la un anume proiect. Rolul meu este de a defini strategia AI pentru hubul din Cluj și de a face legătura cu celelalte huburi BMW.

Alexandru Colta: Sunt în Cognizant de 15 ani și mă ocup de testare și calitate. Am fost pasionat de AI încă din facultate. Recent, pentru că sunt leneș și caut scurtături, am adoptat cu drag GenAI. La nivel de proiecte, încerc să fac prototipizare în adoptarea de GenAI pentru a accelera activitățile de Quality Engineering de orice fel și pentru a construi template-uri, rețete ce pot fi folosite și de alții. Ne ajută să fim competitivi în raport cu alte piețe care nu insistă atât de mult pe profunzime, ci pe volum. Printre exemple enumăr generarea de teste manuale, teste automate și code review.

Radu Tut: Suntem o companie tânără fondată acum patru ani. Suntem axați pe Business Process Automation. Avem o componentă RPA (Robotic Process Automation) unde UiPath este platforma cea mai cunoscută în această zonă, dar și o componentă de agenți, modele de AI, care ajută în luarea deciziilor în cadrul proceselor de business. Am realizat acum trei ani o soluție pentru o companie care închiriază mașini în Elveția. Unul din cinci clienți ia amendă când închiriază mașini. Amenda vine la sediul firmei care a închiriat mașini și este responsabilitatea ei să o proceseze. Provocarea în acest proces este că fiecare secție de poliție poate să îți trimită amenda respectivă prin poștă. Fiecare are un layout, un template diferit, dar fiecare conține cam același tip de informații. Avem peste 50 de modele de soluții ce folosesc AI și GenAI. Avem o echipă de 55 de persoane.

Cum gestionați seturile de date și cum puteți anticipa comportamentul utilizatorilor în unele cazuri?

Alin Turcu: Mentenanța predictivă este un subiect fierbinte, nu neapărat legat de AI. Putem simula cu un Digital Twin un proces dintr-o uzină, pe baza datelor de la senzori sau pe baza datelor istorice. Cu aceste date, putem antrena un model de forecasting și să facem predicții. Avem un proiect medical pe care îl rulăm pe un bioreactor unde se cultivă culturi bacteriene. Cu ajutorul unui simulator, putem rula scenarii într-un mediu virtual. Rezultatul a fost o creștere de 25% a culturilor bacteriene pentru un anumit medicament, controlând umiditatea și alți parametri. Proiectul este din Belgia. AI-ul ne ajută foarte mult în medicină. Este una dintre colaborările cu cel mai mare succes. Ne permite să descoperim medicamente într-un ritm mai accelerat decât înainte. Se rulează LLM-uri mici, la nivel local, de mașină. Clientul este GSK și au publicat un whitepaper pe aportul adus de Digital Twins.

Spuneți-ne mai multe despre automatizări.

Radu Tut: Avem proiecte de tip Healthcare. În multe state, există asiguratori de sănătate privați. Când cineva merge la spital, trebuie identificat pe baza unui formular. Apoi, se fac niște interogări în baza de date pentru a afla care este nivelul de acoperire al acelei persoane, pentru ca apoi să se poată emite factura corespunzătoare asiguratorului. În acest proiect, folosim AI pentru interpretarea formularelor scrise de mână. Formularul se scanează. De acolo ajunge la un LLM instalat local. Se extrag informațiile care se transmit printr-un robot sau printr-un API mai departe pentru a identifica gradul de acoperire pentru persoana respectivă. Toate investigațiile sunt înregistrate în sistemul spitalului, și ulterior se poate emite factura.

Ce fel de LLM-uri folosiți?

Alexandru Colta: Mă uit la eficiență. Am abonament la ChatGPT, Gemini, Windsurf pentru vibe coding, Anthropic, Comet și altele. Am destul de multe. Pentru cod, prefer Claude. Pentru generat documentație, prefer Gemini. Pentru parcurs documentație sau video pentru lucruri specifice, prefer Gemini. Vrem un randament pozitiv când lucrăm cu GenAI. Pentru chestia asta, caut să echilibrez diverse LLM-uri cu orchestrarea, în format de agent sau prompting. Mă concentrez pe matrix, KPIs, costuri, licențe, resurse. Încerc să le monitorizez. Este important să nu fie date sintetice, ci date ancorate în realitate.

Cum arată programatorul român comparativ cu cel francez sau japonez?

George Todoran: Programatorul japonez este mai slab decât cel european. Japonezii au investit foarte mult, în trecut, în electronică. Inginerii lor de top sunt cei care se ocupă de electronică și mecanică. Cei care nu reușesc în aceste domenii devin programatori. Dacă vă uitați la versiunea japoneză a site-ului Rakuten, veți observa că este oribil. În același timp, sunt foarte buni în orice înseamnă embedded. În Franța, probabil că inginerii francezi sunt mai bine văzuți decât inginerii români. Cei francezi fac challenge mult mai des la nivel de autoritate și decizii tehnice.

În contextul AI, cum s-au schimbat evaluările care sunt făcute membrilor echipei? Presupun că se poate vedea calitatea unui commit.

Alin Turcu: Nu am adoptat această practică, dar împingem oamenii să folosească din ce în ce mai mult AI în ceea ce fac. De exemplu, la capitolul de generare de teste sau hackathon de vibe coding. Nu am automatizat evaluarea colegilor. Impactul muncii nu poate fi redus la numărul de linii de cod sau numărul de commits. Feedbackul de la clienți, de la echipă și de la managerul cu care lucrezi contează foarte mult. Există o bătălie între teorie și practică. În media, auzim doar că AI-ul crește productivitatea cu 30%, dar nimeni nu vede provocările ascunse.

George Todoran: Ne interesează pe toți raportul calitate - timp de livrare. Referitor la calitate, putem măsura numărul de commits sau în cât timp terminăm un task. Legat de AI, putem vedea cât din codul generat de AI a fost rescris, cât de repede a fost aprobat un pull request, cât de repede sau mult a trebuit modificat ulterior. Putem măsura impactul AI și impactul negativ al AI în funcție de volumul de rescriere. Dacă, de exemplu, trebuie refăcut mereu același lucru, înseamnă că ceva nu este bine acolo.

Cum abordați subiectul privacy?

Radu Tut: Nu este o problemă, ci un factor demn de luat în considerare. Anumite servicii, precum Healthcare sau Financial Services, sunt mai sensibile din acest punct de vedere. Pentru aceste cazuri, infrastructura locală este esențială. Alte domenii au încredere în cloudul regional oferit de furnizori mari. Important este să aflăm dacă un client are sau nu încredere în cloudul furnizorului. Dacă nu există această încredere, instalăm aceeași soluție on-premises.

Unde te oprești cu nivelul de testare?

Alexandru Colta: Sunt multe lucruri subiective și, de aceea, vom fi foarte greu de înlocuit. Cu cât avem mai multă experiență, cu atât vom fi mai greu de înlocuit. Putem căuta moduri de a ne ușura deciziile. LLM-urile ajută cu recomandări. Pentru risk-based testing în care vine un agent care monitorizează ceea ce s-a schimbat într-un anume release (e.g. specificații) și vine cu recomandări, putem primi indicații sau sugestii privind ce anume trebuie să mai testăm. Noi luăm decizia, dar ne uităm peste recomandări, deoarece sunt idei în plus.

Cum putem calibra răspunsurile unui LLM, astfel încât să nu fie prea simple, dar nici prea complexe?

Alexandru Colta: Recomandarea este ca, prin interacțiuni succesive, să forțezi acel prompt, astfel încât să returneze ceea ce îți dorești. Prin acest lucru, AI-ul învață. De aceea, axați-vă pe context. Pentru prompt, contează ghidul pe care îl dai. De exemplu, eu am un ghid care mă ajută să obțin rețete. Sunt genul de persoană care își dorește recomandări. Dacă vorbesc cu soția că avem nevoie de un nou telefon, mă supăr dacă nu văd trei recomandări de reclame sau sugestii de telefoane.

(întrebare din sală): Pornind de la modele deja antrenate pe care apoi le aplicăm în munca noastră, de ce nu facem LLM-uri specializate pentru anumite domenii? LLM-uri pentru medicină, pentru Automotive, etc?

George Todoran: LLM-ul trebuie să fie cât mai general, să nu depindă de un anume task. Acesta ar fi un motiv. Modelul de business al furnizorilor comerciali de LLM-uri funcționează mai bine așa. Apoi, anumite companii care au resursele necesare își pot antrena propriul LLM. Nu toți avem nevoie de modele foarte mari.

Cât de multă matematică ai aplicat în zona de Machine Learning?

George Todoran: Față de AI/GenAI, în Machine Learning era obligatoriu ca tu să antrenezi modelul. Dacă nu le antrenai, aveai prea mult bias, nu se potrivea pe cazurile tale. Antrenarea sau reantrenarea unui model este un proces iterativ. Nu merge din prima. Trebuie mult modificat în spate și este foarte important să înțelegi matematica. Chiar și pentru antrenarea unui LLM ai nevoie de matematică și date. Este greu. După ce ai antrenat, verifici și vezi că ceva nu este bine. Cum ameliorezi?

Am un proiect cu multe date eterogene. Uneori datele de pe acele foi scanate pot fi malformate sau în lipsă. Există o componentă care verifică dacă este corect ceea ce AI-ul a citit ? Există un human in the loop?

Radu Tut: Abordarea pe care noi am găsit-o valoroasă în proiecte este una destul de pragmatică. Trebuie văzut ce rezultate ai cu o soluție de tip first-level of engineering. Poți avea un procentaj de 95%-97%. Apoi, ne întrebăm ce impact au greșelile. De multe ori, o astfel de omisiune poate fi captată în cadrul procesului. Dacă există probleme, poți introduce mai multe verificări care să detecteze false positives și false negatives. A treia opțiune este de a avea un human in the loop.

Cum va arăta programatorul peste 10 ani, având în vedere avansul tehnologic?

Alin Turcu: Mereu mă gândesc cum făceam noi programare mai demult, cu alocare și dezalocare de memorie. Când au apărut interpretoarele și compilatoarele, am ajuns să programăm tot mai high-level. E o evoluție firească. Probabil că un limbaj comun va fi limba engleză sau limba chineză. Acela va fi limbajul de programare. Mergem tot mai sus, mai high-level, la nivel de system architecture. Lăsăm toolurile să scrie partea de high-level.

Radu Tut: Când am început, orice programator visa să programeze în jQuery pentru web. Azi ai jigni pe cineva dacă i-ai cere așa ceva. Observ o abstracție tot mai mare în zona de programare și cred că este important ca fiecare dintre noi, profesioniști IT, să-și dezvolte o înțelegere tot mai bună a industriei sau a domeniului în care activează, dar și abilități de business în zona de interacțiune cu oamenii.

Alexandru Colta: Sunt de acord cu ceea ce au spus colegii mei, dar aș mai adăuga câteva aspecte. Contează foarte mult ca inginerii să fie flexibili. Vor avea mai mult un rol de supervizor sau orchestrator. Legat de limbă, întreb în engleză pentru aspecte profesionale, dar pentru aspecte personale, îl întreb în română.

George Todoran: Programatorii vor exista, dar skillurile se vor schimba. Modelele vor evolua. Ca oricine care construiește ceva, trebuie să judece dacă un lucru este construit bine sau nu. Întrebarea este: Cum îmi pot da seama dacă ceea ce a construit AI este bun sau nu? Trebuie să avem experiență și trebuie să învățăm ce este un lucru bun, de calitate. Cu AI putem face POC-uri foarte rapid, în câteva zile, în loc de câteva luni. Nu ne interesează atât de mult calitatea codului. Îl putem arunca la gunoi.

NUMĂRUL 159 - Industria Automotive

Sponsori

  • BT Code Crafters
  • Bosch
  • Betfair
  • MHP
  • BoatyardX
  • .msg systems
  • P3 group
  • Ing Hubs
  • Cognizant Softvision
  • GlobalLogic
  • BMW TechWorks Romania