În urmă cu câteva săptămâni, Parlamentul European a votat Legea Inteligenței Artificiale (523 de voturi pentru, 46 împotrivă și 49 de abțineri).
Care sunt însă principiile cheie ale acestei noi legislații: o critică constructivă care ajută la înțelegerea punctelor forte și a capcanelor text
Textul Actului Inteligenței Artificiale votat de Parlamentul European își propune să „protejeze drepturile fundamentale, democrația, statul de drept și sustenabilitatea mediului împotriva riscurilor legate de inteligența artificială (IA)”. UE se remarcă ca fiind prima care a implementat acest tip de legislație, oare putem fi mulțumiți de acest lucru?
Europa și-a menținut poziția de lider în capacitatea sa de a produce reglementări și standarde. Aceasta este mai mult o observație decât o critică. Progresele recente în IA generativă sunt de așa natură încât au impact și vor avea impact asupra tuturor segmentelor activităților umane (economice, industriale, cercetare și dezvoltare, inginerie, medicale etc.). Puterea și impactul modelelor lingvistice mari (GPT-4, Llama 2, Midjouney, DALL-E2) asupra societăților noastre sunt atât de semnificative încât este esențial să se stabilească un cadru de reglementare, cel puțin, privind utilizarea datelor și protecția vieții private. Acest lucru se realizează cu votul majoritar asupra Legii AI.
Se poate prezice că o versiune mai ușoară a Actului IA va apărea probabil peste Atlantic, deoarece producătorii primari de modele mari de IA generativa (și, prin urmare, părțile interesate primare în potențialele lor utilizări greșite) sunt americani. Legea IA conține multe clauze specifice unui caz, ceea ce nu este neobișnuit, având în vedere complexitatea domeniului reglementat.
În centrul acestui regulament, un punct pare fundamental: originea datelor utilizate pentru formarea LLM-urilor. Care sunt aceste date? Au fost achiziționate sau au fost supuse tranzacțiilor financiare? Au fost „recuperate” din datele publice care sunt disponibile gratuit? A existat vreo formă de consimțământ din partea producătorilor de date, adica noi toți? Răspunsul este evident deloc clar.
Când un jurnalist întreabă cum a fost antrenat modelul X și ce date video au fost folosite, se instalează panica in ochii ei, ea realizând că această întrebare era previzibilă și că nu a anticipat bine „capcana”. Întrebarea de bază a fost: OPEN IA a folosit vastul rezervor de videoclipuri YouTube pentru a instrui SORA? Dacă da, în baza cărui acord comercial? Acest caz ilustrează nevoia de reglementare în capturarea și utilizarea datelor utilizate pentru formarea LLM. Legea IA se aplică pe întregul lanț de producție LLM până la implementarea acestora, cu o clasificare în funcție de nivelul de risc IA: IA cu risc inacceptabil, IA cu risc limitat și IA fără risc inerent.
IA interzisă include în mod specific: sisteme de scor social și IA manipulativa. Se înțelege că Europa nu dorește să reproducă modelul chinez, dar definiția IA manipulative rămâne destul de vagă. Cinicii ar putea argumenta că IA este prin natură manipulativă, deoarece rezultatele sale vor influența percepția utilizatorului și, eventual, acțiunile lor viitoare, dacă folosesc IA pentru a le arbitra. Prin urmare, conceptul de IA manipulativă pare deosebit de vag și discutabil.
Pentru a rezuma cele trei axe principale ale acestei legi, există aplicații interzise (cum ar fi recunoașterea facială), aplicații considerate cu risc ridicat (din cauza potențialului lor prejudiciu semnificativ asupra sănătății, siguranței, drepturilor fundamentale, mediului, democrației și regulii) și cerințele de transparență (în special în ceea ce privește drepturile de autor).
Problema drepturilor de autor este într-adevăr centrală
Există un risc real de diluare a producției de conținut de origine umană într-o “mlaștină” de date a căror origine devine din ce în ce mai imposibil de urmărit și pe deasupra non-umană în timp. Volumul total de date sintetizate produse de IA generativa va depăși rapid volumul de date produse de utilizatorii umani.
Asocierea cu un blockchain de trasabilitate ar putea garanta proprietatea intelectuală a unei opere de artă digitală, de exemplu.
În general, este dificil să cartografiezi cu precizie riscul asociat cu o platformă care încorporează componente de învățare automată. Pe lângă risc, este, de asemenea, necesar să se măsoare impactul și să se bazeze pe o măsurare dublă „Risc-Impact”.
Interzicerea unilaterală (comparativ de alte state) a recunoașterii faciale este discutabilă dacă are un impact indirect asupra capacității noastre de a combate criminalitatea și terorismul. O interdicție totală ar avea un impact negativ asupra industriei instrumentelor de securitate. Ar pune în pericol un întreg segment al industriei „Computer Vision” din Europa, lăsând această specialitate sensibilă vulnerabilă concurenților și giganților americani și asiatici. Prin urmare, trebuie să exercităm moderație în dorința noastră de a implementa principiul precauției digitale la toate nivelurile in “casa europena”.
Este important de reținut că ceea ce este interzis prin regulament va exista în altă parte, va fi dezvoltat în mod clandestin de către alții și va fi folosit sistematic dacă această aplicare a IA aduce noi abilități și performanțe. Prohibiția întărește întotdeauna ceea ce interzice! Trebuie să luăm în considerare acest proverb de bun simț.
Știm că statele membre UE au deficiențe în ceea ce privește inteligența artificială, iar suveranitatea lor digitală este amenințată, în ciuda existenței câtorva pietre prețioase
Orice încurajare pentru inovare este binevenită. Europa a rămas cu mult în urmă în IA generativă. Giganții americani sunt cu mult înaintea tehnologiei europene. Se uită adesea că Google este inventatorul arhitecturii Transformer care stă la baza LLM-urilor, care a fost ulterior exploatată și valorificată de OpenIA prin succesele globale ale GPT-3.5, GPT-4 și produselor derivate. Strângeri mari de fonduri recente ale echipelor franceze s-au bazat pe fonduri americane și pe acorduri cu Microsoft. Pare greu să vorbim despre suveranitatea digitală europeană când sute de milioane de dolari vin de la investitorii americani. Realitatea de la fața locului arată că investițiile europene nu fac față provocărilor revoluției IA și roboticii. Un startup european care se angajează într-un proiect de inteligență artificială poate găsi finanțare inițială în Europa, dar se va lupta mult mai mult să organizeze runde ulterioare de strângere de fonduri (B, C, D) cu surse financiare europene.
Va trebui neapărat să se uite către Statele Unite sau Asia pentru a-și continua dezvoltarea și a intra în “ligile” mari. Ca în orice demers uman, talentul individual și creativitatea în sine nu sunt suficiente pentru a asigura succesul. De asemenea, este nevoie de puțin noroc pentru a întâlni contactele potrivite, persuasiune pentru a convinge noi investitori și agilitate pentru a intra pe piețele potrivite. Este mai ușor să aliniem acești factori în Silicon Valley decât în Franța sau Europa, din păcate… În plus, uneori ne luptăm să adoptăm metricile potrivite pentru a detecta, în avans, cele mai inovatoare proiecte și tehnologii și pe cele care au cele mai multe șanse de a reuși.
Aceste valori există. Ele se bazează exclusiv pe măsurarea performanței și resping orice influență a conviețuirii. Conivența în arbitraj este cea mai mare otravă. Europa trebuie să înceapă prin adoptarea unor masuri eficiente care să ne permită „să vedem viitorul” unui startup și al unui proiect tehnologic cu doi ani și apoi cinci ani înainte, cu o probabilitate acceptabilă. Această abordare proactivă ne-ar permite să selectăm mai bine adevăratele “bijuterii” europene și să evităm accidentele industriale care încă există în 2024.
Robotiștii europeni nu trebuie sa rămâna în urma liderilor globali; ei trebuie sa fie printre ei!
CITIȚI ȘI: Primul Institut de Cercetare în AI din România (oficiuldestiri.ro)