UE nu ştie deocamdată ce să facă în privinţa ChatGPT

Uniunea Europeană va avea nevoie de cel puţin încă un an pentru a decide cum să-şi exercite puternica legislaţie digitală pentru a controla riscurile asociate cu ChatGPT, informează POLITICO, citând surse oficiale.
Utilizarea chatbotului cu inteligenţă artificială a luat amploare în Europa, iar OpenAI a declarat luna aceasta că a depăşit un prag important în ceea ce priveşte controlul reglementar. Vestea că peste 120 de milioane de persoane utilizează funcţia de căutare a ChatGPT în fiecare lună nu a surprins Comisia Europeană, au declarat doi oficiali.
Cu toate acestea, autorităţile de reglementare nu au găsit încă o soluţie pentru a gestiona ChatGPT în conformitate cu puternica Lege a serviciilor digitale a UE, în vigoare de la începutul anului 2024, pentru a se asigura că platformele îşi minimizează riscurile. Potrivit unui oficial de rang înalt al Comisiei, o decizie este aşteptată abia la jumătatea anului 2026.
Este un test al capacităţii UE de a gestiona riscurile prezentate de modelele lingvistice de mari dimensiuni, care devin rapid la fel de omniprezente în viaţa oamenilor ca şi motoarele de căutare tradiţionale.
Lentoarea reflectă faptul că legea digitală emblematică a fost concepută înainte ca ChatGPT să devină popular, iar definiţiile sale nu acoperă în mod clar chatbot-urile cu IA, ceea ce expune Bruxelles-ul riscului de a rămâne în urmă în abordarea acestor riscuri, chiar dacă acestea devin din ce în ce mai evidente.
OpenAI a recunoscut recent că 1,2 milioane de persoane în fiecare săptămână au conversaţii cu ChatGPT care sugerează că intenţionează să-şi ia viaţa şi că „în unele cazuri rare, modelul poate să nu se comporte aşa cum se intenţionează în aceste situaţii sensibile”.
„Pentru o industrie obişnuită cu cadre voluntare de siguranţă a IA şi cu standarde de referinţă auto-definite, regimul de diligenţă obligatoriu din punct de vedere legal al DSA [Digital Services Act, adică Legea serviciilor digitale a Uniunii Europene - n.n.] ar putea fi o realitate dificilă”, a declarat Mathias Vermeulen, director al firmei de avocatură şi consultanţă AWO Agency din Bruxelles.
„OpenAI va trebui să-şi intensifice eforturile în mod semnificativ şi nu va putea să scape cu o simplă copiere/lipire a ceea ce face în prezent”, a spus el.
Compania nu a răspuns la critici, indicând în schimb paginile de ajutor online pentru informaţii despre modul în care compania respectă DSA. De asemenea, a menţionat că cifra de 120 de milioane se referă la persoanele care utilizează funcţiile de căutare ale ChatGPT şi nu la întregul serviciu.
Cât de departe să mergem
ChatGPT este deja reglementat de Legea UE privind IA. Începând din august, trebuie să evalueze riscurile şi să le atenueze, riscând amenzi de până la 15 milioane de euro dacă nu se conformează.
Însă cifrele privind utilizatorii plasează acum chatbotul în liga mare, depăşind cu mult pragul de 45 de milioane de utilizatori lunari pentru platformele mari şi motoarele de căutare în conformitate cu DSA.
Odată ce intră sub incidenţa DSA, riscă amenzi de până la 6% din cifra de afaceri globală anuală.
ChatGPT nu a fost „prevăzut” de DSA, dar „se încadrează în limbajul statutului”, a declarat Martin Husovec, profesor de drept la London School of Economics.
În conformitate cu structura legii, UE desemnează site-urile fie ca platforme online foarte mari, fie ca motoare de căutare — aşa-numitele VLOP sau VLOE — care trebuie să respecte cele mai stricte reguli.
„O întrebare esenţială este domeniul de aplicare al desemnării pentru ChatGPT", a declarat Joris Van Hoboken, profesor de drept specializat în guvernanţa IA la Vrije Universiteit Brussels.
Comisia ar putea să restrângă evaluarea la funcţiile de căutare ale ChatGPT, pentru a-l clasifica drept motor de căutare, sau ar putea să lărgească perspectiva asupra întregii oferte — fie ca platformă, fie ca serviciu.
Cerinţele impuse OpenAI şi modul în care aceasta le poate îndeplini depind în mare măsură de decizia Comisiei.
OpenAI va trebui să evalueze gravitatea riscurilor pe care le prezintă chatbotul său, inclusiv pentru alegeri şi sănătatea publică. Va trebui să le atenueze şi să informeze Comisia într-un raport detaliat de conformitate. Cu cât desemnarea este mai largă, cu atât raportul trebuie să fie mai amplu.
Aceste evaluări de risc includ „proiectarea sistemelor lor de recomandare şi a oricărui alt sistem algoritmic relevant”, conform legii DSA. Acest lucru s-ar putea dovedi dificil dacă Comisia vizează întregul model lingvistic de mari dimensiuni care stă la baza ChatGPT şi răspunsurile sale, în loc să se concentreze mai strict pe conţinutul de căutare furnizat utilizatorilor.
O definiţie restrânsă ar putea, de asemenea, să scutească OpenAI de o obligaţie: în calitate de motor de căutare, nu ar trebui să furnizeze un mecanism de notificare şi acţiune care să permită utilizatorilor să semnaleze conţinutul pentru a fi eliminat.
Dacă desemnarea se face la mijlocul anului 2026, asta înseamnă că cerinţele DSA ar afecta OpenAI în ultimul trimestru al anului viitor.
OpenAI ar putea contesta desemnarea, aşa cum au făcut-o fără succes alte platforme în trecut, a declarat Joao Pedro Quintais, profesor asociat de drept informaţional la Universitatea din Amsterdam. Orice dezacord ar prelungi şi mai mult procesul.
Prea multe legi?
Rămân întrebări cheie cu privire la modul în care se suprapun cele două legi majore care abordează IA şi platformele.
Legea privind IA şi DSA au fost concepute pentru a coexista în cazurile în care IA este integrată în serviciile digitale, cum ar fi AI Overviews de la Google, a spus Quintais. Acestea nu au fost concepute având în vedere aşa-numiţii furnizori de IA integraţi vertical, precum OpenAI.
Cele două legi se bazează pe două cadre de risc diferite. Platformele trebuie să evalueze în ce categorii de risc se încadrează şi să îşi adapteze serviciile în mod corespunzător.
Aceste cadre de risc nu sunt perfect aliniate; Legea privind IA prevede că modelele trebuie clasificate ca fiind inacceptabile, cu risc ridicat, limitat, minim sau fără risc. Platformele şi motoarele de căutare trebuie să determine şi să atenueze patru tipuri de „riscuri sistemice”, cum ar fi integritatea civică, alegerile, sănătatea publică şi drepturile fundamentale.
Însă, în conformitate cu Legea privind IA, funcţiile integrate în VLOPSE, cum ar fi AI Overviews de la Google, sunt considerate conforme cu normele privind IA dacă depun evaluări DSA.
Asta înseamnă că unele aspecte ale reglementării – de exemplu, dezinformarea şi deepfake-urile – sunt „preluate de DSA”, a menţionat Quintais, în timp ce alte riscuri, de exemplu utilizarea ChatGPT în procesele de angajare, rămân în sfera de aplicare a Legii privind IA.
Ar putea exista lacune în modul în care compania evaluează riscul serviciilor sale, deoarece cele două cadre nu se aliniază perfect, a spus Quintais.
Compania poate beneficia, de asemenea, de ceea ce se numeşte legi de refugiu sigur, în temeiul cărora platformele şi motoarele de căutare nu sunt responsabile pentru conţinutul postat pe acestea, a adăugat el.