Autorităţile din California, pe cale să adopte o lege care ar putea dinamita industria inteligenţei artificiale

Matrix  
Redacţia
25.06.2024

Autorităţile din California iau în considerare o lege care le-ar permite să dezactiveze, la discreţie, orice model de inteligenţă artificială, informează Meduza. De asemenea, proiectul de lege impune restricţii dure tuturor companiilor care dezvoltă modele avansate de inteligenţă artificială.

Experţii avertizează că, dacă va fi adoptată, noua lege va concentra controlul asupra industriei în mâinile giganţilor tehnologici şi va sufoca inovarea, iar în cel mai rău scenariu, va distruge întreaga industrie din stat. În Europa, între timp, a fost deja adoptată o lege care reglementează utilizarea inteligenţei artificiale.

Sursa citată relatează cum încearcă autorităţile din SUA şi UE să obţină controlul asupra inteligenţei artificiale.

Noul document se numeşte "Legea privind dezvoltarea în siguranţă a modelelor avansate de inteligenţă artificială". Acesta a fost aprobat de Senatul statului la sfârşitul lunii mai şi este acum examinat de Adunare, Camera inferioară a Legislativului din California.

Proiectul de lege impune restricţii dezvoltatorilor de modele de inteligenţă artificială care îndeplinesc anumite criterii. În special, puterea de calcul cheltuită pentru formarea acestora trebuie să depăşească 10^26 operaţii pe secundă cu numere întregi sau în virgulă mobilă.

În plus, costurile dezvoltatorilor pentru formarea acestor modele ar trebui să depăşească 100 de milioane USD. Preţurile medii de piaţă pentru 'cloud computing' vor fi utilizate pentru evaluare.

În mod evident, toate modelele moderne de inteligenţă artificială, cum ar fi GPT de la OpenAI şi Gemini de la Google, vor fi acoperite de lege, dar care sunt versiunile acestora este încă neclar.

Textul legii este destul de lung, nu conţine definiţii şi limbaj clar şi continuă să fie modificat. Cu toate acestea, este deja posibil să se identifice câteva limitări principale care sunt menţionate în acesta.

Înainte de a antrena un model de inteligenţă artificială reglementat de lege, dezvoltatorii trebuie să implementeze o capacitate de anulare. Dezvoltatorii trebuie să utilizeze anumite protocoale de securitate.

Un model nu poate fi creat sau utilizat în scopuri comerciale sau publice dacă există un risc nerezonabil ca acesta să provoace daune grave.

Creatorii de sisteme de inteligenţă artificială care respectă cerinţele legii trebuie să fie supuşi unei certificări anuale şi să raporteze acest lucru autorităţilor de reglementare.

Proiectul de lege prevede crearea simultană a mai multor structuri de control noi. În special, va exista un Consiliu al modelelor de frontieră, precum şi o Divizie a modelelor de frontieră. Aceasta din urmă va fi responsabilă de toate procesele legate de IA şi de interacţiunea cu dezvoltatorii.

În special, agenţia va examina rapoartele anuale de certificare şi se va asigura că întreprinderile respectă toate cerinţele necesare pentru testarea siguranţei modelelor. De asemenea, departamentul trebuie să emită anual, începând cu 1 ianuarie 2027, documente care vor defini (sau actualiza) parametrii modelelor reglementate de noua lege.

Deşi proiectul de lege este analizat în prezent doar la nivel de stat, acesta ar putea afecta întreaga industrie a inteligenţei artificiale. Sediile celor mai mari dezvoltatori, inclusiv OpenAI, Google, Meta şi Apple, care au intrat recent în cursa inteligenţei artificiale, sunt situate în California. În plus, este posibil ca legi similare să fie utilizate în alte state în viitor.

Experţii se tem că legea va scoate startup-urile de pe piaţă şi va afecta economia statului

Antreprenorul şi investitorul James Thomason, care dezvoltă startup-uri în Silicon Valley de peste 25 de ani, subliniază mai multe probleme pe care legea le va implica într-un articol pentru VentureBeat. În primul rând, el remarcă limbajul vag care oferă noului departament un control aproape nelimitat asupra dezvoltării inteligenţei artificiale.

Thomason sugerează că proiectul de lege va complica semnificativ viaţa micilor companii care dezvoltă proiecte de inteligenţă artificială, iar unele dintre acestea nu vor putea face faţă birocraţiei şi vor înceta să existe. În timp, pe piaţă ar putea rămâne doar giganţii tehnologici care au resursele financiare şi juridice necesare pentru a se conforma tuturor cerinţelor.

Una dintre cele mai importante cerinţe pentru dezvoltatori este să implementeze capacitatea de a dezactiva orice sistem de inteligenţă artificială la cererea autorităţilor. Acest lucru nu numai că face întreprinderile ostatice ale statului, dar poate duce şi la abuzuri, a declarat Thomason. În plus, lucrul la IA va fi acum riscant din punct de vedere financiar, deoarece compania ar putea fi obligată să abandoneze dezvoltarea în orice moment.

Omul de ştiinţă Yann LeCun, responsabil pentru cercetarea AI la Meta Corporation, a criticat, de asemenea, noul proiect de lege.

"Autorităţile de reglementare ar trebui să reglementeze aplicaţiile, nu tehnologiile. Reglementarea tehnologiilor de bază va pune capăt inovaţiei", a scris acesta pe reţeaua de socializare X.

LeCun a subliniat, de asemenea, că unele prevederi ale legii pot opri pur şi simplu dezvoltarea tehnologiei.

Printre reprezentanţii startup-urilor, mulţi au fost indignaţi de faptul că, de fapt, se încearcă impunerea responsabilităţii creatorilor de sisteme AI pentru cei care abuzează de dezvoltările lor. Mike Knoop, co-fondator al Zapier, este de acord cu afirmaţiile lui LeCun. El consideră că autorităţile de reglementare ar trebui să îşi concentreze atenţia mai întâi asupra celor care folosesc inteligenţă artificială pentru a face rău altora, mai degrabă decât asupra creatorilor tehnologiei originale.

Documentul impune, de asemenea, punerea în aplicare a unor "protocoale de securitate" vag definite, accesul guvernului la informaţii sensibile şi certificarea anuală. Thomason remarcă faptul că, dacă proiectul de lege va fi adoptat, autorităţile locale vor putea interzice anumite capacităţi IA sub ameninţarea amenzilor, dacă le consideră periculoase.

Cu toate acestea, el se îndoieşte de competenţa autorităţilor de reglementare. Thomason este convins că un control efectiv asupra inteligenţei artificiale va fi încredinţat unor persoane "care acţionează cu cele mai bune intenţii", dar care, în acelaşi timp, nu au suficiente cunoştinţe tehnice pentru a distinge o dezvoltare potenţial periculoasă de un proiect inovator. Toate acestea ameninţă nu numai industria inteligenţei artificiale, ci şi economia californiană în ansamblu - nu numai pentru că va încetini dezvoltarea tehnologiei, ci şi, de exemplu, din cauza posibilelor pierderi de locuri de muncă.

Expertul rezumă că, din cauza climatului de afaceri nefavorabil, o serie de mari companii de tehnologie, inclusiv Oracle, Hewlett Packard Enterprise şi Tesla (sediul lor se află acum în Texas), au părăsit deja California. Adoptarea noii legi nu va face decât să crească numărul acestora, iar statul riscă să piardă poziţia de lider într-unul dintre cele mai promiţătoare domenii de dezvoltare.

În cele din urmă, nu este clar cum vor beneficia utilizatorii. Textul proiectului de lege conţine termeni vagi, precum "siguranţă publică", dar nu şi propuneri specifice. Thomason consideră că un beneficiu mai mare ar fi adus de o lege care să protejeze datele confidenţiale ale utilizatorilor şi drepturile creatorilor de conţinut, din a căror muncă companiile pregătesc acum diverse modele IA în mod gratuit.

Jurnalista Vox Kelsey Piper nu împărtăşeşte îngrijorările colegilor şi experţilor în domeniul IA. Ea recunoaşte că îndeplinirea tuturor cerinţelor ar putea lua un timp disproporţionat, încetinind activitatea dezvoltatorilor. Cu toate acestea, Piper reaminteşte că nu există încă o opinie clară în industrie cu privire la siguranţa inteligenţei artificiale. Prin urmare, precauţiile rezonabile pe care le implică proiectul de lege din California nu par excesive.

Europa a adoptat deja prima lege din lume care reglementează utilizarea inteligenţei artificiale. Aceasta este axată mai mult pe respectarea drepturilor cetăţenilor UE.

În mai 2024, Consiliul Uniunii Europene a aprobat aşa-numita Lege privind IA sau "Legea IA".

Acesta este primul document din lume care reglementează utilizarea inteligenţei artificiale în diverse industrii. Legea este extrateritorială, ceea ce înseamnă că îi afectează pe toţi dezvoltatorii de sisteme IA, inclusiv pe cei al căror sediu nu se află în UE. Spre deosebire de proiectul de lege din California, aceasta se concentrează mai mult pe consecinţele utilizării inteligenţei artificiale şi pe prevenirea daunelor aduse utilizatorilor.

În ciuda acestui fapt, a fost, de asemenea, criticată chiar înainte de adoptarea sa. În special, preşedintele francez Emmanuel Macron a declarat că reglementarea excesivă a domeniului ar putea duce la rămânerea dezvoltatorilor europeni în urma nu numai a SUA şi a Chinei, ci şi a Regatului Unit în domeniul creării sistemelor IA. Şeful filialei europene a CCIA, Daniel Friedlander, a menţionat că numeroasele restricţii impuse dezvoltatorilor vor împiedica inovarea şi ar putea avea "consecinţe catastrofale pentru economia europeană".

Legislaţia europeană clasifică inteligenţă artificială în mai multe categorii de risc. Iniţial, au fost identificate sisteme cu niveluri "inacceptabil", "ridicat", "limitat" şi "minim". Ulterior, la lege a fost adăugată şi o altă categorie - "IA cu scop general". Sistemele cu un nivel inacceptabil de risc vor fi complet interzise, iar cele cu un nivel ridicat de risc vor fi atent monitorizate.

Primele includ dezvoltări pentru determinarea aşa-numitului "rating social", adică determinarea fiabilităţii cetăţenilor pe baza acţiunilor lor, ca în China. De asemenea, este inacceptabilă utilizarea IA care poate provoca daune fizice sau psihologice prin manipularea comportamentului uman sau prin exploatarea vulnerabilităţilor anumitor categorii de persoane. Forţelor de ordine le este interzisă identificarea biometrică la distanţă în timp real în zonele publice, cu excepţia anumitor scenarii limitate în timp.

Inteligenţa artificială cu risc ridicat include sistemele specializate utilizate în anumite domenii, de exemplu în sănătate, educaţie, justiţie şi ocuparea forţei de muncă. Acestea pot reprezenta un risc pentru sănătatea, siguranţa şi drepturile fundamentale ale cetăţenilor UE şi, prin urmare, vor fi evaluate cu atenţie înainte de a fi introduse pe piaţă.

În 2023, aşa-numitul "IA cu scop general" a fost adăugat la clasificare, care, de exemplu, include chatbotul ChatGPT Astfel de sisteme nu sunt considerate periculoase, dar sunt supuse anumitor cerinţe de transparenţă şi respectă legislaţia UE privind drepturile de autor. De exemplu, acestea trebuie să dezvăluie faptul că inteligenţa artificială a creat conţinutul, să nu genereze conţinut ilegal şi să nu publice rezumate ale datelor protejate de drepturi de autor dacă acestea au fost utilizate pentru formare.

Categoria "inteligenţă artificială cu scop general" include sistemele care au fost antrenate folosind mai mult de 10^25 operaţii în virgulă mobilă pe secundă (adică mai puţin decât proiectul de lege din California). Potrivit jurnaliştilor, această limitare afectează toate modelele mai puternice decât GPT-3.5. Cu toate acestea, legea europeană nu se aplică inteligenţei artificiale utilizate în scopuri militare sau în domeniul securităţii naţionale. De asemenea, restricţiile nu afectează sistemele implicate în cercetarea ştiinţifică.

Noile cerinţe pentru inteligenţa artificială vor fi introduse treptat. De exemplu, pentru "IA cu scop general", primele restricţii vor apărea la 12 luni de la intrarea în vigoare a legii. Chiar şi aşa, dezvoltatorii de sisteme IA generative vor putea profita de perioada de tranziţie de 36 de luni pentru a aduce tehnologia în conformitate cu legea.

România are nevoie de o presă neaservită politic şi integră, care să-i asigure viitorul. Vă invităm să ne sprijiniţi prin donaţii: folosind PayPal
sau prin transfer bancar direct în contul (lei) RO56 BTRL RONC RT03 0493 9101 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
sau prin transfer bancar direct în contul (euro) RO06 BTRL EURC RT03 0493 9101, SWIFT CODE BTRLRO22 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
O presă independentă nu poate exista fără sprijinul cititorilor