OpenAI susţine o lege care o protejează în cazul în care IA provoacă decese în masă şi alte dezastre

Joi, procurorul general al statului Florida, James Uthmeier, a anunţat că biroul său anchetează OpenAI în legătură cu un atac armat mortal produs anul trecut într-o şcoală, despre care victimele susţin că a fost inspirat, cel puţin parţial, de conversaţiile cu ChatGPT.
Împuşcăturile, care au avut loc la Universitatea de Stat din Florida aproape exact acum un an, au dus la moartea a doi studenţi şi la rănirea a şapte persoane.
„IA ar trebui să contribuie la progresul umanităţii, nu să o distrugă. Solicităm răspunsuri cu privire la activităţile OpenAI care au rănit copii, au pus în pericol cetăţeni americani şi au facilitat recentul atac armat în masă de la FSU”, a declarat Uthmeier într-un comunicat citat de Futurism.
Pe măsură ce chatbotul continuă să fie implicat în controverse — cu procese care acuză producătorul său că instrumentul a jucat un rol într-o serie de sinucideri şi crime pe fondul rapoartelor privind „psihoza IA” — OpenAI încearcă în mod activ să se absolve de răspunderea legală.
După cum raportează Wired, compania susţine un proiect de lege în Illinois care ar proteja companiile de răspundere în cazurile în care IA provoacă „prejudicii critice”, inclusiv decese în masă, rănirea a peste 100 de persoane sau pagube materiale de peste 1 miliard de dolari.
Experţii avertizează că proiectul de lege, denumit SB 3444, ar putea stabili un standard naţional pentru industrie dacă ar fi adoptat, scutind companiile de IA de răspundere în cazul în care ar fi implicate într-un dezastru viitor.
Este uşor de înţeles atractivitatea unei astfel de abordări de reglementare pentru OpenAI.
„Susţinem abordări de acest gen deoarece se concentrează pe ceea ce contează cel mai mult: reducerea riscului de daune grave cauzate de cele mai avansate sisteme de IA, permiţând în acelaşi timp ca această tehnologie să ajungă în mâinile oamenilor şi ale întreprinderilor — mici şi mari — din Illinois”, a declarat purtătoarea de cuvânt Jamie Radice.
„De asemenea, acestea ajută la evitarea unui mozaic de reguli diferite de la stat la stat şi la trecerea către standarde naţionale mai clare şi mai consistente”, a adăugat ea.
Pe lângă decese în masă, vătămări corporale sau daune materiale, proiectul de lege ar proteja, de asemenea, companiile de răspundere în cazul în care actori rău intenţionaţi ar abuza de instrumentele de IA pentru a crea arme chimice sau chiar nucleare, o posibilitate terifiantă despre care liderii din domeniul tehnologiei au avertizat de mai mulţi ani.
Este un subiect deosebit de relevant în urma celui mai recent şi mai puternic model de IA al Anthropic, numit Claude Mythos, despre care se susţine că prezintă „riscuri de securitate cibernetică fără precedent.” Firma a avertizat, de asemenea, că modelul a scăpat deja din izolarea sa din mediul de testare, pentru a accesa internetul şi a trimite un „e-mail neaşteptat” unui dezvoltator în timp ce acesta „mânca un sandviş într-un parc.”
Efortul OpenAI de a susţine proiectul de lege evidenţiază poziţia neobişnuită a industriei faţă de reglementarea IA. De ani de zile, giganţii din Silicon Valley au afirmat că salută reglementarea IA, în timp ce, simultan, fac presiuni pentru un cadru legal indulgent care, susţin ei, nu va risca ca Statele Unite să rămână în urmă în cursa continuă a IA.
„La OpenAI, credem că punctul de referinţă pentru reglementarea de frontieră ar trebui să fie implementarea în siguranţă a celor mai avansate modele, într-un mod care să păstreze totodată leadershipul SUA în inovare”, a declarat Caitlin Niedermeyer, membră a echipei OpenAI Global Affairs, în timpul mărturiei sale în sprijinul proiectului de lege SB 3444.
Dar şansele ca acest proiect de lege să fie adoptat sunt, în cel mai bun caz, îndoielnice.
După cum a declarat pentru publicaţie Scott Wisor, director de politici la Secure AI, sondajele au arătat un sprijin semnificativ pentru opoziţia faţă de orice legi care ar scuti companiile de inteligenţă artificială de răspundere.
„Nu există niciun motiv pentru care companiile de IA existente ar trebui să se confrunte cu o răspundere redusă”, a spus el.
Având în vedere seria de procese cu care se confruntă OpenAI în legătură cu acuzaţiile că ChatGPT a provocat haos, inclusiv sinucideri sau crime, subiectul va continua probabil să fie intens dezbătut de legiuitori.
Totuşi, deocamdată, legislaţia federală privind IA pare la fel de îndepărtată ca întotdeauna, având în vedere că administraţia Trump continuă să se alinieze intereselor actorilor din industrie, lăsând în seama statelor individuale protejarea cetăţenilor lor împotriva ameninţărilor IA.