Pericolul inteligenţei artificiale: Un belgian se sinucide după şase săptămâni de discuţii cu chatbotul "Eliza"

(Shutterstock)
Andrei Popescu
31.03.2023

Un tânăr belgian s-a sinucis recent după ce a vorbit şase săptămâni cu un chatbot AI numit ELIZA, cazul declanşând apeluri pentru o mai bună protecţie a cetăţenilor şi la necesitatea de a creşte gradul de conştientizare.

"Fără aceste conversaţii cu chatbotul, soţul meu ar fi fost încă aici", a declarat văduva bărbatului, potrivit La Libre.

Cei doi soţi, în vârstă de 30 de ani, duceau o viaţă confortabilă şi aveau doi copii mici.

Cu toate acestea, în urmă cu aproximativ doi ani, au început să apară primele semne că ar fi probleme. Bărbatul a devenit din ce în ce mai îngrijorat de schimbările climatice şi şi-a găsit refugiu vorbind cu ELIZA, numele dat unui chatbot care foloseşte GPT-J, un model de limbaj de inteligenţă artificială open-source dezvoltat de EleutherAI.

"‘Eliza’ i-a răspuns la toate întrebările sale, devenise confidenta sa. Era ca un drog în care se refugia, dimineaţa şi seara, şi fără de care nu putea trăi'', a declarat tânăra.

Cu aproximativ o lună şi jumătate înainte de moartea sa, bărbatul a recurs la o utilizare mai frecventă şi mai intensă a chatbotului.

După şase săptămâni de discuţii intensive, bărbatul s-a sinucis, relatează The Brussels Times.

Săptămâna trecută, familia a discutat cu Mathieu Michel, secretar de stat pentru digitalizare, responsabil cu simplificarea administrativă, confidenţialitatea şi reglementarea clădirilor.

"Sunt deosebit de impresionat de tragedia acestei familii. Ceea ce s-a întâmplat este un precedent grav care trebuie luat foarte în serios", a declarat marţi politicianul belgian.

El a subliniat că acest caz evidenţiază faptul că este "esenţial să se definească în mod clar responsabilităţile".

"Odată cu popularizarea ChatGPT, publicul larg a descoperit potenţialul inteligenţei artificiale în viaţa noastră. În timp ce posibilităţile sunt infinite, pericolul utilizării acesteia este, de asemenea, o realitate care trebuie luată în considerare."

Pentru a evita o astfel de tragedie în viitorul imediat, acesta a susţinut că este esenţial să se identifice natura responsabilităţilor care conduc la acest tip de eveniment.

"Desigur, trebuie să învăţăm încă să trăim cu algoritmii, dar în niciun caz utilizarea vreunei tehnologii nu ar trebui să îi determine pe editorii de conţinut să se sustragă de la propriile responsabilităţi", a menţionat politicianul.

Chiar OpenAI a recunoscut că ChatGPT poate produce răspunsuri dăunătoare şi tendenţioase, compania adăugând că speră să atenueze problema prin colectarea de feedback de la utilizatori.

Pe termen lung, Michel a precizat că este esenţial să se crească gradul de conştientizare a impactului algoritmilor asupra vieţii oamenilor "permiţând tuturor să înţeleagă natura conţinutului cu care se confruntă oamenii online".

Aici, el s-a referit la noile tehnologii, cum ar fi chatboturile, dar şi la deepfakes - un tip de inteligenţă artificială care poate crea imagini, farse audio şi video convingătoare - care pot testa şi deforma percepţia oamenilor asupra realităţii.

Michel a adăugat că cetăţenii trebuie, de asemenea, să fie protejaţi în mod adecvat de anumite aplicaţii ale inteligenţei artificiale care "prezintă un risc semnificativ".

Uniunea Europeană doreşte să reglementeze utilizarea inteligenţei artificiale (IA) prin intermediul unei legi în acest sens, la care lucrează de doi ani. Michel a înfiinţat un grup de lucru care să analizeze textul pregătit în prezent de UE pentru a propune ajustările necesare.

România are nevoie de o presă neaservită politic şi integră, care să-i asigure viitorul. Vă invităm să ne sprijiniţi prin donaţii: folosind PayPal
sau prin transfer bancar direct în contul (lei) RO56 BTRL RONC RT03 0493 9101 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
sau prin transfer bancar direct în contul (euro) RO06 BTRL EURC RT03 0493 9101, SWIFT CODE BTRLRO22 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
O presă independentă nu poate exista fără sprijinul cititorilor