Inteligenţa artificială are nevoie de doar două ore pentru a vă reproduce personalitatea cu o precizie de 85%
![](https://image.epochtimes-romania.com/2015/06/99099_top.jpg)
Cercetătorii de la Google şi Stanford au creat replici exacte a peste 1.000 de oameni, transmite LiveScience.
O conversaţie de două ore cu un model de inteligenţă artificială (AI) este tot ce este necesar pentru a crea o replică exactă a personalităţii cuiva, au descoperit cercetătorii.
Într-un nou studiu publicat la 15 noiembrie în baza de date arXiv, cercetătorii de la Google şi de la Universitatea Stanford au creat „agenţi de simulare” - în esenţă, replici făcute de inteligenţa artificială - pentru un număr de 1.052 de persoane pe baza unor interviuri de două ore cu fiecare participant. Aceste interviuri au fost utilizate pentru a antrena un model generativ de inteligenţă artificială conceput pentru a imita comportamentul uman.
Pentru a evalua acurateţea replicilor (clonelor) AI, fiecare participant a completat două runde de teste de personalitate, sondaje sociale şi jocuri logice şi a fost rugat să repete procesul două săptămâni mai târziu. Atunci când replicile AI au fost supuse aceloraşi teste, acestea au egalat răspunsurile omologilor lor umani cu o precizie de 85%.
Lucrarea a presupus că modelele AI care imită comportamentul uman ar putea fi utile într-o varietate de scenarii de cercetare, cum ar fi evaluarea eficacităţii politicilor de sănătate publică, înţelegerea răspunsurilor la lansarea produselor sau chiar modelarea reacţiilor la evenimente societale majore care ar putea fi altfel prea costisitoare, provocatoare sau complexe din punct de vedere etic pentru a fi studiate cu participanţi umani.
„Simularea cu scop general a atitudinilor şi comportamentului uman - în care fiecare persoană simulată se poate angaja într-o gamă largă de contexte sociale, politice sau informaţionale - ar putea permite cercetătorilor să testeze un laborator pentru un set larg de intervenţii şi teorii”, au scris cercetătorii în lucrare. Simulările ar putea ajuta, de asemenea, la pilotarea de noi intervenţii publice, la dezvoltarea de teorii privind interacţiunile cauzale şi contextuale şi la creşterea înţelegerii noastre asupra modului în care instituţiile şi reţelele influenţează oamenii, au adăugat aceştia.
Pentru a crea agenţii de simulare, cercetătorii au realizat interviuri aprofundate care au acoperit poveştile de viaţă, valorile şi opiniile participanţilor cu privire la problemele societale. Acest lucru a permis inteligenţei artificiale să surprindă nuanţe pe care sondajele tipice sau datele demografice le-ar putea omite, au explicat cercetătorii. Cel mai important, structura acestor interviuri a oferit cercetătorilor libertatea de a evidenţia ceea ce considerau a fi cel mai important pentru ei personal.
Oamenii de ştiinţă au folosit aceste interviuri pentru a genera modele AI personalizate care ar putea prezice modul în care persoanele ar putea răspunde la întrebări din sondaje, experimente sociale şi jocuri comportamentale. Acestea au inclus răspunsuri la General Social Survey, un instrument bine stabilit pentru măsurarea atitudinilor şi comportamentelor sociale; la Big Five Personality Inventory; şi la jocuri economice, precum Dictator Game şi Trust Game.
Deşi agenţii AI au reflectat îndeaproape omologii lor umani în multe domenii, precizia lor a variat în funcţie de sarcini. Aceştia s-au descurcat deosebit de bine în reproducerea răspunsurilor la sondajele de personalitate şi în determinarea atitudinilor sociale, dar au fost mai puţin precişi în prezicerea comportamentelor în jocurile interactive care implică luarea deciziilor economice. Cercetătorii au explicat că inteligenţa artificială întâmpină de obicei dificultăţi în sarcinile care implică dinamica socială şi nuanţele contextuale.
Ei au recunoscut, de asemenea, potenţialul de utilizare abuzivă a tehnologiei. Inteligenţa artificială şi tehnologiile „deepfake” sunt deja utilizate de actori rău intenţionaţi pentru a înşela, a se preface, a abuza şi a manipula alte persoane online. Cercetătorii au afirmat că şi agenţii de simulare pot fi folosiţi în mod abuziv.
Cu toate acestea, ei au afirmat că tehnologia ne-ar putea permite să studiem aspecte ale comportamentului uman în moduri care nu erau practice anterior, oferind un mediu de testare extrem de controlat, fără provocările etice, logistice sau interpersonale ale lucrului cu oamenii.
Într-o declaraţie pentru MIT Technology Review, autorul principal al studiului, Joon Sung Park, doctorand în informatică la Stanford, a declarat: „Dacă puteţi avea o grămadă de «voi» mici care aleargă şi iau de fapt deciziile pe care le-aţi fi luat dvs. - cred că acesta este, în cele din urmă, viitorul”.