Instagram contribuie activ la răspândirea automutilării în rândul adolescenţilor [Studiu]

(Getty Images)
Redacţia
04.12.2024

Meta contribuie în mod activ la răspândirea conţinutului de automutilare pe Instagram prin faptul că nu reuşeşte să elimine imaginile explicite şi îi încurajează pe cei care se implică în astfel de conţinut să se împrietenească între ei, potrivit rezultatelor unui nou studiu care a constatat că moderarea de pe platforma menţionată este „extrem de inadecvată”, relatează The Guardian.

Cercetătorii danezi au creat o reţea privată de automutilare pe platforma de socializare, inclusiv profiluri false ale unor persoane în vârstă de doar 13 ani, în care au partajat 85 de conţinuturi legate de automutilare, a căror gravitate a crescut treptat, inclusiv sânge, lame de ras şi încurajarea automutilării.

Scopul studiului a fost de a testa afirmaţia Meta potrivit căreia şi-a îmbunătăţit în mod semnificativ procesele de eliminare a conţinutului dăunător, care, potrivit acesteia, utilizează acum inteligenţă artificială (AI). Compania de tehnologie susţine că elimină aproximativ 99% din conţinutul dăunător înainte ca acesta să fie raportat.

Dar Digitalt Ansvar (Digital Accountability), o organizaţie care promovează dezvoltarea digitală responsabilă, a constatat că, în timpul experimentului de o lună, nu a fost eliminată nicio imagine.

Atunci când şi-a creat propriul instrument simplu de inteligenţă artificială pentru a analiza conţinutul, acesta a reuşit să identifice automat 38% dintre imaginile cu autovătămare şi 88% dintre cele mai grave. Potrivit companiei, acest lucru a arătat că Instagram a avut acces la o tehnologie capabilă să abordeze problema, dar „a ales să nu o pună în aplicare în mod eficient”.

Moderarea inadecvată a platformei, a declarat Digitalt Ansvar, a sugerat că aceasta nu respectă legislaţia UE.

Legea impune serviciilor digitale mari să identifice riscurile sistemice, inclusiv consecinţele negative previzibile asupra bunăstării fizice şi mentale.

Un purtător de cuvânt al Meta a declarat: „Conţinutul care încurajează autovătămarea este împotriva politicilor noastre şi îl eliminăm atunci când îl detectăm. În prima jumătate a anului 2024, am eliminat peste 12 milioane de postări legate de sinucidere şi autovătămare pe Instagram, dintre care 99% au fost eliminate proactiv.

La începutul acestui an, am lansat Instagram Teen Accounts, care va plasa adolescenţii în cea mai strictă setare a controlului nostru de conţinut sensibil, astfel încât este şi mai puţin probabil să li se recomande conţinut sensibil şi, în multe cazuri, ascundem cu totul acest conţinut”,

Cu toate acestea, studiul danez a constatat că, în loc să încerce să închidă reţeaua de automutilare, algoritmul Instagram a contribuit activ la extinderea acesteia. Cercetarea a sugerat că tinerii de 13 ani devin prieteni cu toţi membrii grupului de automutilare după ce au fost conectaţi cu unul dintre membrii acestuia.

Potrivit studiului, acest lucru „sugerează că algoritmul Instagram contribuie activ la formarea şi răspândirea reţelelor de automutilare”.

Vorbind pentru Observer, Ask Hesby Holm, director executiv al Digitalt Ansvar, a declarat că societatea a fost şocată de rezultate, după ce a crezut că, pe măsură ce imaginile pe care le-a partajat au crescut în gravitate, acestea ar declanşa semnale de alarmă pe platformă.

„Am crezut că, atunci când vom face acest lucru treptat, vom atinge pragul în care AI sau alte instrumente vor recunoaşte sau identifica aceste imagini. Dar mare surpriză - nu au făcut-o”, a spus el.

Holm a adăugat: „Acest lucru a fost îngrijorător, deoarece am crezut că au un fel de maşină care încearcă să înţeleagă şi să identifice acest conţinut”.

Eşecul de a modera imaginile de autoagresiune poate duce la „consecinţe grave”, a spus el.

„Acest lucru este foarte asociat cu sinuciderea. Deci, dacă nimeni nu semnalizează sau nu face nimic cu privire la aceste grupuri, ele devin necunoscute pentru părinţi, autorităţi, cei care pot ajuta la sprijin.”

Meta, crede el, nu moderează grupurile private mici, cum ar fi cel creat de compania sa, pentru a menţine un trafic şi o implicare ridicate.

„Nu ştim dacă ei moderează grupuri mai mari, dar problema este că grupurile de auto-agresiune sunt mici”, a spus el.

Lotte Rubæk, un psiholog de frunte care în martie a părăsit grupul global de experţi Meta privind prevenirea sinuciderilor, după ce l-a acuzat că „închide ochii” la conţinutul Instagram dăunător, a declarat că, deşi nu a fost surprinsă de rezultatele generale, a fost şocată să vadă că nu au eliminat conţinutul cel mai explicit.

„Nu m-aş fi gândit că vor elimina zero din 85 de postări. Am sperat că va fi mai bine. Ei au spus în mod repetat în mass-media că tot timpul îşi îmbunătăţesc tehnologia şi că au cei mai buni ingineri din lume. Acest lucru dovedeşte, chiar dacă la scara mică, că acest lucru nu este adevărat”, a spus ea.

Rubæk a declarat că eşecul Meta de a elimina de pe platformele sale imaginile de automutilare „declanşează” femeile tinere şi fetele vulnerabile să îşi facă şi mai mult rău şi contribuie la creşterea numărului de sinucideri.

De când a părăsit grupul global de experţi, ea a declarat că situaţia de pe platformă nu a făcut decât să se înrăutăţească, impactul fiind clar vizibil la pacienţii săi.

Problema autovătămării pe Instagram, a spus ea, este o chestiune de viaţă şi de moarte pentru copiii şi adolescenţii tineri.

„Şi cumva asta este doar o pagubă colaterală pentru ei pe drumul de a face bani şi profit pe platformele lor”, a subliniat Rubæk.

România are nevoie de o presă neaservită politic şi integră, care să-i asigure viitorul. Vă invităm să ne sprijiniţi prin donaţii: folosind PayPal
sau prin transfer bancar direct în contul (lei) RO56 BTRL RONC RT03 0493 9101 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
sau prin transfer bancar direct în contul (euro) RO06 BTRL EURC RT03 0493 9101, SWIFT CODE BTRLRO22 deschis la Banca Transilvania pe numele Asociația Timpuri Epocale
O presă independentă nu poate exista fără sprijinul cititorilor