Meta contribuie în mod activ la răspândirea conținutului de automutilare pe Instagram prin faptul că nu reușește să elimine imaginile explicite și îi încurajează pe cei care se implică în astfel de conținut să se împrietenească între ei, conform unui nou studiu care a constatat că moderarea rețelei de socializare este „extrem de inadecvată”, scrie The Guardian.

Cercetătorii danezi au creat pe platforma de socializare o rețea privată dedicată automutilării, inclusiv profiluri false ale unor persoane cu vârste de până la 13 ani, în care au distribuit 85 de conținuturi legate de automutilare, a căror gravitate a crescut treptat, inclusiv sânge, lame de ras și încurajări spre automutilare.

Scopul studiului a fost de a testa afirmația Meta conform căreia și-a îmbunătățit în mod semnificativ procesele de eliminare a conținutului dăunător, care, potrivit acesteia, utilizează acum inteligența artificială (AI). Gigantul tech susține că elimină aproximativ 99% din conținutul dăunător înainte ca acesta să fie raportat.

Dar Digitalt Ansvar, o organizație care promovează dezvoltarea digitală responsabilă, a constatat că, în timpul experimentului de o lună, nu a fost eliminată nicio imagine.

Atunci când și-a creat propriul instrument simplu de inteligență artificială pentru a analiza conținutul, acesta a reușit să identifice automat 38% dintre imaginile cu autovătămare și 88% dintre cele mai grave. Potrivit companiei, acest lucru a arătat că Instagram a avut acces la o tehnologie capabilă să abordeze problema, dar „a ales să nu o pună în aplicare în mod eficient”.

Moderarea inadecvată a platformei, a declarat Digitalt Ansvar, a sugerat că aceasta nu respectă legislația UE.

Un sondaj realizat de organizația caritabilă pentru sănătatea mintală a tinerilor stem4 a arătat că aproape jumătate dintre copiii și tinerii intervievați au devenit retrași, au început să facă exerciții fizice excesive, au încetat complet să socializeze sau s-au automutilat ca răspuns la hărțuirea și trollingul online cu privire la aspectul lor fizic.

Legea privind serviciile digitale impune serviciilor digitale de mari dimensiuni să identifice riscurile sistemice, inclusiv consecințele negative previzibile asupra bunăstării fizice și mintale.

Un purtător de cuvânt al Meta a declarat: „Conținutul care încurajează autovătămarea este împotriva politicilor noastre și eliminăm acest conținut atunci când îl detectăm. În prima jumătate a anului 2024, am eliminat mai mult de 12 milioane de piese legate de sinucidere și autovătămare pe Instagram, dintre care 99% au fost șterse în mod proactiv”.

„La începutul acestui an, am lansat Instagram Teen Accounts, care va plasa adolescenții în cea mai strictă setare a controlului nostru de conținut sensibil, astfel încât este și mai puțin probabil să li se recomande conținut sensibil și, în multe cazuri, ascundem cu totul acest conținut.”

Cu toate acestea, studiul danez a constatat că, în loc să încerce să închidă rețeaua de automutilare, algoritmul Instagram a contribuit activ la extinderea acesteia. Cercetarea a sugerat că tinerii de 13 ani devin prieteni cu toți membrii grupului de automutilare după ce au fost conectați cu unul dintre membrii acestuia.

Conform studiului, acest lucru „sugerează că algoritmul Instagram contribuie activ la formarea și răspândirea rețelelor de automutilare”.

Ask Hesby Holm, director executiv al Digitalt Ansvar, a declarat că organizația a fost șocată de rezultate, după ce a crezut că, pe măsură ce imaginile pe care le-a partajat au crescut în gravitate, acestea ar declanșa semnale de alarmă pe platformă.

„Am crezut că, atunci când vom face acest lucru treptat, vom atinge pragul în care AI sau alte instrumente vor recunoaște sau identifica aceste imagini”, a spus el. „Dar mare surpriză – nu au făcut-o”.

El a adăugat: „Acest lucru a fost îngrijorător, deoarece am crezut că au un fel de mașină care încearcă să înțeleagă și să identifice acest conținut.”

Eșecul de a modera imaginile de autoagresiune poate duce la „consecințe grave”, a spus el. „Acest lucru este foarte asociat cu sinuciderea. Deci, dacă nimeni nu semnalizează sau nu face nimic cu privire la aceste grupuri, ele devin necunoscute pentru părinți, autorități, cei care pot ajuta la sprijin.” Meta, crede el, nu moderează grupurile private mici, cum ar fi cel creat de compania sa, pentru a menține un trafic și o implicare ridicate. „Nu știm dacă ei moderează grupuri mai mari, dar problema este că grupurile de auto-agresiune sunt mici”, a spus el.

Lotte Rubæk, o psiholoagă care a părăsit grupul global de experți Meta privind prevenirea sinuciderilor în martie, după ce l-a acuzat că „închide ochii” la conținutul Instagram dăunător, a declarat că, deși nu a fost surprinsă de rezultatele generale, a fost șocată să vadă că nu au eliminat conținutul cel mai explicit.

„Nu m-aș fi gândit că vor elimina zero din 85 de postări”, a spus ea. „Am sperat că va fi mai bine. Ei au spus în mod repetat în mass-media că tot timpul își îmbunătățesc tehnologia și că au cei mai buni ingineri din lume. Acest lucru dovedește, chiar dacă la scară mică, că acest lucru nu este adevărat.”

Rubæk a declarat că eșecul Meta de a elimina de pe platformele sale imaginile de automutilare le determină femeile tinere și fetele vulnerabile să își facă și mai mult rău și contribuie la creșterea numărului de sinucideri.

De când a părăsit grupul global de experți, ea a declarat că situația de pe platformă nu a făcut decât să se înrăutățească, impactul fiind clar vizibil la pacienții săi.

Problema automutilării pe Instagram, a spus ea, este o chestiune de viață și de moarte pentru copiii și adolescenții tineri. „Și cumva asta este doar o pagubă colaterală pentru ei pe drumul de a face bani și profit pe platformele lor”.

Editor : B.E.

Share.
Exit mobile version