social media e contenuti sull’autolesionismo: uno studio

Per lo studio mancano condizioni di sicurezza nella navigazione degli utenti

L’agenzia danese ha ideato una rete credibile di profili di utenti potenzialmente interessati all’autolesionismo. Obiettivo dello studio era testare l’affermazione di Meta secondo cui Instagram è in grado di rimuovere i contenuti autolesionistici con l’intelligenza artificiale

data di pubblicazione:

19 Settembre 2025

I risultati di uno studio danese sulle pratiche di autolesionismo e social media contestano l’efficienza delle misure di sicurezza per gli utenti che utilizzano diverse piattaforme, tra cui Meta, TikTok e Snapchat.

Lo studio è stato condotto dalla Digital Accountability, un’agenzia privata indipendente che si occupa di sicurezza informatica e uso responsabile dei dati.

Sebbene diversi studi  hanno segnalato che l’uso dei social media possa fornire agli utenti supporto e senso di comunità, altri studi osservano come i social possano contribuire a una sorta di effetto di normalizzazione di diversi comportamenti rischiosi per la salute, tra cui quello dell’autolesionismo. 

Ed è per garantire uno spazio online sicuro e responsabile per gli utenti che sono entrati in vigore l’Online Safety Act del 2023 nel Regno Unito e il Regolamento dell’Unione Europea 2022/2065 sui servizi digitali (Digital Services Act, DSA).

Il metodo utilizzato dallo studio per mettere alla prova i sistemi di sicurezza prevedeva la creazione di (…) una falsa rete autolesionista su Instagram, attivando dieci profili privati di utenti fake con età sia inferiore che superiore ai 18 anni.

L’agenzia danese ha in questo modo ideato una rete credibile di profili di utenti potenzialmente interessati all’autolesionismo. Obiettivo dello studio era testare l’affermazione di Meta secondo cui Instagram è in grado di rimuovere i contenuti autolesionistici con l’intelligenza artificiale”.

Il risultato è stato che non solo Instagram, attraverso il suo algoritmo, non ha censurato o rimosso i contenuti autolesionistici dei post, ma “(…) il suo algoritmo potrebbe anche incentivare la diffusione di reti di autolesionismo, persino tra i bambini”.

“Nello studio, infatti, se un utente di 13 anni faceva amicizia con un solo utente della finta rete di Digital Accountability, l’algoritmo automatico di Instagram gli suggeriva di seguire tutti gli altri utenti appartenenti alla rete di profili fake.

Ciò significa che se un 13enne, ad esempio, segue accidentalmente un profilo in cui vengono condivisi contenuti di autolesionismo, Instagram lo aiuterà a trovare altri profili che condividono contenuti simili.

Instagram svolge quindi un ruolo potenzialmente determinante nel dare forma e diffondere reti in cui vengono condivisi contenuti autolesionistici. Secondo lo studio, Meta potrebbe contribuire al proliferare di contenuti autolesionistici su Instagram non rimuovendo le immagini esplicite e incoraggiando coloro che interagiscono con tali contenuti a stringere amicizia tra loro”.

In conclusione per lo studio “(…) le misure adottate da Meta appaiono insufficienti per limitare i contenuti autolesionistici che rappresentano un chiaro rischio per la salute fisica e mentale degli utenti e per la sicurezza dei minori, violando le norme dell’UE per le grandi piattaforme di social media come Instagram”.

Ti potrebbe interessare anche
Precedente
Successivo