In un momento in cui i social network sono accusati di non fare abbastanza per proteggere i minorenni, l’azienda statunitense Meta ha annunciato l’11 aprile nuove misure su Instagram per proteggerli dai ricatti sessuali legati alle foto di nudo (sextortion).
Instagram introdurrà uno strumento, che sarà installato di default sugli account degli utenti minorenni, che rileverà automaticamente le immagini di nudo, sfocandole. Gli utenti potranno poi decidere se rimuovere la sfocatura.
Contemporaneamente il mittente e il destinatario delle immagini riceveranno messaggi per sensibilizzarli sulla questione dei ricatti sessuali e sul rischio che contenuti sensibili finiscano nelle mani di persone malintenzionate.
Iscriviti a Americana |
Cosa succede negli Stati Uniti. A cura di Alessio Marchionna. Ogni domenica.
|
Iscriviti |
Iscriviti a Americana
|
Cosa succede negli Stati Uniti. A cura di Alessio Marchionna. Ogni domenica.
|
Iscriviti |
Inoltre, gli account identificati come potenziali fonti di ricatti sessuali subiranno severe restrizioni nelle interazioni con utenti minorenni.
In caso di contatti con potenziali ricattatori, gli utenti minorenni riceveranno messaggi di avvertimento e saranno indirizzati a un sito chiamato “Stop sextortion” e a una linea di assistenza telefonica.
Le misure saranno testate a partire da maggio in alcuni paesi dell’America Latina, prima di essere estese al resto del mondo entro la fine dell’anno.
Consenso esplicito dei genitori
Meta aveva già annunciato a gennaio una serie di misure per proteggere gli utenti minorenni dei suoi social network, tra cui Facebook.
In base a queste misure, i minorenni devono ottenere il consenso esplicito dei genitori per passare da account privati a pubblici, per accedere a contenuti sensibili e per ricevere messaggi da utenti che non figurano tra i contatti.
Di recente la Commissione europea ha avviato una serie di inchieste su Meta, Snap (Snapchat), TikTok e YouTube incentrate sulla protezione della salute fisica e mentale dei minorenni.