Age verification e siti per adulti: cosa succede ora a social e a strumenti di AI?

L'urgenza del decreto Caivano ha portato a regolamentare le piattaforme con contenuti per adulti. Ma, a volte, i sistemi digitali più rischiosi per i minori sono rappresentati da social e da tool di AI

14/10/2024 di Gianmichele Laino

Le linee guida pubblicate da Agcom relativamente al sistema di verifica dell’età per i siti per adulti rispondevano a una specifica urgenza. Quella, cioè, del decreto Caivano: all’articolo 13-bis del provvedimento legislativo con cui si cercava di contrastare il fenomeno del disagio giovanile, infatti, si chiedeva all’Autorità garante della privacy di intervenire entro 60 giorni con l’adozione di linee guida per mettere nelle condizioni il legislatore di poter rendere esecutivo il suo divieto di utilizzo, da parte dei minori, dei siti porno. Per questo motivo, si è pensato di avviare una consultazione con 13 soggetti e di sottoporre al vaglio della Commissione Europea le linee guida risultanti da questa consultazione. Al momento, infatti, questi principi si applicano esclusivamente ai siti per adulti (i siti porno, sicuramente, ma anche quelli di scommesse, che incitano alla violenza o che hanno contenuti inappropriati), ma non ancora alle piattaforme social, ad esempio, o agli strumenti di intelligenza artificiale. Eppure, questi ultimi sono stati al centro di numerose querelle (anche di natura politica) per alcune situazioni pericolose che si sono verificate nei confronti dei minori e che sono state rilevate, tra gli altri organismi italiani, anche dal Garante della Privacy.

LEGGI ANCHE > L’utente avrà privacy nella navigazione con la richiesta di verifica dell’età sui siti per adulti?

Age verification sui social e per gli strumenti di AI, a che punto siamo?

Sicuramente i social network si sono posti il problema con maggiore frequenza perché più spesso sono finiti nell’occhio del ciclone. Challenge, contenuti sensibili ma pubblici, disinformazione e disordine informativo in generale hanno fatto in modo che, a livello globale, si sia posto il problema dell’opportunità della presenza dei minori sulle piattaforme. Più volte, i numeri uno delle varie piattaforme social sono stati chiamati a riferire alle autorità rispetto al loro lavoro sui minori (lo stesso Zuckerberg, tra le altre cose, è stato audito al Congresso Usa anche per questo motivo). Da qui, si è innestato un processo che ha visto i social network prendere delle contromisure per i minori: limitazioni delle funzionalità per i minori d’età compresa tra i 14 e i 18 anni, parental control e maggiori attenzioni soprattutto sui messaggi in DM. Inoltre, gli algoritmi delle piattaforme lavorano per riconoscere i comportamenti degli utenti e partire da questi per imporre delle limitazioni in caso di raggiri nei processi di autocertificazione dell’età al momento dell’iscrizione sulle piattaforme social.

Ma si tratta di soluzioni che non sono imposte da una autorità regolatrice, né dal legislatore. Per questo motivo, sfuggono a un controllo più serrato e alla possibilità di un trattamento univoco e unitario per tutti. Ancor più labile è la posizione degli strumenti di intelligenza artificiale (come ChatGPT) sul controllo dell’età. All’epoca della sospensione di ChatGPT in Italia, una delle ragioni che stavano alla base della contestazione da parte del Garante della Privacy era proprio quella della scarsa trasparenza rispetto alla possibilità che il chatbot fosse utilizzato anche da minori, senza il controllo di un adulto e senza la possibilità di tutelarli da eventuali contenuti inappropriati messi in evidenza dallo strumento.

Possibile che questa situazione, per quanto riguarda social e piattaforme di AI, continui a stazionare in questo limbo, mentre garanti e legislatori se la prendono, al momento, soltanto con i siti porno?

Share this article