Opt-out e i suoi fratelli: tutti i problemi dell’addestramento di Meta AI (con i nostri dati)

Quello che è stato definito un "accordo" con la DPC irlandese è - in realtà - il frutto di una "furbata" da parte dell'azienda di Menlo Park

17/06/2024 di Enzo Boldi

Ci sono due temi in ballo quando si parla dello stop (temporaneo) all’arrivo dell’intelligenza artificiale di Meta in Europa. Il primo riguarda la definizione di “legittimo interesse” come base giuridica per procedere all’utilizzo dei dati degli utenti (compresi post, foto e video) per l’addestramento di Meta AI; il secondo, invece, rientra in quella che potremmo definire – a tutti gli effetti – una “furbata” da parte dell’azienda di Menlo Park. Parliamo della possibilità di non concedere i propri dati (ma non tutti, come abbiamo spiegato in un precedente approfondimento) attraverso la compilazione di un modulo, ma con una furba modalità opt-out al posto di quella opt-in.

LEGGI ANCHE > Per il momento, Meta AI non arriverà in Europa

Parliamo dal “legittimo interesse” come base giuridica. Si tratta di una delle principali contestazioni che vengono mosse nei confronti delle aziende del mondo tech che trattano i dati degli utenti. L’addestramento Meta AI può rientrare sotto questo cappello per confermare la legittimità dell’utilizzo dei nostri dati? Anche in questo caso, occorre analizzare il tutto dal punto di vista commerciale e comunicativo: Meta sostiene che questa procedura è necessaria per consentire all’azienda di concedere ai clienti europei un prodotto in linea con il resto del mondo. Chi contesta – come l’organizzazione Nyob di Max Schrems – questa narrazione, sostiene che il fine principale non sia un “regalo” agli utenti, ma un aumento dei ricavi aziendali, senza pagare per l’utilizzo dei dati stessi.

Addestramento Meta AI, il problema dell’opt-out

Il bandolo della matassa di questa vicenda è difficile da trovare anche perché la mossa del Garante Privacy irlandese (dove Meta ha la sue sede europea) è arrivata solamente dopo i reclami presentati negli ultimi giorni. E sullo sfondo c’è un’altra questione, secondaria rispetto alla definizione di “legittimo interesse”, ma che rappresenta il simbolo di una procedura “furba” attuata da Menlo Park. Come abbiamo raccontato fin dall’arrivo delle prime notifiche, gli utenti avevano la possibilità di rivendicare il proprio diritto di opposizione all’addestramento Meta AI attraverso i propri dati. La holding di Mark Zuckerberg aveva “concesso” questa possibilità attraverso una modalità opt-out. Cosa vuol dire? Che ha agito attraverso un consenso implicito (e non esplicito): se un utente, per esempio, si fosse dimenticato di andare a compilare quel modulo online (con tanto di richiesta di motivazioni che sarebbero state valutate come legittime dal team di Meta), l’AI di Meta avrebbe utilizzato i suoi dati per addestrarsi.

In questi casi, la pratica migliore – meno furba – è quella di procedere con un approccio opt-in. Non si applica di default un cambiamento, ma lo si annuncia permettendo all’utente di dare un consenso esplicito. Dunque, non come avvenuto in occasione dell’annuncio (ora sospeso) dell’arrivo dell’intelligenza artificiale di Meta in Europa e nel Regno Unito. Un solo pulsante per dire “dò il consenso”, senza che – in caso di “dimenticanza” – questo cambiamento piuttosto invasivo per quel che riguarda i nostri dati diventi effettivo a nostra insaputa.

Share this article