Perché un’immagine non creata con l’AI viene etichettata come tale da Meta?

Il sistema automatizzato di Meta per la segnalazione dei contenuti generati con l'intelligenza artificiale si sta scontrando con alcuni problemi

26/06/2024 di Enzo Boldi

Per adeguarsi alle normative europee (ma anche a quelle degli Stati Uniti dove, però, non c’è ancora una legge ad hoc), Meta ha seguito pedissequamente le richieste scritte nero su bianco nei regolamenti vigenti: adottare uno strumento in grado di segnalare graficamente agli utenti la visione di un contenuto (audio o video) generato dall’intelligenza artificiale. Dunque, tutto sembrerebbe andare nella giusta direzione, soprattutto in una fase storica in cui i deepfake sono diventati sempre più sofisticati rendendo difficile la distinzione tra ciò che è reale e ciò che non lo è. Ma l’etichetta “Creato con AI” (Made with IA) che troviamo sempre più spesso apparire scrollando – soprattutto – nel feed di Instagram, sembra avere più di un problema.

LEGGI ANCHE > Instagram ha un problema con l’etichetta “creata con l’AI”

Come detto, l’obiettivo che si vuole raggiungere è sacrosanto e in linea con le normative vigenti. Come segnalato da molti fotografi, però, il sistema automatizzato di “controllo” ed etichettatura sta commettendo una serie di errori, identificando come frutto dell’intelligenza artificiale anche delle immagini che non lo sono. Ovviamente, l’errore di Meta non avviene su foto scattate e caricate, ma su quelle su cui c’è stato anche un piccolo intervento in post-produzione.

Creato con AI, problemi dell’etichetta di Meta su Instagram

Perché avviene tutto ciò? Partiamo da un aspetto. Molti dei fotografi che hanno notato questo “errore” non hanno caricato sui propri profili social di Meta immagini “originali”. In molti casi, infatti, c’è stato un intervento (anche minuscolo) in post-produzione per apportare piccoli miglioramenti. Ed è qui che sorge il problema: se prima strumenti come Photoshop mettevano a disposizione funzionalità che non erano identificabili come intelligenza artificiale, oggi anche loro basano le loro soluzioni sull’AI.

Per fare un esempio. Un tempo, quando scattavamo una fotografia a un paesaggio e sullo sfondo veniva immortalato anche il sorvolo di un aereo, sarebbe bastato utilizzare un “pennello” digitale per rimuovere quella presenza che non volevamo far apparire. Un pennello che non era AI, ma che ricalcava il colore del cielo. Insomma, una “toppa” dello stesso colore non visibile a occhio nudo. Oggi, invece, per farlo Adobe (che sviluppa e commercializza Photoshop) ha messo a disposizione strumenti come “Generative Fill”. E questo non piace all’algoritmo di controllo di Instagram che – attraverso l’incrocio dei metadati dell’immagine – riesce a individuare il ricorso a uno strumento di intelligenza artificiale. Dunque, anche se l’immagine è reale al 99,9%, il solo passaggio attraverso uno strumento di questo tipo (ma ce ne sono anche tanti altri in commercio che seguono lo stesso paradigma) comporta l’etichetta “Creato con AI” da parte di Meta.

Share this article