Instagram ha un problema con l’etichetta “creata con l’AI”

L'AI Act - ma anche le varie discussioni etiche sull'intelligenza artificiale - hanno reso necessario, per le piattaforme, indicare i contenuti generati con queste tecnologie. Ma, a volte, si esagera

26/06/2024 di Gianmichele Laino

L’intelligenza artificiale, ogni giorno, sembra far arrabbiare una determinata categoria di lavoratori o di artisti che operano nel proprio settore di riferimento attraverso prestazioni e opere d’ingegno per cui detengono il copyright. Se ieri abbiamo riportato una storia che riguarda le case discografiche, in causa con ben due piattaforme di intelligenza artificiale che generano musica basandosi su un dataset di opere coperte da diritti per cui non è stato richiesto alcun tipo di permesso di utilizzo, oggi è la volta dei fotografi che se la prendono con Instagram per la leggerezza con cui, fino a questo momento, ha affrontato il tema delle fotografie etichettate come generate dall’intelligenza artificiale. Leggerezza, già: perché, a volte, per non sbagliare, Instagram sembra inserire la label di AI anche a contenuti che, in realtà, non sono generati con l’AI, ma che sono stati creati attraverso strumenti di post produzione fotografica automatizzati. Un concetto, come vedremo, molto diverso dalla generazione di contenuto attraverso l’intelligenza artificiale.

LEGGI ANCHE > Il grande caos delle etichette di Twitter ai media

Instagram e etichette AI, un probabile pasticcio all’orizzonte

Le etichette che contrassegnano un contenuto generato con l’intelligenza artificiale sono una previsione sia normativa, sia di natura etica e professionale. L’AI Act recentemente approvato all’interno dei confini dell’Unione Europea prevede che un contenuto sia contrassegnato e riconoscibile, quando si tratta di generazione attraverso l’intelligenza artificiale. Ma tutti i tavoli di confronto sull’AI hanno previsto questa fattispecie, in modo tale da supportare l’utente a comprendere meglio cosa sia contenuto generativo e cosa sia contenuto reale. Il tutto, ovviamente, per limitare al massimo il fenomeno dei deepfake e la produzione di fake news basate sullo user generated content.

Per questo, le grandi piattaforme – non è il caso soltanto di Instagram – si stanno attrezzando per dotare di un apposito watermark i contenuti generati dall’intelligenza artificiale. Lo fanno a livello algoritmico: la piattaforma riconosce i metadati che caratterizzano una immagine o un video generato dagli strumenti AI di Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock e – automaticamente – contrassegna il contenuto. Ma cosa succede (ed è una costante che ritroviamo anche nell’approccio alla moderazione dei contenuti gestiti in maniera automatizzata da piattaforme social) quando Instagram contrassegna come AI un’immagine che, in realtà, è semplicemente stata post-prodotta in maniera professionale da un fotografo che l’ha invece scattata personalmente?

Ci sono state diverse segnalazioni, nei giorni scorsi, di fotografi che hanno sperimentato sulla propria pelle l’introduzione da parte di Instagram (e dell’ecosistema Meta in generale) delle etichette di riconoscimento per i contenuti AI. Questo perché, dopo gli annunci di febbraio, da maggio Meta ha iniziato a contrassegnare alcune immagini come “Made with AI”. A un mese, di fatto, dalla messa in produzione di questo sistema, ecco i primi cortocircuiti.

Innanzitutto, diverse testate americane di settore (come TechCrunch oppure PetaPixel) hanno raccolto le segnalazioni di celebri professionisti che usano Instagram per postare portfolio dei loro lavori. Tra questi, anche un ex fotografo che ha lavorato ufficialmente alla Casa Bianca. È emerso che anche l’utilizzo di uno strumento di post-produzione di Adobe (ad esempio, la funzionalità che consente di coprire con lo stesso background della foto un elemento di troppo in un angolo della stessa) viene percepito da Instagram come intervento dell’intelligenza artificiale. Con la conseguenza che una foto post-prodotta sarà contrassegnata dall’etichetta Made with AI. 

«Stiamo tenendo conto dei feedback recenti e continuiamo a valutare il nostro approccio in modo che le nostre etichette riflettano la quantità di intelligenza artificiale utilizzata in un’immagine» – ha detto Meta in un commento. La sensazione è che, in futuro, sarà possibile avere almeno due tipologie di etichette: una relativa al contenuto interamente generato dall’AI, l’altra relativa a un contenuto che è stato solamente post-prodotto attraverso strumenti professionali. Il vero problema, però – come vedremo in un altro articolo del nostro monografico di oggi -, è che, mentre Meta su alcuni contenuti sembra overperformare con le sue etichette contrassegno, su altri contenuti (palesemente generati con l’AI) tace. E questo potrebbe essere il vero problema.

Share this article
TAGS