Grok-2 e le immagini AI senza limiti “etici”

Rilasciato, nella sua versione beta, a metà agosto, ha già fatto parlare di sé perché prova ad applicare il teorema di X sulla presunta libertà d'espressione alla generazione di immagini

19/08/2024 di Gianmichele Laino

Non è soltanto una questione di etica, ma anche di norme. Almeno se guardiamo ai confini dell’Unione Europea. Elon Musk – lo abbiamo specificato a più riprese – ha un rapporto piuttosto controverso con l’intelligenza artificiale. Ricordiamo, ad esempio, che è stato tra i fondatori di OpenAI, salvo poi entrare in rotta di collisione con il board. Da quel momento in poi, ha persino attraversato una fase da paladino dell’etica connessa all’intelligenza artificiale, promuovendo iniziative e tavoli tecnici per cercare di arginare la deriva dell’AI generativa e i suoi rischi per il genere umano. Ma è stata una fase che è durata pochissimo: X stava già promuovendo un proprio strumento di intelligenza artificiale, xAI, che ha dato vita in poco tempo prima a Grok e, da qualche giorno, anche a Grok-2 nella sua versione beta. Rilasciata prima di Ferragosto, Grok-2 ha subito mostrato che cosa è in grado di fare, non soltanto a livello di risposte in base a prompt scritti dagli utenti, ma anche a livello di visual. Infatti, grazie all’integrazione di FLUX.1 di Black Forest Labs all’interno del suo codice, è in grado di generare delle immagini piuttosto realistiche che in questi giorni hanno già fatto molto discutere per la loro violenza e per l’assenza totale di scrupolo etico nel risultato finale. 

LEGGI ANCHE > Come disabilitare l’impostazione di addestramento automatico dell’AI di Musk

Grok-2, quali sono i problemi e i limiti etici che l’AI di Elon Musk sta superando

Ci sono sicuramente tre problemi di fondo – e restiamo soltanto alla superficie della questione – che non rendono Grok-2 sicura, soprattutto per quanto riguarda la generazione di immagini. Il primo problema è rappresentato dall’apparente indifferenza dell’intelligenza artificiale di Elon Musk nei confronti del copyright. Il diritto d’autore è una questione che viene affrontata puntualmente nei confronti di qualsiasi tipologia di intelligenza artificiale, ed è per questo che OpenAI e le altre aziende che operano in questo settore cercano di essere quantomeno attente a non violarlo in maniera esplicita. Certo, il problema del copyright è molto vasto e non basterebbe una monografia per affrontarlo. Fatto sta che i marchi, le opere d’ingegno più famose, testi e personaggi che hanno fatto la storia del pensiero e della cultura globale normalmente non vengono affrontati dalle altre intelligenze artificiali generative. Al contrario, Grok, ad esempio, non si fa problemi a utilizzare il volto di Topolino o di Super Mario per le proprie opere generate attraverso l’AI: non dà una risposta negativa, non genera un errore (come fanno le altre aziende AI), ma soddisfa sempre in pieno le richieste dell’utente. A discapito di qualsiasi tutela del diritto d’autore.

Il secondo problema, invece, è rappresentato dalla generazione esplicita di deepfake che possono alterare il dibattito pubblico.

Si pensi all’esempio fatto da Eliot Higgins che, con Bellingcat, sta provando a effettuare operazioni di debunking a livello internazionale. Quest’ultimo ha mostrato come possa essere semplice far realizzare da Grok l’immagine di Elon Musk con una bottiglia molotov accesa di fronte ai più significativi edifici della storia dell’umanità e dal profondo significato geopolitico. Basta qualche piccola indicazione per eliminare una didascalia esplicativa che dovrebbe tutelare il fruitore dell’immagine dal recepirla come vera. Del resto, in giro è pieno di esempi collegati alle elezioni americane: deepfake di Kamala Harris (alcuni anche a sfondo sessuale esplicito), per non parlare di presunti incontri affettuosi tra la candidata democratica e Donald Trump o, ancora, di folle festanti che sventolano bandiere rosse con falce e martello a un comizio della stessa Harris.

E questo introduce anche il terzo problema, ovvero l’assenza di un qualsiasi indicatore che possa evidenziare come l’immagine prodotta da Grok sia generata attraverso l’intelligenza artificiale. Il watermark, lo si ricorda, è una delle prescrizioni che l’AI Act, approvato nell’Unione Europea, prevede come forma di tutela minima per l’utente che deve essere sempre in grado di riconoscere immediatamente un’immagine o un video generati attraverso l’intelligenza artificiale. Per questo e per tutti gli altri motivi elencati sopra, Grok-2 ha già attirato l’attenzione della Commissione Europea, pronta a lanciare l’ennesimo guanto di sfida a Elon Musk. Quest’ultimo, però – come nelle altre fattispecie – non sembra intenzionato affatto a raccoglierlo o, comunque, a scendere a patti per adattare il suo prodotto al mercato europeo. Alla faccia dell’etica.

Share this article
TAGS