OpenAI continua a perdere pezzi: sciolto il team che studiava i rischi dell’AI

Il cosiddetto Superalignment team è stato sciolto dopo gli addi di due personalità di spicco dell'azienda: il co-fondatore Ilya Sutskever e il leader del team Jan Leike

21/05/2024 di Enzo Boldi

Addi con polemica che fanno riflettere sui veri obiettivi di OpenAI. Quella startup nata a San Francisco e che da tempo lavora con progetti che non sono più Open source (a differenza del nome stesso), continua a preoccupare non solo il mondo esterno, ma anche coloro i quali hanno lavorato – fino a qualche giorno fa – all’interno della stessa. Due addi che fanno rumore: prima quello del co-fondatore Ilya Sutskever – con cui Sam Altman si era scontrato alla fine dello scorso anno -, poi (qualche ora dopo) quello di Jan Leike, leader del cosiddetto Superalignment team, ovvero coloro i quali analizzano i rischi dello sviluppo di sistemi AI all’interno dell’azienda. Anzi, non analizzano più.

LEGGI ANCHE > Annunci il tuo assistente vocale con il riferimento a “Her”, ma poi neghi che la voce sia di Scarlett Johansson

Il Superalignment team, infatti, è stato sciolto dopo questi due addii eccellenti. Quella squadra creata nel luglio dello scorso anno proprio per studiare i rischi – per l’uomo (anche a livello etico) – dei prodotti di OpenAI, non esiste più. Il tutto è avvenuto (e non sembra essere un caso) proprio nei giorni dell’annuncio del nuovo modello GPT-4o e le polemiche per le “voci” degli assistenti vocali di ChatGPT (con una, quella rinominata “Sky”, molto simile a quella dell’attrice Scarlett Johansson che non aveva dato il consenso).

Il Superalignment team di OpenAI è stato sciolto

Dunque, non ci sarà più una costola interna ad analizzare i rischi dei prodotti di OpenAI. Il primo addio, in ordine temporale, è stato quello più rumoroso. Il co-fondatore Ilya Sutskever ha lasciato senza fornire molte spiegazioni in merito alla sua decisione.

Allegando, in un post su X, una foto in compagnia di Sam Altman (CEO), Mira Murati (CTO), e Greg Brockman (Presidente), si è limitato a scrivere: «Dopo quasi un decennio, ho deciso di lasciare OpenAI. La traiettoria dell’azienda è stata a dir poco miracolosa e sono fiducioso che OpenAI costruirà un’AGI sicura e vantaggiosa. È stato un onore e un privilegio aver lavorato insieme e mi mancheranno moltissimo tutti. Addio e grazie di tutto. Sono entusiasta di ciò che verrà dopo, un progetto che per me è molto significativo a livello personale e di cui condividerò i dettagli a tempo debito». Dunque, un addio che sembra prevedere un nuovo inizio.

Le polemiche

E se Ilya Sutskever non accenna a criticità, qualche ora dopo è arrivato un altro addio. Molto più rumoroso, soprattutto per quel che riguarda le polemiche e le conseguenze tecniche. Ovvero lo scioglimento del Superalignment team.

Jan Leike era il leader del team che si occupava di studiare gli eventuali rischi dei prodotti basati sull’intelligenza artificiale di OpenAI. Nel suo lungo thread pubblicato su X, si è tolto qualche sassolino dalla scarpa. In particolare: «Da un po’ di tempo sono in disaccordo con le priorità stabilite dalla leadership […]. Gran parte della nostra larghezza di banda dovrebbe essere spesa per prepararci alla sicurezza, al monitoraggio, al super allineamento, e all’impatto sociale delle prossime generazioni di modelli. Ma negli ultimi mesi il mio team ha dovuto lottare per avere la potenza di calcolo necessaria a questa cruciale ricerca […]. OpenAI ha una responsabilità nei confronti dell’umanità. Ma negli ultimi anni, la cultura e i processi riguardanti la sicurezza sono passati in secondo piano rispetto a prodotti luccicanti». Un affondo servito. E le preoccupazioni aumentano.

Share this article
TAGS