Sam Altman, CEO di OpenAI, cerca di passare come paladino dell’etica dell’IA, una situazione di equilibrio non facile. Intanto è costretto, nel giro di poche ore a ritrattare le sue dichiarazioni, fatte a Londra, e a (ri)promettere che ChatGPT non lascerà l’UE.
Nel giro di meno di 24 ore, si può affermare che è accaduto di tutto. Probabilmente, Sam Altman, CEO di OpenAI, pensava ancora di trovarsi di fronte alla Commissione del Congresso USA. Fatto sta che, nel giro di poco tempo, ha dovuto rivedere le sue dichiarazioni che stavano già infiammando il dibattito.
Per cercare di capire cosa sia successo, ripercorriamo i fatti.
Sam Altman, CEO di OpenAI, azienda che è diventata uno dei progetti più profittevoli per l’implementazione dell’intelligenza artificiale generativa, da qualche tempo si impegna a diventare uno dei nuovi volti della regolamentazione dell’IA.
Si tratta di un equilibrio molto difficile da mantenere, ma lui è intenzionato ad andare avanti. E così, mentre è riuscito a far passare le sue idee al cospetto di un certo numero di parlamentari statunitensi, possiamo affermare che non ha riscontrato lo stesso successo in Europa. Tanto che è stato costretto a chiarire quali sono i piani della sua azienda per continuare a operare fuori dagli Stati Uniti.
Durante una tappa a Londra, mercoledì scorso, Altman ha dichiarato che se l’UE dovesse continuare sulla stessa linea riguardo alla regolamentazione sull’IA, potrebbe provocare non pochi problemi a OpenAI.
Tra le sue dichiarazioni, Altman ha detto: “Se possiamo rispettare, lo faremo, e se non possiamo, smetteremo di operare… Ci proveremo. Ma ci sono limiti tecnici rispetto a ciò che è possibile“.
very productive week of conversations in europe about how to best regulate AI! we are excited to continue to operate here and of course have no plans to leave.
— Sam Altman (@sama) May 26, 2023
Non è difficile immaginare le reazioni che queste parole hanno suscitato in Europa, e non solo. Ma Altman, resosi conto di non essere negli USA, ha cercato di correre ai ripari, ritrattando le sue affermazioni rese a Londra. Infatti, ha cambiato decisamente tono: “siamo entusiasti di continuare a operare (in Europa) e ovviamente non abbiamo intenzione di andarcene“. Ah, ok. Caso risolto, ma solo in parte.
È vero che negli USA sta prendendo piede un dibattito serio riguardo alla regolamentazione dell’Intelligenza Artificiale, ma bisogna dire che gli Stati Uniti sono ancora lontani dal mettere in pratica una seria regolamentazione.
Si parla ancora della nuova Legge sulla responsabilità algoritmica, ormai da più di un anno, e più di recente con una proposta di “Task Force sull’IA“. Ma, a dispetto di tutto, non c’è ancora nulla di concretamente deciso.
L’UE, d’altra parte, ha modificato una proposta di legge sull’IA per tener conto dell’Intelligenza Artificiale generativa moderna, come ChatGPT.
Quel disegno di legge potrebbe avere enormi implicazioni per il modo in cui i grandi modelli di linguaggio come il GPT-4 di OpenAI vengono addestrati su una moltitudine di dati degli utenti prelevati da Internet. La legge proposta dalla commissione europea potrebbe etichettare i sistemi AI come “ad alto rischio” se dovessero essere utilizzati per influenzare le elezioni.
OpenAI non è l’unica grande azienda tecnologica che sembra voler anticipare il dibattito sull’etica dell’IA. Nei giorni scorsi anche i dirigenti di Microsoft hanno intrapreso una campagna mediatica per spiegare cosa intendono fare in materia di regolamentazione dell’IA. Il presidente di Microsoft, Brad Smith, durante una diretta su LinkedIn, ha detto che gli Stati Uniti potrebbero utilizzare una nuova agenzia per gestire l’IA. Si tratta di un’idea avanzata anche da Altman, ma vedremo.
Rispetto a Microsoft, bisogna dire che il colosso di Redmond è stato il più pronto a diffondere l’IA rispetto ai suoi rivali, in un tentativo di superare le grandi aziende tecnologiche come Google e Apple. Per non parlare del fatto che Microsoft è in una partnership multimiliardaria in corso con OpenAI.
Sempre in merito a OpenAI, il giorno dopo le tanto discusse affermazioni di Altman a Londra, OpenAI ha rivelato di essere in procinto di creare un programma di sovvenzioni per finanziare gruppi che potrebbero decidere le regole attorno all’IA.
Il fondo distribuirà 10 sovvenzioni da 100.000 dollari a gruppi disposti a fare il lavoro e a creare “prove di concetto per un processo democratico che potrebbe rispondere a domande su quali regole dovrebbero seguire i sistemi IA“. L’azienda ha detto che la scadenza per questo programma è solo di un mese, entro il 24 giugno.
Ecco, questo è quanto è successo rispetto all’IA e alle dichiarazioni di Sam Altman. Ma siamo sicuri che non sarà l’unico momento di revisione delle proprie dichiarazioni. Nelle prossime settimane, e nei prossimi mesi, ne vedremo degli altri.