Tra le pieghe dell’incessante sviluppo dei sistemi di Intelligenza Artificiale che hanno radicalmente trasformato la nostra società e aperto nuove prospettive in diversi settori, crescono numerosi interrogativi e preoccupazioni. Oggi più che mai, l’Intelligenza Artificiale è al centro di un dibattito che non si limita al suo potenziale innovativo, ma si estende alle implicazioni etiche, sociali, politiche ed economiche della sua implementazione.

Se progrediscono accuratezza e correttezza relative alle risposte dei sistemi GenAI più diffusi e commercializzati, possiamo d’altra parte immaginare che la ricerca e l’innovazione all’interno dei laboratori delle aziende sia avanzata anche più di quanto immesso sul mercato.

Capire cosa accade nei laboratori di OpenAI, di Google o di Anthropic e delle altre aziende che stanno rivoluzionando il nostro universo informativo e comunicativo, è la domanda che molti si pongono, spesso con velate preoccupazioni o dubbi.

D’altra parte, sono passati solo pochi mesi da quando, lo scorso novembre, una rivoluzione è avvenuta in OpenAI con il cambiamento improvviso del consiglio di amministrazione e la deposizione di Altman. La decisione di licenziare Altman è stata basata su una generica “perdita di fiducia” nella sua capacità di guidare l’organizzazione. Licenziamento tanto repentino quanto breve, con il riposizionamento di Altman al vertice dopo poche settimane. Le specifiche motivazioni dietro questa perdita di fiducia sono, ad oggi, ancora opache ma, fonti affidabili hanno parlato di disaccordi significativi tra Altman e alcuni membri del consiglio su come gestire le questioni relative alla sicurezza e all’etica dell’intelligenza artificiale, nonché sulle strategie dell’azienda. La più preoccupante di queste indiscrezioni, narrava di OpenAI vicina alla realizzazione di una AGI (Intelligenza Artificiale Generale), ovvero una IA con abilità e competenze assimilabili a quelle umane.

In questo scenario appare pertanto comprensibilmente tranquillizzante la presentazione, da parte di OpenAI, ovvero del suo CEO, in una riunione con i dipendenti, di un sistema di classificazione a cinque livelli per misurare i progressi verso la costruzione dell’intelligenza artificiale generale (AGI).

Una presentazione fatta “all’interno” dell’azienda ma il cui probabile destinatario è un pubblico tutto esterno.

Questo teorico sistema di classificazione si articola nei seguenti cinque livelli:

  • Livello 1 – “ChatBots”: l’IA attualmente disponibile in grado di interagire in linguaggio colloquiale con le persone.
  • Livello 2 – “Reasoners”: sistemi in grado di svolgere attività di risoluzione di problemi di base, analoghe a quelle di un essere umano con un’istruzione di livello di dottorato, ma senza l’ausilio di strumenti.
  • Livello 3– “Agents”: IA che possono agire per diversi giorni per conto di un utente, svolgendo compiti complessi e prolungati.
  • Livello 4 – “Innovators”: IA capaci di elaborare nuove innovazioni, mostrando creatività e inventiva.
  • Livello 5 – “Organizations”: IA in grado di svolgere il lavoro di un’intera organizzazione, dimostrando una competenza e una gestione di compiti su larga scala.

Attualmente, OpenAI afferma di trovarsi al Livello 1, con sistemi di Intelligenza Artificiale capaci di interazioni colloquiali e risposte complesse. Tuttavia, i recenti sviluppi in GPT-4, che hanno dimostrato nuove competenze sempre più simili al ragionamento umano, suggeriscono che il passaggio al Livello 2 sia prossimo.  I livelli sono stati immaginati da dirigenti ed altri professionisti ai vertici di OpenAI ma sono ancora in fase di sviluppo.

Altman, mediante il sistema a 5 livelli ha delineato il quadro strategico che dovrebbe guidare OpenAI negli anni a venire esprimendo una trasparente e strutturata rassicurazione sulle capacità dell’Intelligenza Artificiale attuali e potenziali. D’altro canto, questo sistema potrebbe aiutare a fornire una definizione delle future tappe del “temuto” progresso dell’IA orientata alla costruzione dell’AGI, anziché lasciarlo all’interpretazione ed all’immaginazione.

In questa attività di evidenti PR, Altman adotta un approccio che mira a rasserenare l’opinione pubblica, puntando il suo discorso su criteri di sicurezza e fiducia. Inoltre, Altman propone di aiutare investitori, partner e il pubblico in generale a comprendere meglio il pensiero di OpenAI sulla sicurezza e il futuro dell’Intelligenza artificiale, tracciando e comunicando i progressi in modo più trasparente e responsabile.

Non a caso questa nuova scala di valutazione è stata introdotta un giorno dopo che OpenAI ha annunciato la sua collaborazione con il Los Alamos National Laboratory, che mira ad esplorare come modelli di intelligenza artificiale avanzati come GPT-4o possano assistere in modo sicuro nella ricerca bioscientifica.