Il Vertice sulla Sicurezza dell’Intelligenza Artificiale del 2023 tenutosi in UK a Bletchley Park ha riunito circa 150 rappresentanti provenienti da tutto il mondo, tra cui leader di governo, ministri, leader dell’industria, del mondo accademico e della società civile. Durante le sessioni del 1° novembre, si è discusso dei rischi legati all’IA di frontiera e del ruolo dei diversi attori nella loro gestione, nonché delle opportunità offerte dall’IA in vari settori. Il 2 novembre, le discussioni si sono concentrate sugli impatti dell’IA, sulla collaborazione internazionale e sulla promozione della sicurezza globale dell’IA.
Uno degli aspetti rilevanti per il mondo dell’informazione emersi durante il Vertice, è l’importanza di affrontare contemporaneamente i rischi legati all’IA di frontiera e quelli legati all’IA esistente. Questi rischi includono la diffusione di false narrazioni, la minaccia alla democrazia e ai processi elettorali, l’uso improprio dell’IA nella criminalità, l’aumento delle disuguaglianze e la discriminazione.
Gli sforzi dovrebbero essere indirizzati a trattare ciascuno di questi rischi in modo proattivo.
Questo Vertice ha permesso discussioni pratiche tra partecipanti nazionali e internazionali e riflessioni in particolare per il Regno Unito.
Il Primo Ministro britannico, Rishi Sunak, ha sottolineato che il mondo sta vivendo una rivoluzione tecnologica generazionale con lo sviluppo accelerato dell’IA, che presenta opportunità e rischi economici e sociali senza precedenti. I partecipanti al Vertice hanno concordato sulla necessità di affrontare proattivamente questi impatti attraverso una collaborazione internazionale.
Nel prossimo anno, verranno introdotti modelli di IA molto più potenti, e c’è un’urgenza per un’azione globale, chiara e decisiva. Sebbene le sfide non possano essere risolte in un solo vertice, queste discussioni preparano il terreno per futuri vertici ospitati dalla Repubblica di Corea e dalla Francia, con l’obiettivo di realizzare gli obiettivi della Dichiarazione di Bletchley.
I Cinque obiettivi del Vertice
- una comprensione condivisa dei rischi posti dall’IA di frontiera e della necessità di agire;
- un processo avanzato per la collaborazione internazionale sulla sicurezza dell’IA di frontiera, compreso il modo migliore per supportare i quadri nazionali e internazionali
- misure adeguate che le singole organizzazioni dovrebbero adottare per aumentare la sicurezza dell’IA di frontiera;
- aree di potenziale collaborazione sulla ricerca sulla sicurezza dell’IA, compresa la valutazione delle capacità del modello e lo sviluppo di nuovi standard a supporto della governance
- Dimostrare come garantire lo sviluppo sicuro dell’IA consentirà di utilizzarla per scopi positivi a livello globale
La Dichiarazione di Bletchley
Nella dichiarazione si evidenziano le immense possibilità che l’IA offre in termini di progresso e miglioramento del benessere, della pace e della prosperità umana. Viene sottolineata l’importanza di un approccio centrato sull’uomo, sicuro, affidabile e responsabile nella progettazione, sviluppo, implementazione e utilizzo dell’AI. Si riconosce il valore dei passi compiuti dalla comunità internazionale per collaborare su questo fronte al fine di promuovere una crescita economica inclusiva, lo sviluppo sostenibile, l’innovazione e la protezione dei diritti umani, nonché per rafforzare la fiducia pubblica nelle tecnologie AI.
L’AI è già presente in numerosi settori della vita e la sua presenza è destinata a crescere. Si riconosce l’opportunità unica di usare l’AI per benefici universali, anche attraverso il miglioramento dei servizi pubblici e il contributo al raggiungimento degli obiettivi di sviluppo sostenibile dell’ONU.
Tuttavia, vengono anche rilevati i rischi significativi associati all’AI, come l’impatto sui diritti umani, la necessità di trasparenza, equità, responsabilità, regolamentazione, sicurezza, controllo umano, etica, mitigazione dei pregiudizi, privacy e protezione dei dati. Si esprime preoccupazione in particolare per i rischi legati ai modelli AI di frontiera, ovvero sistemi altamente capaci che possono svolgere un’ampia varietà di compiti e possono causare danni intenzionali o non, soprattutto in settori critici come la sicurezza informatica e la biotecnologia.
Data la rapida evoluzione dell’AI e l’intensificazione degli investimenti, si sottolinea l’urgenza di approfondire la comprensione dei potenziali rischi e delle azioni per mitigarli. Questi rischi hanno natura internazionale e richiedono cooperazione internazionale per essere affrontati efficacemente. I paesi sono invitati a considerare un approccio normativo flessibile e innovativo, e si riconosce l’importanza della cooperazione su principi comuni e codici di condotta.
Si afferma che tutti gli attori, inclusi nazioni, aziende, società civile e mondo accademico, hanno un ruolo nella garanzia della sicurezza dell’AI e nell’inclusione digitale. Gli sviluppatori di AI di frontiera hanno una responsabilità particolare nella sicurezza dei loro sistemi. Si invita a trasparenza e responsabilità nei piani per mitigare potenziali danni.
L’agenda internazionale per affrontare i rischi dell’AI di frontiera si focalizza sull’identificazione condivisa dei rischi, sulla costruzione di un’intesa scientifica basata sull’evidenza, sullo sviluppo di politiche basate sul rischio e sulla collaborazione internazionale.
Si supporta l’istituzione di una rete internazionale di ricerca sulla sicurezza dell’AI di frontiera, integrando la collaborazione esistente per fornire basi scientifiche solide alle politiche pubbliche.
Infine, si promuove un dialogo globale aperto su AI, con l’impegno di proseguire la ricerca sulla sicurezza dell’AI di frontiera e di sfruttare i vantaggi della tecnologia in modo responsabile per il bene comune, in vista di un ulteriore incontro nel 2024.
Hanno sottoscritto la Dichiarazione: Australia, Brasile, Canada, Chile, Cina, Unione Europea, Francia, Germania, India, Indonesia, Irlanda, Israele, Italia, Giappone, Kenia, Arabia Saudita, Olanda, Nigeria, Le Filippine, Repubblica di Corea, Ruanda, Singapore, Spagna, Svizzera, Turchia, Ucraina, Emirati Arabi Uniti, Regno Unito di Gran Bretagna e Irlanda del Nord, Stati Uniti d’America
Inoltre, è stato menzionato il lavoro svolto in altre iniziative internazionali, come il trattato intergovernativo sull’IA del Consiglio d’Europa e il processo di intelligenza artificiale del G7, che comprende azioni specifiche per affrontare la disinformazione e l’integrità elettorale. L’uso dell’IA a scopi militari è stato anche discusso, con il riconoscimento dell’importanza del Summit on Responsible AI in the Military Domain (REAIM).
È stata discussa l’importanza dei principi e dei codici condivisi. La revisione della raccomandazione OCSE del 2019 sull’IA è stata accolta con favore, insieme a iniziative come la Raccomandazione dell’UNESCO sull’etica dell’IA. Il G7 Hiroshima AI Process e i suoi Principi guida internazionali sono stati riconosciuti come una base importante per gli sviluppatori nell’IA.
I partecipanti al Vertice sulla Sicurezza dell’Intelligenza Artificiale hanno discusso l’importanza della standardizzazione e dell’interoperabilità nell’ambito dell’IA, riconoscendo i vantaggi derivanti dalla definizione di approcci che consentano una migliore collaborazione e una gestione efficace dei rischi legati all’IA di frontiera e alla tecnologia AI in generale.
Le basi per regolamentazioni comuni sono state poste, ma le ambizioni dei singoli Stati riusciranno a rispettarle?