California: no alle restrizioni sull’intelligenza artificiale

Il 29 settembre, il governatore della California, Gavin Newsom, ha posto il veto su un disegno di legge per la sicurezza dell’IA, che avrebbe regolato eticamente modelli avanzati.

governstire della california

Tempo di lettura:

3 minuti


Domenica 29 settembre, il governatore della California, Gavin Newsom, ha deciso di porre un veto sul disegno di legge sulla sicurezza dell’intelligenza artificiale, noto come “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”.

La proposta, approvata dal Senato della California il 28 agosto, avrebbe introdotto per la prima volta una regolamentazione etica e di sicurezza volta a proteggere la società da potenziali abusi dell’IA, come attacchi informatici o la creazione di armi.

Il disegno di legge, identificato come SB 1047, avrebbe imposto agli sviluppatori requisiti stringenti, tra cui l’obbligo di implementare misure di sicurezza contro accessi non autorizzati e di conservare una copia non censurata dei protocolli di sicurezza.

In caso di incidenti legati all’IA, gli sviluppatori sarebbero stati tenuti a informare il Procuratore Generale entro 72 ore. Il testo prevedeva anche una tutela per i whistleblower, ossia i dipendenti che avrebbero segnalato violazioni della sicurezza, e la creazione di un’agenzia apposita, il “Board of Frontier Models”, incaricata della supervisione sulla conformità alle norme. Tra le misure proposte, figuravano anche test di sicurezza per i modelli di IA avanzati e l’introduzione di un “kill switch”, un meccanismo per disattivare i modelli in caso di emergenza. Questi requisiti sarebbero stati particolarmente stringenti per progetti con costi superiori a 100 milioni di dollari o che utilizzano grandi quantità di potenza di calcolo.

Nonostante le intenzioni della legge, la proposta ha incontrato una forte opposizione da parte delle startup, delle grandi aziende tecnologiche e di alcuni membri democratici della Camera.

Newsom ha giustificato il suo veto esprimendo preoccupazioni riguardo l’impatto della legge sull’industria tecnologica nazionale, sostenendo che essa avrebbe imposto requisiti troppo rigidi e inadeguati per la maggior parte dei sistemi IA, senza distinguere tra l’uso in contesti ad alto rischio o per decisioni critiche. Secondo il governatore, l’applicazione di standard così severi anche a sistemi di base avrebbe compromesso la competitività del settore tecnologico, nel paese.

Tuttavia, Newsom ha chiarito di non voler lanciare un segnale sbagliato e ha invitato gli esperti di intelligenza artificiale generativa a collaborare per creare misure di sicurezza più pratiche e basate su analisi scientifiche, inoltre ha ordinato alle agenzie statali di ampliare la loro valutazione dei rischi legati a potenziali scenari catastrofici derivanti dall’uso dell’IA.

Questa vicenda mette in luce un problema ricorrente: le proposte legislative mirate a garantire maggiore protezione nei confronti dei rischi legati all’intelligenza artificiale si scontrano spesso con il timore che regolamenti troppo rigidi possano frenare l’innovazione e la competitività. Le istituzioni, preoccupate che misure così rigide possano scoraggiare lo sviluppo tecnologico e allontanare le aziende, spesso decidono di fare un passo indietro.

Il senatore democratico Scott Weiner, promotore del disegno di legge, ha definito il veto di Newsom “una battuta d’arresto” per coloro che sostengono la necessità di una maggiore supervisione sulle grandi aziende tecnologiche, che prendono decisioni cruciali per la sicurezza pubblica. Weiner ha sottolineato che persino le aziende stesse riconoscono l’esistenza di rischi crescenti legati ai modelli IA, affermando che “gli impegni volontari del settore raramente funzionano a beneficio del pubblico”.

Sostenitori del provvedimento, come Elon Musk e rappresentanti di Anthropic, hanno evidenziato che la legge avrebbe potuto introdurre maggiore trasparenza e responsabilità nello sviluppo di modelli di IA su larga scala.

Vale la pena ricordare che la California ospita molte delle principali aziende di intelligenza artificiale a livello mondiale, il che significa che ogni iniziativa legislativa in questo settore ha ripercussioni non solo a livello statale, ma anche su scala nazionale e globale.

Il Garante ha dichiarato in una nota che monitorerà attentamente l’accordo per assicurarsi che vengano rispettate le normative sulla privacy.

Tale accordo ha attirato l’attenzione anche della Federazione Nazionale della Stampa Italiana (FNSI) che ha espresso preoccupazioni riguardo agli impatti di questa partnership sui diritti d’autore e le condizioni lavorative dei giornalisti.

Secondo il sindacato, è necessario un approfondimento tecnico e contrattuale per capire se l’IA di OpenAI utilizzerà i contenuti dei giornalisti per addestrarsi e se questi verranno contabilizzati correttamente. La FNSI, insieme alle Associazioni Stampa Romana e Subalpina, ha richiesto un confronto trasparente su questi temi, per assicurare che l’accordo produca benefici economici anche per le redazioni.