IMMAGINE REALIZZATA CON IA MIDJOURNEY

Il 28 agosto scorso, il Senato della California ha approvato il disegno di legge SB 1047, proposto dal senatore Scott Wiener, per regolamentare i modelli avanzati di Intelligenza Artificiale.

Il provvedimento, che attende la firma del governatore Gavin Newsom entro il 30 settembre, potrebbe segnare un punto di svolta nella gestione dei rischi legati allo sviluppo dell’Intelligenza artificiale, soprattutto in California, considerata un hub tecnologico globale.

Il disegno di legge “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act” (SB 1047)  mette in atto, per la prima volta in California, regole di etica e sicurezza per proteggere la società dall’IA utilizzata per condurre attacchi informatici, sviluppare armi chimiche, nucleari o biologiche da parte del crimine organizzato, attacchi che potrebbero causare danni stimati oltre i 500 milioni di dollari.

Nello specifico, SB 1047 introduce una serie di requisiti stringenti e regolamentazioni per gli sviluppatori di modelli di IA avanzati, che dovranno seguire rigorose misure di sicurezza e protocolli per prevenire accessi non autorizzati e modifiche pericolose ai loro modelli. Inoltre, dovranno conservare una copia non censurata del protocollo di sicurezza per tutta la durata di utilizzo del modello, più un ulteriore periodo di cinque anni, rendendola disponibile in qualsiasi momento al Procuratore Generale della California.

Gli sviluppatori saranno tenuti a valutare regolarmente se i loro modelli possono causare o abilitare danni critici e adottare misure preventive adeguate, come, revisioni annuali dei protocolli di sicurezza per garantire che i modelli siano aggiornati alle migliori e più sicure pratiche nel settore. A partire dal 2026, sarà obbligatorio per gli sviluppatori sottoporsi annualmente ad audit indipendenti sulla conformità ai requisiti della legge, con i risultati che dovranno essere resi pubblici in forma redatta. Tuttavia, il Procuratore Generale potrà richiedere l’accesso alla versione completa.

In caso di incidenti di sicurezza legati all’IA, gli sviluppatori dovranno inviare apposita notifica al Procuratore Generale entro 72 ore dall’evento: un requisito pensato per garantire una risposta rapida e coordinata e adottare le opportune contromisure.

Altro elemento rilevante è la “protezione whistleblower”, ovvero la legge introduce una garanzia di protezione per i dipendenti che segnalano violazioni della sicurezza o rischi associati ai modelli di intelligenza artificiale, tutelandoli da eventuali ritorsioni delle aziende.

Secondo il disegno di legge il rispetto di tali norme sarà nelle mani di una nuova agenzia la “Board of Frontier Models”, agenzia governativa che sarà incaricata di monitorare la conformità degli sviluppatori di IA alle normative.

Il provvedimento è oggetto di una forte opposizione da parte dell’industria tecnologica. Figure di spicco come Fei-Fei Li (professoressa di informatica all’università di Stanford), Andrew Ng (ricercatore di Stanford), Yann LeCun (Meta’s chief AI scientist) e aziende come OpenAI hanno espresso preoccupazioni riguardo l’impatto di questa legge sull’innovazione.

Il problema evidenziato è che una regolamentazione troppo rigida potrebbe soffocare lo sviluppo tecnologico e spingere le aziende a lasciare la California. Inoltre, alcuni sostengono che la regolamentazione dovrebbe essere affrontata a livello federale, piuttosto che statale.

In particolare le Big Tech ( tra queste Google, Meta, Apple), su cui il disegno di legge si concentra direttamente, attraverso la Chamber of Progress, coalizione di aziende tecnologiche, ha pubblicato una lettera aperta contro il disegno di legge affermando che SB 1047 “spinge l’innovazione tecnologica fuori dalla California”.

La regolamentazione dell’IA è un processo in continuo divenire, con progetti di legge, norme e regolamenti che stanno nascendo e si sviluppano in tutti i paesi del mondo, ciascuno con orientamenti e logiche che rispecchiano le culture di provenienza.

In Europa, ad esempio, il tema è stato già oggetto del ben noto Regolamento AI Act, molto diverso dal progetto di legge californiano, negli scopi e negli orientamenti etici e giuridici.

L’AI Act dell’Unione Europea pone al centro della sua normazione la sicurezza e la privacy dei cittadini, cercando di bilanciare questi elementi con l’innovazione attraverso una classificazione dei sistemi di IA che prevede requisiti differenti a seconda della categoria di rischio.

L’SB 1047, sebbene sia soltanto una proposta sembra essere più orientato a garantire un controllo politico da parte delle autorità locali, richiedendo alle aziende controlli e conformità suscettibili di approvazione e verifica da parte degli organi di governo.