IMMAGINE REALIZZATA CON IA MIDJOURNEY

Giovedì 5 settembre, l’Unione Europea ha sottoscritto la “Convenzione quadro sull’intelligenza artificiale” il primo trattato internazionale giuridicamente vincolante in materia, volto a proteggere i diritti umani, la democrazia e lo Stato di diritto dai rischi associati all’IA.

La firma è avvenuta durante la conferenza informale dei ministri della Giustizia del Consiglio d’Europa a Vilnius, in Lituania. Tra i firmatari figurano l’Unione Europea, il Regno Unito, gli Stati Uniti, Israele e altri Stati membri del Consiglio d’Europa. I paesi firmatari possono adottare misure che siano “graduated and differentiated” in base alla gravità e alla probabilità degli impatti negativi sull’IA, ed inoltre, le misure adottate possono variare in base al contesto nazionale, purché rispettino gli obiettivi generali della convenzione.

Nello specifico, la Convenzione mira a prevenire l’uso improprio della tecnologia, come la diffusione di disinformazione o l’utilizzo di dati distorti per prendere decisioni, e stabilisce che i sistemi di IA devono rispettare principi fondamentali come la protezione dei dati personali, la non discriminazione, lo sviluppo sicuro e la dignità umana.

Inoltre, prevede un approccio comune per garantire che i sistemi di IA siano sicuri consentendo al contempo innovazione e fiducia da parte dei cittadini. Questo trattato impegna i paesi a monitorare e regolamentare l’IA, prevenire abusi e garantire che i dati personali siano trattati con rispetto.

Il sistema di monitoraggio è affidato alla Conferenza delle Parti, un organo decisionale composto dai rappresentanti degli Stati aderenti alla Convenzione, che si riunisce periodicamente per facilitare l’applicazione e l’attuazione della convenzione, garantendone l’efficacia a lungo termine.

La Conferenza delle Parti avrà il compito di:

  • Identificare e risolvere eventuali problemi legati all’applicazione della convenzione.
  • Considerare possibili integrazioni o modifiche alla convenzione.
  • Promuovere lo scambio di informazioni tra le parti.
  • Facilitare la cooperazione con altri stakeholder pertinenti.

Gli Stati aderenti dovranno fornire un rapporto alla Conferenza delle Parti entro i primi due anni dall’adesione e successivamente a intervalli regolari, dettagliando le attività intraprese per dare attuazione agli obblighi della convenzione.

 Francesca Fanucci, un’esperta legale dell’ European Center for Not-for-Profit Law Stichting (ECNL), ha affermato che l’accordo è stato “annacquato” da una serie di principi molto generali, ovvero non è dettagliato e preciso, ma piuttosto ha formulato principi ampi e vaghi. Secondo Fanucci, questa vaghezza solleva dubbi sulla chiarezza giuridica e sull’effettiva applicabilità ed in particolare Fanucci ha criticato due aspetti dell’accordo:

  • Le esenzioni per i sistemi di intelligenza artificiale utilizzati per motivi di sicurezza nazionale, che potrebbero consentire a questi sistemi di operare senza regolamentazioni strette.
  • Il controllo limitato delle aziende private rispetto al settore pubblico, che può creare uno “standard doppio”, cioè trattare in modo diverso le imprese private e le entità pubbliche.