IMMAGINE REALIZZATA CON IA MIDJOURNEY

L’intelligenza artificiale sta trasformando il settore dell’informazione, aprendo nuovi scenari per la creazione dei contenuti. La possibilità di distinguere tra contenuti naturali e sintetici, a fronte dell’evoluzione dei sistemi di IA, si sta riducendo notevolmente, con le intuibili problematiche di verifica e veridicità delle informazioni ed i sottostanti pericoli di disinformazione.

Questa trasformazione, come già discusso in un nostro precedente articolo, solleva importanti questioni riguardanti la trasparenza e la fiducia del pubblico. Una possibile soluzione per affrontare questi problemi potrebbe essere la segnalazione dei contenuti generati dall’intelligenza artificiale, mediante un sistema di etichettatura.

Anche l’attuale contesto normativo in evoluzione pone la necessità di capire come comunicare l’uso dell’Intelligenza artificiale al pubblico. A livello internazionale, infatti, ci sono stati sforzi per normare l’uso dell’Intelligenza artificiale nei media, come si evince in diversi punti dell’AI Act dell’Unione Europea e da proposte legislative simili negli Stati Uniti.

L’AI Act dell’UE, di cui già abbiamo parlato, sottolinea l’importanza della trasparenza e, nello specifico, l’Art. 52 impone che i contenuti generati dall’intelligenza artificiale debbano essere chiaramente identificati come tali. Tale indicazione di origine è obbligatoria ad eccezione dei casi in cui i sistemi di intelligenza artificiale non svolgano una mera funzione di assistenza per l’editing.

Negli Stati Uniti, il Congresso ha proposto una legislazione simile, come l’AI Disclosure Act del 2023  secondo il quale tutto il materiale generato dall’intelligenza artificiale dovrà includere un esplicito disclaimer.

L’etichettatura dei contenuti generati dall’Intelligenza artificiale può assumere forme diverse, da una semplice icona a spiegazioni più dettagliate. Ma la sola presenza di un’etichetta potrebbe non essere sufficiente, soprattutto se il pubblico non sa come interpretarla.

L’etichettatura ha già dimostrato di essere un utile strumento per contrastare la disinformazione, come nel caso delle etichette di fact-checking. Tuttavia, le etichette” IA”, se non progettate e utilizzate correttamente, possono addirittura avere effetti contrari, come ridurre la fiducia nei contenuti o nei giornalisti che li hanno prodotti.

In generale, la scarsa affidabilità dei sistemi di IA nella produzione di notizie, spesso contenenti errori se non vere e proprie “allucinazioni”, può indurre nel pubblico la percezione di una scarsa qualità dell’informazione. È pertanto necessario che il processo di creazione dei contenuti sintetici venga esposto chiaramente ed altrettanto chiaramente debba essere affiancato da un percorso di supervisione e verifica che possa ispirare fiducia in quelle informazioni.

La familiarità del pubblico con l’etichettatura e la fiducia nell’organizzazione giornalistica che la applica sono cruciali per l’efficacia di questa strategia.

Diversi social media e piattaforme tecnologiche stanno utilizzando l’etichettatura per i contenuti generati dall’intelligenza artificiale. Ad esempio, YouTube, a seguito dell’adesione di Google all’iniziativa C2PA (Coalition for Content Provenance and Authenticity), ha annunciato l’integrazione di uno strumento all’interno di Creator Studio, ora chiamato YouTube Studio, che richiede ai creator di segnalare quando i propri contenuti sono generati dall’IA. Questa informazione sarà visibile nella descrizione del contenuto, migliorando l’esperienza utente.

Anche TikTok utilizza la tecnologia Content Credentials per identificare ed etichettare i contenuti generati dall’IA, inclusi i deepfake. Allo stesso modo, Meta ha introdotto l’etichetta “Made with AI” per contrassegnare i contenuti creati o modificati con l’uso dell’intelligenza artificiale.