Lo scorso 18 agosto Donald Trump  ha condiviso sul suo account Truth Social una serie di immagini realizzate con l’IA, che mostrano i fan di Taylor Swift, inclusa la stessa cantante, esprimere sostegno alla sua campagna. In una di queste foto, alcuni Swifties sono ritratti sorridenti con magliette recanti la scritta “Swifties for Trump”.

È stato poi accertato che le immagini erano prodotte dalla John Milton Freedom Foundation (ne riportavano la filigrana), organizzazione non profit con sede in Texas che si presenta come un gruppo per la libertà di stampa con l’obiettivo di “rafforzare i giornalisti indipendenti” e “rafforzare le fondamenta della democrazia”, come riporta il The Guardian.

L’uso dell’intelligenza artificiale per influenzare l’opinione pubblica in ambito politico sta diventando sempre più preoccupante: è sempre più difficile, infatti, distinguere tra realtà e manipolazione.

Già prima dell’inizio ufficiale delle campagne presidenziali americane di quest’anno, gli esperti avevano avvertito che l’IA è in grado di creare immagini e video manipolati con tale precisione da confondere anche gli osservatori più attenti, mettendo a rischio il processo elettorale.

Un fenomeno simile lo avevamo evidenziato a proposito delle  elezioni dello scorso aprile in India, dove l’intelligenza artificiale era  stata utilizzata in modo massiccio per personalizzare i messaggi politici. L’IA era stata impiegata per creare avatar digitali del Primo Ministro Modi che si rivolgeva agli elettori chiamandoli per nome, con video e messaggi telefonici generati automaticamente in diverse lingue locali.

La crescente difficoltà nel rilevare tali contenuti ha spinto aziende e organizzazioni a sviluppare strumenti per distinguere tra contenuti reali e artificiali, un esempio è TrueMedia.org, un’organizzazione no profit che ha presentato uno strumento di verifica dei media basato sull’intelligenza artificiale.

Questo strumento, progettato per assistere giornalisti e altre figure chiave nella rilevazione dei deepfake, consente agli utenti di inserire collegamenti a contenuti provenienti da piattaforme come TikTok, X, Mastodon, YouTube, Reddit, Instagram, Google Drive o Facebook per verificarne l’autenticità, riuscendo a identificare i deepfake di audio, immagini e video nel 90% dei casi.

Anche Intel ha introdotto FakeCatcher, un rilevatore di deepfake in tempo reale con una precisione del 96%, questo strumento utilizza hardware e software Intel per analizzare i video tramite una piattaforma web.

Un altro strumento è stato sviluppato da Microsoft, Microsoft Video Authenticator  analizza foto e video per fornire una valutazione della probabilità che il contenuto sia un deepfake. Utilizza algoritmi di machine learning per rilevare i segni distintivi di manipolazioni.

Secondo un articolo di Wired, però rilevare contenuti creati o modificati con l’intelligenza artificiale è ancora un campo in via di sviluppo, nonostante nel 2023 le startup di questo settore abbiano raccolto oltre 21 miliardi di dollari, gli strumenti per identificare i media sintetici non sono ancora completamente affidabili.

Sam Gregory, direttore di Witness, organizzazione non-profit, che aiuta le persone a usare la tecnologia per sostenere i diritti umani, spiega che attualmente gli strumenti disponibili possono identificare contenuti generati dall’IA con un’affidabilità compresa tra l’85% e il 90%.

I tassi di precisione però si abbassano significativamente quando si tratta di analizzare contenuti provenienti da contesti non occidentali, come il Bangladesh o il Senegal, dove le caratteristiche linguistiche e culturali non corrispondono a quelle dei dati utilizzati per addestrare i modelli di IA, generalmente basati su standard occidentali.

Questa mancanza di diversità nei dati di addestramento porta spesso a errori, con contenuti reali scambiati per artificiali e viceversa.  Ad esempio, l’inglese scritto da un non madrelingua è spesso erroneamente considerato generato dall’IA.

Inoltre, molti strumenti sono stati addestrati su media di alta qualità, mentre in molte parti del mondo, come l’Africa, sono comuni dispositivi con fotocamere di bassa qualità, creando ulteriori difficoltà nel rilevamento accurato.