In occasione delle elezioni l’India si organizza per combattere la disinformazione

In India, l’IA ha influenzato le elezioni e aumentato l’uso di deepfake. I giornalisti stanno sviluppando strumenti come DAU e Itisaar per combattere la disinformazione, ma devono affrontare sfide legate alla diversità linguistica e alla censura, spesso cercando aiuto da esperti internazionali e ONG.

elezioni in india

Tempo di lettura:

3 minuti


Negli ultimi anni, l’India ha assistito a un crescente utilizzo dell’intelligenza artificiale, che ha sicuramente fatto da protagonista nelle campagne elettorali, che hanno portato alle elezioni iniziate ad aprile ed ancora in corso.

Come avevamo già sottolineato questa tecnologia ha permesso la creazione di messaggi politici iperpersonalizzati, adattati alle diverse peculiarità culturali e linguistiche del paese.

È emersa sin da subito, come riporta Nieman Lab, la necessità da parte dei giornalisti di andare a identificare e rilevare i deepfake per limitare quanto più è possibile la diffusione di disinformazione ed infatti nelle redazioni indiane stanno sviluppando processi efficaci per tale scopo.

Ricardo Rebelo di Boom Live ha sottolineato come il rilevamento dei deepfake richieda la collaborazione con ricercatori accademici, organizzazioni no-profit contro la disinformazione e sviluppatori di IA, sia in India che all’estero.

A marzo, una coalizione di organizzazioni indiane di fact-checker ha lanciato la Deepfake Analysis Unit su WhatsApp (DAU), finanziata da Meta, per centralizzare gli sforzi di autenticazione dei media politici. Tre redattori in India valutano le segnalazioni e, se sospettano un deepfake, avviano un processo di autenticazione con partner forensi. La DAU gestisce clip in inglese, hindi, tamil e telugu, migliorando l’efficienza e riducendo i costi per le redazioni.

Un altro progetto è il laboratorio di Mayank Vatsa all’Indian Institute of Technology (IIT) di Jodhpur.  Vatsa ha lanciato Itisaar in collaborazione con la startup indiana DigitID. Itisaar è un portale web che consente la verifica automatizzata dei file, offrendo un servizio gratuito fino a 10 file e un abbonamento mensile per un numero maggiore di upload.

La piattaforma riceve uno o due potenziali deepfake ogni ora e ha oltre 80 utenti approvati. Ha valutato oltre 500 campioni, fornendo risultati importanti durante le elezioni. Ad esempio, Boom Live ha utilizzato Itisaar per determinare che i video di Aamir Khan e Ranveer Singh criticanti Modi erano manipolati tramite “scambio vocale”. Questi risultati sono stati riportati da Indian Express, NDTV e Hindustan Times.

Una delle sfide più significative in questi processi, in India, è la diversità linguistica. Infatti, le redazioni nazionali possono monitorare disinformazione nelle lingue principali, ma non per le altre 22 lingue ufficiali e oltre 120 lingue regionali. Il team di Vatsa ha quindi creato un database di 4,1 milioni di deepfake audio in 14 lingue, inclusi hindi, inglese, tamil, telugu e urdu, e un set di dati video deepfake di oltre 130.000 campioni.

Va ricordato però che negli ultimi anni, la crescente pressione e censura da parte del governo Modi ha reso il lavoro dei giornalisti e dei fact-cheking sempre più difficile. Un esempio è l’arresto nel 2022 di Mohammed Zubair, fondatore di Alt News, per un post sui social media. Più recentemente, il governo ha imposto restrizioni ai giornalisti sui social media e istituito un controverso organismo per il controllo dei fatti.

A causa di tali limitazioni nazionali sui deepfake, molti giornalisti si rivolgono regolarmente a esperti internazionali. Nilesh Christopher, un giornalista indipendente, ad esempio, ha collaborato con Witness, una ONG di Brooklyn. L’anno scorso, Witness ha lanciato la Deepfake Rapid Response Force per aiutare i giornalisti ad affrontare casi complessi di deepfake.

In un’indagine pubblicata da Rest of World nel luglio 2023, Witness ha analizzato clip audio di un politico del Tamil Nadu. Il politico sosteneva che le clip compromettenti erano generate dall’IA.

La Deepfake Rapid Response Force ha condotto test approfonditi, coinvolgendo esperti di lingua tamil, e ha determinato che una delle clip era autentica, rivelando che l’accusa di deepfake era una strategia per salvare la faccia.

Secondo Christopher, servizi offerti da organizzazioni non-profit occidentali sono essenziali per i giornalisti indiani.

È evidente che si sta lavorando in questa direzione: Hive Moderation offre una dashboard gratuita per il rilevamento di immagini, audio e video, mentre AI or Not offre 10 test gratuiti di file immagine al mese. Eleven Labs ha creato AI Speech Classifier per rilevare deepfake audio generati da loro stessi. OpenAI ha annunciato uno strumento per il rilevamento di immagini generate da Dall-E, e l’anno scorso ha rilasciato un classificatore per il testo generato dall’IA, chiuso dopo sei mesi per il basso tasso di precisione.