comizio di Kamala Harris

Venerdì 26 luglio, Elon Musk, ha ripubblicato sulla sua piattaforma X un video fake che riproduceva lo spot ufficiale della campagna elettorale di Kamala Harris, candidata alla vicepresidenza, modificato con una voce generata dall’IA simile a quella della Harris, prendendo in giro la stessa candidata ed il presidente Biden.

Con le frasi “Joe Biden ha finalmente esposto la sua senilità” e “sono stata scelta perché sono l’assunzione per eccellenza in termini di diversità” il video tentava di colpire ironicamente i due democratici al cuore della loro identità personale e politica.

Inizialmente condiviso dall’account dello youtuber “Mr. Reagan”, il video era accompagnato dalla didascalia “parodia della campagna promozionale di Kamala Harris”, didascalia deliberatamente rimossa nel retweet di Musk che ha aggiunto poi un proprio commento: “this is amazing” (“questo è divertente”) accompagnato da un’emoji che ride.

Il video retwittato non include alcuna dichiarazione di esclusione di responsabilità riguardante l’uso dell’intelligenza artificiale per imitare la voce di Harris e ciò, tra l’altro, contravviene alle stesse policy del sito X che proibisce i “media fuorvianti”.

Per “media fuorvianti” il sito elenca contenuti multimediali artificiali, manipolati o fuori contesto che potrebbero ingannare o confondere le persone e causare danni. Quindi, sempre secondo le regole dettate dallo stesso Musk, bisogna etichettare i post contenenti contenuti fuorvianti per aiutare le persone a comprenderne l’autenticità e per fornire maggiore contesto. Tuttavia, nessuna di queste misure è stata applicata da Musk al suo retweet, violando così le sue stesse  policy e al contempo tentando di colpire l’immagine della Harris e disturbarne la campagna elettorale.

D’altronde Musk, omettendo la didascalia che informava si trattasse di una parodia, lasciava intendere che il video fosse reale, fomentando la confusione preelettorale. Dopo aver attirato l’attenzione di tutta la platea della piattaforma X, Musk, ha fatto un passo indietro affermando che il video aveva natura satirica, allegando il post del creatore originale al suo profilo e utilizzando un gioco di parole affermando che la parodia non è un reato.

Questo evento potrebbe influire, accelerandole, sulle attività a salvaguardia degli eventi politici già in corso d’opera da parte delle autorità federali statunitensi.

La Federal Communications Commission (FCC), agenzia governativa che si occupa di supervisionare e regolamentare il settore della comunicazione, ha avanzato una proposta che obbliga i produttori di spot politici a dichiarare qualsiasi utilizzo dell’intelligenza artificiale. Secondo la norma, gli inserzionisti di trasmissioni televisive, radiofoniche e via cavo saranno tenuti a rivelare l’uso della tecnologia IA per la generazione di voce e immagini, al fine di evitare che questa tecnologia in rapido sviluppo possa essere utilizzata per trarre in inganno i cittadini, anche in vista delle presidenziali di novembre.

La misura è stata approvata con una votazione 3-2 e ora è destinata a subire un periodo di commento pubblico di 45 giorni seguito da un periodo di risposta di 15 giorni, dopo il quale i commissari finalizzeranno la norma. Tuttavia, non è chiaro se tale processo riuscirà a completarsi prima delle prossime elezioni.

Il 2024 è l’anno in cui metà della popolazione mondiale è stata chiamata a votare.  Considerando elezioni nazionali, comunitarie e locali le urne sono state aperte in 76 paesi, pari al 51% della popolazione mondiale. A dare il dare inizio a queste votazioni è stata Taiwan, il 13 gennaio, mentre a chiuderle saranno gli Stati Uniti, il 5 novembre.

In questo periodo elettorale che ha coinvolto numerosi paesi, la sfera politica si è ritrovata spesso vittima dell’utilizzo della tecnologia dei deepfake per colpire figure politiche e opinion leader con l’obiettivo di influenzare l’opinione pubblica, amplificando la diffusione delle fake news e della disinformazione su larga scala.

L’impatto dell’IA sulla sfera politica, attraverso i deepfake, è estremamente destabilizzante, come abbiamo già visto in precedenza, nel caso delle elezioni in Bangladesh in cui, durante la competizione elettorale tra la prima ministra Sheikh Hasina e l’opposizione, l’uso di IA e deepfake per fare disinformazione è stato evidente.