occhi di una donna

IMMAGINE REALIZZATA CON IA MIDJOURNEY

Un articolo di Sarah Wild su Nature, annuncia un nuovo studio, non ancora pubblicato, che adotta un approccio innovativo per identificare le immagini “deepfake”, utilizzando tecniche astronomiche solitamente impiegate per osservare galassie lontane.

La chiave di questa metodologia risiede negli occhi. Analizzando i riflessi della luce nei bulbi oculari delle immagini dei volti analizzati, i ricercatori possono individuare le anomalie tipiche delle immagini create al computer.

Lo studio è stato presentato da Kevin Pimbblet, direttore del Centro di Eccellenza per la Scienza dei Dati, l’Intelligenza Artificiale e la Modellazione dell’Università di Hull, durante la riunione nazionale di astronomia della Royal Astronomical Society britannica il 15 luglio.

Le fotografie autentiche seguono leggi fisiche coerenti, secondo Pimbblet. “I riflessi che si vedono nel bulbo oculare sinistro dovrebbero essere molto simili a quelli del bulbo oculare destro”, spiega. Utilizzando tecniche di analisi della luce applicate solitamente alle stelle e galassie, gli astronomi sono riusciti a individuare discrepanze che suggeriscono la manipolazione dell’immagine.

Il progetto è stato guidato da una ricercatrice del l’Università di Hull, Adejumoke Owolabi, che ha utilizzato immagini reali dal Flickr-Faces-HQ Dataset e ha creato volti falsi con un generatore di immagini. Analizzando i riflessi delle fonti di luce negli occhi con due misure astronomiche – il sistema CAS e l’indice Gini – Owolabi è stata in grado di prevedere con una precisione del 70% se un’immagine fosse un deepfake.

Il sistema CAS valuta la concentrazione, l’asimmetria e la morbidezza della distribuzione della luce, mentre l’indice Gini misura la disuguaglianza nella distribuzione della luce nelle immagini.

Ovviamente, “fatta la legge, trovato l’inganno” e già si evidenzia che, se si riesce a calcolare una metrica che quantifica quanto realistica possa apparire un’immagine deepfake, si può anche addestrare il modello AI a produrre deepfake ancora migliori ottimizzando quella metrica.

In sostanza, nonostante la metodologia non sia infallibile, rappresenta un’importante aggiunta alla “batteria di test” necessari per identificare le immagini manipolate.