deepfake
Foto di Markus Spiske su Unsplash

È probabile che tu abbia già sentito parlare dei deepfake, poiché la loro popolarità è in costante crescita. Si tratta di una tecnologia basata sull’intelligenza artificiale in grado di impersonare il volto o la voce di una persona per simulare situazioni che non sono mai accadute. I ritratti deepvideo o gli scambi di volti sono la forma più comune di deepfake, ma esistono anche altri tipi, come deepface, che crea immagini completamente fittizie per generare animazioni, o deepvoice, che falsifica la voce di una persona reale per creare audio o canzoni.

Su piattaforme social media, il contenuto che utilizza volti e voci fittizie sta diventando sempre più attraente, poiché consente di modificare il materiale originale di un artista, adattandolo in modo incredibilmente realistico a un contesto diverso. Ora, la domanda è: riesci facilmente a riconoscerli come spettatore?

Recentemente, i ricercatori della James Cook University hanno condotto uno studio pubblicato su Computers in Human Behavior per valutare la capacità delle persone di individuare i deepfake, e i risultati non sono incoraggianti. In realtà, il nostro cervello non è particolarmente bravo in questo compito, nemmeno quando vengono forniti suggerimenti su come individuare queste creazioni dell’IA.

 

Deepfake vs umani

Potresti pensare che sia facile riconoscere questa tecnologia quando vedi un video nel suo contesto, conoscendo la fonte originale o l’artista coinvolto. Tuttavia, molti deepfake creano avatar iperrealistici di persone che non sono famose nel mezzo, rendendo difficile distinguere ciò che è reale da ciò che è immaginario.

Per dimostrare questo punto, i ricercatori hanno coinvolto oltre 450 partecipanti, mostrando loro 20 video (di cui dieci erano reali e dieci erano deepfake). A ciascun partecipante è stato chiesto di valutare a quale gruppo appartenesse ciascun video. Nonostante metà dei partecipanti fosse stata istruita su come individuare i video deepfake, prestando attenzione a dettagli come l’illuminazione, le guance o la forma degli occhi, la loro capacità di identificare i volti falsi non è migliorata rispetto al gruppo di controllo. In media, tutti i partecipanti hanno identificato correttamente solo 12 dei 20 video.

Coloro che hanno ottenuto i risultati peggiori sono stati in grado di identificare correttamente solo 5 video su 20, mentre quelli con le migliori performance ne hanno individuati 19 su 20. Insegnare alle persone le strategie per individuare i deepfake non ha avuto alcun effetto significativo sull’accuratezza o sulla tempestività del riconoscimento.

Di conseguenza, i risultati suggeriscono che la maggior parte degli utenti ha difficoltà a riconoscere i deepfake, sia sui social media che su altri mezzi audiovisivi.

 

Aumenta la diffusione di facce false, dovremmo preoccuparci?

La creazione di video deepfake di alta qualità, in cui una persona in un’immagine o in un video esistente viene manipolata per somigliare a qualcun altro, è diventata molto accessibile. Queste contraffazioni possono essere create tramite software o computer specializzati, spesso senza richiedere l’intervento umano. Questo ha sollevato preoccupazioni riguardo all’uso futuro di questa tecnologia.

Sebbene attualmente i deepfake siano spesso utilizzati per scopi ricreativi o divertenti, rappresentano una minaccia per la sicurezza. Ad esempio, potrebbero essere utilizzati per estorcere denaro minacciando di diffondere video compromettenti, anche se falsi. Inoltre, potrebbero essere utilizzati per diffondere notizie false e innescare controversie politiche.

Nel marzo 2022, è circolato un deepfake del presidente ucraino Volodymyr Zelensky in cui invitava i soldati ucraini a arrendersi il prima possibile. In diverse occasioni, sono stati pubblicati video falsi di Donald Trump e Barack Obama che esprimevano opinioni false su questioni diplomatiche negli Stati Uniti.

Senza dubbio, gli strumenti che sfruttano questa tecnologia sono sempre più accessibili all’utente comune e, nonostante il loro grande potenziale creativo, potrebbero anche essere utilizzati con scopi malintenzionati o addirittura criminali. Pertanto, è importante prendere precauzioni, ad esempio scaricando strumenti per il rilevamento di deepfake o ignorando i video che sembrano sospetti.