×

Fornisci il consenso ai cookie

Internazionale usa i cookie per mostrare alcuni contenuti esterni e proporti pubblicità in linea con le tue preferenze. Se vuoi saperne di più o negare il consenso, consulta questa pagina.

Sarà sempre più complicato capire se un video è falso

Un filmato di Barack Obama sul canale YouTube della Casa Bianca, febbraio 2010. (Charles Dharapak, Ap/Ansa)

Quando il presidente Richard Nixon annunciò che si sarebbe dimesso, nell’agosto 1974, lo fece davanti alle telecamere della tv. Quella registrazione continua a essere sbalorditiva a mezzo secolo di distanza, soprattutto per la dimensione epocale del momento, ma anche per il potere della televisione.

Oggi che il web ha cambiato completamente il mondo dell’informazione, il video rimane ancora un formato molto potente. In particolare, nel caos delle notizie in tempo reale è utile poter vedere qualcosa con i propri occhi.

O almeno lo era.

Proprio nell’epoca in cui cresce la sfiducia nei confronti del giornalismo, si sta velocemente sviluppando una tecnologia che rende ancora più difficile capire cosa è vero e cosa è falso. Convincenti tecniche in stile Photoshop sono ormai disponibili e il risultato è allo stesso tempo notevole e spaventoso.

Gli informatici sono ormai in grado di creare dei filmati in cui il movimento delle labbra viene sincronizzato in modo molto realistico, mettendo in bocca a una persona le parole pronunciate da un’altra.

Vedete il video qui sopra? In realtà non è Barack Obama che parla. È un filmato manipolato, fatto in modo da far credere che Obama stia dicendo parole che in realtà provengono da un altro file audio.

È stato realizzato da alcuni ricercatori dell’università di Washington, che hanno sviluppato un algoritmo capace di prendere l’audio di qualcuno che sta parlando e trasformarlo nel filmato di una persona che pronuncia quelle stesse parole. Nel video qui sotto, potete comparare fianco a fianco l’audio originale, preso effettivamente da un discorso di Obama, e il video generato in seguito.


Obama era un soggetto perfetto per questo tipo d’esperimento, perché esistono molti suoi video, di buona qualità, in cui parla. Per creare un movimento della bocca realistico i ricercatori hanno dovuto inserire molti esempi di momenti in cui Obama parla, innestando questi dati su una forma della bocca più generica. I ricercatori hanno usato quel che si definisce una rete neurale ricorrente per sintetizzare la forma della bocca a partire dal suono (questo genere di sistema, modellato sul cervello umano, può processare enormi quantità di dati e trovare dei modelli ricorrenti). Hanno affinato il loro sistema usando milioni di filmati già esistenti. Infine hanno perfezionato i filmati usando tecniche di composizione applicate alle vere riprese video della testa e del busto di Obama.

I ricercatori hanno scritto un articolo spiegando la loro tecnica, e prevedono di presentare le loro scoperte nel corso di una conferenza sulla computer grafica e le tecniche interattive che si terrà in agosto.

“L’idea è usare la tecnologia per una migliore comunicazione tra le persone”, dice Ira Kemelmacher-Shlizerman, coautrice dell’articolo e professoressa associata al dipartimento d’informatica e ingegneria dell’università di Washington. La donna pensa che questa tecnologia potrebbe essere utile per le videoconferenze: per esempio generando un filmato a partire da un audio, anche quando la banda di un sistema non è abbastanza potente per sostenere una trasmissione video.

In seguito la tecnica potrebbe essere usata come una forma di teletrasporto nella realtà virtuale e nella realtà aumentata, facendo sì che un convincente avatar di una persona sembri presente in una stanza, indipendentemente dall’effettiva distanza nello spazio e nel tempo.

“Non stiamo solo imparando come attribuire un volto parlante a Siri o come usare Obama per farvi da navigatore gps. Stiamo imparando come cogliere aspetti fondamentali della personalità umana”, afferma Supasorn Suwajanakorn, un altro coautore dell’articolo.

Le persone vengono già raggirate da foto modificate, account fraudolenti e falsificazioni digitali

Non sorprende che varie importanti aziende tecnologiche si siano interessate alla cosa: Samsung, Google, Facebook e Intel hanno tutte fornito dei fondi a questa ricerca. È probabile che il loro interesse riguardi settori come l’intelligenza artificiale, la realtà aumentata e la robotica. “Spero che potremo studiare e trasferire queste qualità umane ai robot, rendendoli più simili alle persone”, dice Suwajanakorn.

È piuttosto evidente, tuttavia, che questa tecnica potrebbe essere usata per ingannare. Le persone vengono già costantemente raggirate da foto modificate, account fraudolenti sui social network e ogni sorta di falsificazione digitale.

Immaginate la confusione che potrebbe generare un filmato realistico del presidente spinto a dire qualcosa che in realtà non ha mai detto. “La cosa mi preoccupa”, ha ammesso Kemelmacher-Shlizerman. Ma gli aspetti positivi sono più di quelli negativi, secondo lei. “Sono convita che si tratti di una scoperta epocale”.

Gli esperti hanno vari modi di determinare se un filmato è stato falsificato usando questa tecnica. Dal momento che i ricercatori si affidano ancora a riprese video reali per ricreare porzioni di video nei quali le labbra si muovono a sincrono, come la testa di uno speaker, è possibile identificare il filmato originale usato per creare quello artificiale.

“Quindi, creando una base dati di filmati presi da internet, possiamo rilevare i video falsi cercando nel database e scoprendo se esiste un video con la stessa testa e lo stesso sfondo”, mi ha spiegato Suwajanakorn. “Un altro segnale di alterazione possono essere una bocca o una zona dei denti sfuocate. La cosa magari non può essere rilevata da un occhio umano, ma un programma che confronti la sfocatura della bocca con il resto del filmato può essere facilmente sviluppato e funzionare in maniera piuttosto affidabile”. Un altro elemento di supporto è il fatto di avere due o più registrazioni di una persona da angoli differenti, spiega Suwajanakorn. In questo caso una falsificazione è molto più difficile.

Si tratta di utili precauzioni ma la tecnologia genererà comunque altri problemi man mano che le persone si renderanno conto del suo potenziale. Non tutti sapranno come consultare i database e i programmi che permettono una verifica accurata, e se è per questo molti non saranno neppure in grado di mettere in discussione un filmato apparentemente realistico. Ed è probabile che quanti condivideranno involontariamente disinformazione faranno accrescere la sfiducia nei confronti degli esperti che sono invece in grado di dare un senso alle cose.

“Io credo che le persone non crederanno ciecamente ai video, allo stesso modo in cui noi non crediamo alle foto dopo esserci resi conto che esistono strumenti come Photoshop”, mi ha confidato Suwajanakorn. “La cosa potrebbe essere avere effetti positivi e negativi. Dobbiamo quindi affidarci a delle fonti di prove più affidabili”.

Ma qual è il vero significato di affidabilità quando una persona non può più credere a quel che vede? Trovandosi spesso di fronte a delle convincenti operazioni di distorsione della realtà, per chiunque diventa molto difficile capire cosa è vero e cosa no.

(Traduzione di Federico Ferrone)

Questo articolo è stato pubblicato da The Atlantic.

This article was originally published on The Atlantic. Click here to view the original. © 2017. All rights reserved. Distributed by Tribune Content Agency.

pubblicità