DEEPFAKE

Deepfake

Cosa è il Deepfake?

Il Deepfake è una tecnologia che, attraverso machine learning, deep learning ed intelligenza artificiale, permette di modificare un video, in particolare permettendo di sovrapporre le immagini di un volto su quello del soggetto protagonista del video, facendo in modo che il soggetto scelto per sostituire il protagonista ne imiti movenze ed espressioni. Il Deepfake permette in questo modo all’impostore di parlare liberamente: sarà il software a camuffare la sua voce e renderla del tutto simile alla voce del protagonista del video. Unendo queste due funzioni, possiamo creare un video nel quale appariamo e parliamo come un’altra persona.

Come è nato il Deepfake?

Il tutto è nato come gioco: i primi utenti di questa tecnologia utilizzarono il Deepfake per inserire la faccia di Nicholas Cage nelle scene che hanno reso grandi gli attori di Hollywood. Immaginate, ad esempio, la famosissima scena della porta di Shining, quella in cui la porta viene ripetutamente colpita con l’accetta. Conosciamo tutti molto bene questa scena. Ma ecco che arriva la sorpresa! Invece di Jack Nicholson, oltre la porta troviamo Nicholas Cage. La stessa operazione è stata ripetuta con altri film, come il Padrino, o Matrix, ed anche con alcuni discorsi dell’ex presidente degli Stati Uniti Donald Trump.

Proprio in virtù dei risultati cui può condurre, la tecnologia Deepfake, sin dall’inizio, ha invero destato preoccupazioni. Basti pensare alla possibilità di falsificare, o addirittura creare da zero, una dichiarazione, magari facendola pronunciare, falsamente, al leader di una nazione.

La situazione sembra essere oggi diventata ancor più seria a causa della pandemia globale, la quale ha fatto sì che assemblee, consigli di amministrazioni e dichiarazioni di ogni tipo avvengano tramite sistemi di videochiamata. Si pensi ai danni economici che potrebbero essere causati da un malintenzionato che riesca ad accedere ad un consiglio di amministrazione fingendosene il presidente, oppure di un soggetto che riesca a fingersi alto manager di una società e rilasci false dichiarazioni allo scopo di lucrare sulla conseguente fluttuazione del valore delle azioni.

Il Deepfake nelle mani sbagliate

Ed invero, la tecnologia Deepfake è stata già utilizzata per portare a compimento truffe e raggiri. Come riporta il Wall Street Journal, ad esempio, l’amministratore delegato di una società energetica con sede nel Regno Unito, credendo di essere al telefono con il suo capo, l’amministratore delegato della società madre tedesca, ha eseguito l’ordine di trasferire immediatamente 220.000 euro (circa 243.000 dollari) sul conto bancario di un fornitore ungherese. In realtà, la voce apparteneva a un truffatore che utilizzava la tecnologia vocale AI per camuffare la propria voce ed imitare l’amministratore delegato tedesco. La compagnia assicurativa ha spiegato che l’amministratore delegato ha riconosciuto il sottile accento tedesco nella voce del suo capo e, inoltre, che il tono della voce era quello dell’uomo .Il truffatore, non ancora identificato, ha chiamato la compagnia tre volte: la prima per iniziare il trasferimento, la seconda per dichiarare falsamente che era stato rimborsato, e una terza volta cercando un pagamento successivo.  È stato a questo punto che la vittima è diventata scettica; poteva vedere che il presunto rimborso non era andato a buon fine, e ha notato che la chiamata era stata fatta da un numero di telefono austriaco. Nessun secondo pagamento è stato quindi inviato ma del primo, effettuato, si sono perse le tracce: spostato dal conto bancario ungherese ad uno in Messico, è stato poi ulteriormente trasferito. Poiché nessun sospetto è stato identificato, poco si sa su quale software sia stato usato o come siano stati raccolti i dati vocali necessari per imitare il dirigente tedesco, tuttavia il caso ben rappresenta uno dei molti modi possibili in cui l’apprendimento automatico può essere usato come arma.

Come proteggersi, dunque, da un possibile attacco che utilizzi la tecnologia Deepfake?

Naturalmente, casi diversi richiedono soluzioni differenti.

Partiamo dalle comunicazioni live. In questo caso ci può venire in aiuto uno dei sistemi informatici di identificazione dell’identità di un soggetto come da regolamento eIDAS. Utilizzando, quindi, il principio secondo cui un soggetto si può identificare digitalmente utilizzando il fattore multiplo, cioè utilizzando un processo che risponda ad una delle domande: “qualcosa che sa”, per esempio una password, “qualcosa che possiede” (e che utilizza in maniera esclusiva), ad esempio, il proprio smartphone e “qualcosa che è”, quali impronte, scansione retina etc. Accompagnando, quindi  la comunicazione ad un sistema che utilizzi l’identificazione almeno a doppio fattore (cioè che risponda a due delle suddette domande), saremo in grado di proteggerci e di non farci ingannare da una faccia o una voce conosciuta. Ad oggi molte soluzioni utilizzano un sistema di doppio fattore che utilizza i principi “qualcosa che sa” e “qualcosa che ha”: in pratica si utilizza una password ed il cellulare del soggetto per inviargli un OTP con il sistema degli sms, che al momento risulta il più sicuro. Questa procedura viene svolta sia in fase di accesso, sia quando si svolgono determinate operazioni.
La tecnologia degli SMS permette anche di avere un secondo canale di garanzia, legato al soggetto intestatario dell’utenza telefonica.

Più difficile risulta invece l’identificazione di un soggetto tramite un video. Giorno dopo giorno, grazie alle caratteristiche del Machine learning, diventa sempre più difficile capire se il volto è “originale” oppure se è stato “coperto”.

Tecnologia in continua evoluzione

Inizialmente si potevano notare diverse imperfezioni, in particolare poteva accadere che vi fossero delle imperfezioni grafiche, come punti sfocati, piccoli glitch, cambi improvvisi del colore della pelle. Tra i vari segnali che dovrebbero farci capire che il video è stato contraffatto troviamo la differenza di luce tra l’ambiente ed il volto della persona. Immaginiamo di avere una fonte di luce proveniente dal lato destro dello schermo, ma guardando il viso della persona notiamo che la sezione del viso che si trova nella metà sinistra dello schermo risulta più chiara/illuminata: in questo caso dobbiamo dubitare del video perché probabilmente stiamo vedendo un video contraffatto.

Conclusioni

È quindi senza dubbio alcuno utile anche per i difensori e per i consulenti legali conoscere le caratteristiche e le potenzialità di questa tecnologia, per i danni che può causare ed i risultati cui può condurre. E, sotto altro verso, quanto sopra non è che la conferma di come l’identità digitale sia ormai un argomento d’obbligo quando si parla di digitalizzazione e di come siano stati passi fondamentali l’emanazione dell’eIDAS e l’utilizzo di sistemi di identificazione pubblici, come lo SPID in Italia.


 

Questo contributo è stato redatto da un articolista di Legaltech Italia, partner di Dirittoconsenso.it

UNISCITI A NOI!
Se vuoi dirci la tua e rimanere aggiornato sul mondo legaltech unisciti alla community Telegram! Clicca qui per partecipare!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *