Cerca
Cerca
+

Alex Mucci: "Dai falsi porno al nucleare, così l'intelligenza artificiale minaccia la democrazia"

Alex Mucci
  • a
  • a
  • a

C’era una volta, nel lontano dicembre 2017, un utente Reddit (piattaforma social di news ed intrattenimento) noto con il nome di “DeepFakes” che si dedicava tranquillamente al suo hobby preferito: sfornare diligentemente video porno di fantasia con protagoniste doppelgänger di celebrità e postarli su forum pubblici. E dannazione se sembravano veri! Questi fantasiosi filmati di donne famose nati da un tritacarne ad apprendimento automatico avrebbero eventualmente preso il nome del loro estroso creatore e sarebbero presto divenuti il simbolo di un’era informatica all’insegna del logoramento della realtà. Da qui, si definiscono oggi deepfake le registrazioni video o audio generate dall’intelligenza artificiale in cui il volto e/o la voce di una persona sono mappati sul corpo di un’altra persona, creando testimonianze fuorvianti di eventi mai accaduti.

 

“L’invenzione non è una creazione dal nulla, bensì dal caos” (M. Shelley, Frankenstein) I deepfake sono quindi nati come Frankenporn fatti di mash-up di volti celebri e corpi di attori porno: Gal Gadot, la star di Wonderwoman, impegnata in un incesto simulato e Scarlett Johansson alle prese con un’energica e mai avvenuta gang bang. Ma se a fine 2017 il lavoro di quel Redditor era un passatempo vecchio come il fotoritocco noto solo nel suo subreddit, a metà gennaio 2018 molte persone appassionate del genere avevano già inventato un’app intuitiva chiamata Fakeapp, per eseguire l’algoritmo richiesto dalla creazione di un deepfake. Ovviamente né le attrici di Hollywood né gli attori porno avevano acconsentito all’uso della loro immagine in tal modo e ciò portò infine Reddit a bannare il forum per “pornografia involontaria”.

 

Questa dinamica si inserisce nei dibattiti di lunga data sulla pornografia ed il suo ruolo oggettificante/liberante per le donne. Da un lato c’è da sempre quel femminismo che vede nel porno l’unica funzione sociale di oggettivizzare le donne, affermare la percezione di esse come meri giocattoli per spettatori maschi; dall’altro le femministe “porno-positive” vedono la funzione locale di una certa pornografia - creata dall’autodeterminazione delle singole artiste nell’empowerment e nel potenziamento della libertà delle donne. Il porno deepfake cancella ogni sottigliezza o sfumatura tra le parti, perché nessuno acconsente ad esso, e c’è qualcosa di crudelmente letterale nel tipo di oggettificazione che prende atto nelle sue opere. Gli utenti chiedevano la creazione di video personalizzati, con particolari attrici coinvolte in specifici atti sessuali, con la stessa disinvoltura con cui si possano ordinare dei condimenti su una pizza.
Chissà se anche la nostra presidente Giorgia Meloni, vittima di un raptus di dominazione virtuale, sia stata protagonista della richiesta di qualcuno che commissionò ai due sassaresi la creazione di un video hard con il suo volto, che raccolse in poco tempo milioni di visualizzazioni.


“Ignoro dove l’artificiale finisca e cominci il reale” (A. Warhol) . Mentre per i deepfakers le donne diventavano la somma di parti del corpo intercambiabili come pupazzi delle Lego, sulle principali testate giornalistiche mondiali la rassegna è andata oltre il sesso/consenso ed è entrata nel territorio delle fake news. Così le tendenze online passarono dal “il nuovo fake porn di...” a “e se qualcuno realizzasse video falsi di Trump che lancia armi nucleari”. Molti ricorderanno l’inquietante video che vedeva protagonista Zuckerberg, CEO di Meta, mentre informava i propri utenti di avere il controllo dei loro dati, delle loro vite e del loro futuro; o quello dell’ex presidente degli Stati Uniti Barack Obama, che allertava le persone proprio riguardo la creazione di contenuti alterati da parte di malintenzionati. La tecnologia nata per dare agli uomini il controllo fantastico sul corpo delle donne, ora potrebbe scatenare una guerra mondiale o far crollare grosse aziende. Si parla di disinformazione, di informazione manipolata, di come la verità viene diffusa online e la nostra percezione della realtà manipolata.
Si parla anche di pubblicità truffa, come quella di Mara Venier insieme ad Elon Musk, che invita la gente ad investire in prodotti finanziari per trarne un reddito mensile fisso o quella di Chiara Ferragni, che illustra il suo sistema per far soldi con il trading online.
E si innesca anche il problema della viralità, della diffusione istantanea, perché la linea che unisce la disinformazione ai deepfake è semplicemente troppo potente.
“Errare è umano, ammetterlo è sovrumano” (D. Larson) Ma i deepfake non devono per forza ingannare la massa per esser nocivi. Esiste un altro potenziale danno, più legato ai loro effetti epistemici, fisiologici, sul discorso pubblico. È il danno illocutivo che i deepfake causano quando forzano un personaggio pubblico a reagire con atti linguistici indesiderati. Ad esempio, esser costretti a negare pubblicamente una voce imbarazzante può esser di per sé dannoso, anche quando un contenuto falso è già stato ampiamente smentito o non creduto. Lo stesso danno può verificarsi anche quando il contenuto dell’atto linguistico possa essere veritiero, ma la sua occorrenza sia falsa: in altre parole, un deepfake potrebbe far sembrare che un personaggio dica qualcosa in cui crede, ma che non desidera esprimere pubblicamente. Questo sarebbe dunque costretto successivamente ad affrontare apertamente il falso circolante, negando falsamente di credere a ciò che in esso palesava o ammettendo ciò che avrebbe preferito non dire.


REALTÀ E FINZIONE Quando un personaggio è costretto parlare, viene colpito nella sua qualità di oratore o conoscitore, subisce abuso alla propria capacità di rappresentante dell’informazione. Danno illocutivo si ha anche quando un deepfake prende parte ad un accadimento reale, e costringe un personaggio a scambiare informazioni sensibili con esso, facilitando la fuga di queste ultime ed evidenziando falle nei sistemi di sicurezza. 


Chiaro esempio di ciò, il caso dello scherzo dei due comici russi alla Meloni, nuovamente vittima dell’uso malevolo della AI. Una lunga conversazione con il fantomatico leader dell’Unione Africana da cui si apprende che c’è “stanchezza” nelle opinioni pubbliche sulla guerra, frase che poi la leader ha dovuto spiegare e contestualizzare con le sue precedenti affermazioni in Parlamento. Il consigliere diplomatico Talò non può far altro che dimettersi per l’errore commesso, mentre i due sovietici ridacchiano. Ma hanno già preso di mira alti funzionari occidentali, sempre con l’obiettivo di indurli a “rivelare” cose o “accreditare” affermazioni, e la loro disinformazione è aumentata dopo l’invasione dell’Ucraina. L’uso dei deepfake, l’alto livello di sofisticazione dei mezzi con cui hanno convalidato gli scherzi, farebbe proprio pensare ai due come uno strumento di guerra ibrida manovrato dal Cremlino.

 


“L’unico problema che l’intelligenza artificiale non può risolvere è l’ignoranza vivente” (M. Trevisan) Mentre comici di regime tentano di far vacillare intere politiche ed i nostri influncer preferiti cercano di scucirci soldi con truffe improbabili, dovremmo forse renderci conto che l’implemento dei deepfake, diversamente da quanto accada con Photoshop nella fotografia in cui non sono coinvolti voce e movimenti, può costituire empiristicamente una minaccia per la democrazia, perché può danneggiare praticamente tutto. E nel contempo le soluzioni tecnologiche per smascherarli non sono ancora all’altezza degli stessi. Dovremmo forse insegnare alla gente ad interrogarsi di più sull’autenticità di ciò che vede? Riflettiamoci, ed intanto godiamoci i TikTok di Gerry Scotti che canta “The Real Slim Shady” di Eminem. 

 

Dai blog