Non fidarti di Jennifer
Manipolazione armata: forma di potere e contro il potere, da Bora Bora a Trump
Ciao,
sono Fatima, non sono la Madonna ma faccio miracoli lo stesso; tipo ieri, andavo per campi, ho visto due pellegrini: chiedevano arte contemporanea. Giorni dopo avevano in posta questa newsletter.
Ci sono state da poco le elezioni presidenziali negli Usa, ma questo lo sappiamo. Ha vinto Biden (pare) ma per un po’ abbiamo tutti avuto paura, diciamoci la verità.
Comunque, non sto qui a parlarvi delle elezioni ma di questo video che qualche giorno fa è stato messo in circolazione dal figlio di Trump. Nel video un signore dà fuoco a una serie di schede elettorali contenenti voti pro Donald. Il governo di Virginia Beach, luogo incriminato, rassicura che si tratta di un fake ma il contenuto circola ugualmente e le autorità sono costrette a cancellare i post e aprire un'inchiesta per frenare l'ondata di complottismo.
Non è la prima volta che la famiglia Trump solleva polveroni mediatici servendosi di contenuti spudoratamente falsi. L'anno scorso una registrazione di 30 secondi twittata da Trump immortalava la presidente della Camera Nancy Pelosi rallentata, come sotto l'effetto di alcol e stupefacenti: risultato, 3 milioni di visualizzazioni per un video che per ammissione stessa di Fox News che l’aveva divulgato era stato palesemente manipolato.
Potrei farvi altri esempi ma questi sono sufficienti come spunto per riflettere sul ruolo del video come strumento di potere a tutti gli effetti. Nella miniserie britannica The Capture, prodotta nel 2019 dalla BBC, l’ex militare Shaun Emery, accusato di rapimento e omicidio, è al centro di complesse dinamiche di cospirazione che mettono in discussione la validità dei filmati che lo hanno incastrato.
- Spoiler alert - i filmati in effetti sono stati modificati sfruttando un autobus di passaggio come copertura per una transizione - Fine spoiler -
L'accusa è di natura politica, in questo caso l'attacco è diretto alla polizia inglese e ai servizi segreti, ma la strategia del misleading è usata ancora più frequentemente come forma di ribellione anti-establishment che dai ladri di Ocean’s eleven arriva a interessare hacker di tutto il mondo e super skillati esperti di editing.
È in fase di post produzione, infatti, che si può decidere come utilizzare il girato a disposizione, come montarlo, se raddrizzare il tiro o se attenersi al fedele susseguirsi degli eventi.
Chi fa editing ha in mano tutti gli strumenti per controllare il mondo.
Se Jennifer potesse parlare
E se parliamo di manipolazione di immagini, in arte contemporanea possiamo tracciare un sentiero iconografico che parte da photoshop, passa per il found footage e arriva fino all’intelligenza artificiale.
Andiamo per gradi: la prima immagine della storia ritoccata con photoshop, la conosciamo tutti, Jennifer in Paradise, del 1987, è importante perché autorizza l’intrusione degli strumenti digitali tra la ripresa della realtà e la sua divulgazione. Jennifer era tranquillamente seduta sul bagnasciuga, in topless a prendere il sole ma John Knoll, suo marito nella vita ed effettista per professione, decide di spostare la sagoma più a destra per far vedere meglio il panorama di Bora Bora e di intensificare i colori del paesaggio.
Benissimo. Jennifer però resta una forma sospesa in un livello di Adobe, voglio dire.
Mentre in un ipotetico video Jennifer si farebbe un bagno, si stenderebbe sulla sabbia con i capelli scompigliati dal vento. Capite bene come sarebbe molto più difficile mettere in dubbio la sua veridicità.
Il passo decisivo anche per il mondo dell’audio-visivo è avvenuto verso gli anni Ottanta, le dinamiche di appropriazione e riprogrammazione hanno contribuito all’affermazione di una società che abbandona il copyright in favore di un libero accesso alle opere. Nicolas Bourriaud in Postproduction lo chiama comunismo delle forme ma sappiamo che Guy Debord già nel '56 parlava di détournement e che Fluxus è stato tra i primi gruppi a sperimentare il processo (per esempio Nam June Paik con Video Commune e Wolf Vostell con i Dé-coll/age). In pratica le immagini e i video sono già a nostra disposizione, si tratta solo di capire come mescolare le carte e truccare l’originale. Nel 1997 con 24 Hour Psycho Douglas Gordon proietta il film di Hichcock, rallentandolo così tanto da farlo durare 24 ore.
Nancy Pelosi dovrebbe sentirsi piuttosto rassicurata, ancora prima di lei ci è passata Janet Leigh, mica una qualunque.
Affinando ulteriormente gli strumenti tecnologici, la comparsa in musica del sampling in questo senso è stata d’aiuto, è stato possibile trasportare porzioni di dialogo di scene di film all’interno di un altro film, creandone un terzo diverso dai primi due che ne stravolge il significato. Un terreno di contaminazioni battuto da artisti come Pierre Huyghe e Christian Marclay.
In tempi più recenti, Eli Cortiñas vende l'anima al footage creando piccoli capolavori meticci che fanno convivere sullo stesso schermo, per esempio, neorealismo e film noir americano.
O protagoniste bionde di vecchi film e discorsi femministi
CCTV – fedeli alla linea
Da qui appunto l’idea: se posso fare a pezzi le scene di un film e montarle con altre che non hanno niente a che fare con le prime, posso fare la stessa cosa anche con le immagini, che so, di una telecamera di videosorveglianza. Julia Scher negli anni Novanta aveva colto nel segno. Durante la performance Predictive engineering all’SFMOMA i visitatori del museo sono circondati da monitor che riproducono live le riprese di telecamere a circuito chiuso. Intorno a loro sembrerebbero muoversi nudi nello spazio uomini e donne che nessuno riesce a intercettare. Lo scherzetto è che mescolati alle riprese live ci sono dei feed pre-registrati.
Quel titolo, predictive engineering, è emblematico perché esplicita ciò che è alla base dell’iper-controllo. Qualche passo indietro nel tempo e vediamo come gran parte delle teorie sul potere invisibile viene dall'idea del panottico, che ha avuto non poca importanza per Foucault, Chomsky e Orwell, e che ha messo radici grazie agli sviluppi tecnologici. Lo spiega per filo e per segno Shoshana Zuboff, che meglio di chiunque altro negli ultimi anni si è concentrata sulle strategie di controllo:
predittività, cioè prevedere e al tempo stesso manipolare, condizionare, plasmare le scelte è alla base del capitalismo della sorveglianza.
Insomma, quella alle CCTV è una guerra politica che si consuma nelle trincee del digitale. Perché se possono prevedere ogni mio spostamento, mi conviene giocare di anticipo. A Londra, la città con più telecamere installate, una ogni 14 persone, da decenni gli hacker di tutto il mondo tentano sabotaggi che partono dalla mappatura puntuale delle aree videosorvegliate, fino all’irruzione nei sistemi di sicurezza. Va detto che le nuove telecamera di sorveglianza non sono più a circuito chiuso ma sono connesse a internet e questo le rende particolarmente vulnerabili alla manipolazione remota. Irene Fenara lo ha scoperto qualche anno fa. Se i codici delle videocamere di sorveglianza non vengono cambiati diventa facilissimo intercettare il loro IP. Molto spesso sono gli stessi privati a metterli a disposizione esclusiva dei loro vicini (ah, e di Amazon), come nell’applicazione Neighbors by Ring. In Struggle for Life, Fenara dopo aver avuto accesso a una serie di telecamere, le modifica direzionando il loro sguardo dove non punterebbe mai: verso il cielo.
Mentre Self portrait from surveillance camera è un faccia a faccia da western tra la telecamera e l'artista davanti, immobile e con le mani in tasca.
Una cosa simile la fa Julius von Bismarck, che si è inventato qualche anno fa un dispositivo di disturbo cattivissimo per estetica e nome, Image Fulgurator. Quando qualcuno scatta una foto, la sua macchina fotografica che sembra un mitra spara un'immagine attraverso l'obiettivo e la proietta sul soggetto dello scatto (lo spiega lui qui, è abbastanza chiaro anche se in tedesco). Chi ha fatto la foto non sa minimamente da dove quell’immagine sia potuta venire fuori. Roba da film horror.
O ancora Eva e Franco Mattes che con No Fun tirano su un calderone con dentro fake news e videosorveglianza fingendo, siamo nel 2010, il suicidio di uno dei componenti del duo: Franco. Il video dell’artista impiccato registrato da quelle che allora si chiamavano webcam è stato mandato per ore su chatroulette.com, una piattaforma che mette casualmente in contatto due utenti. Il compito dei Mattes è stato solo registrare le reazioni, non così prevedibili come uno si aspetterebbe.
Skillati ma non troppo
È chiaro, arrivati a questo punto, come internet e le tecnologie a disposizione siano stati determinanti nel discorso e come i social e le app abbiano complicato la questione. Se ti scarichi Tik Tok puoi ottenere risultati molto simili a quelli di un video sottoposto a diverse ore di editing, e lo puoi fare addirittura live anziché in post-produzione. Ma avere in mano potenziali strumenti controllo non è sufficiente per fare una rivoluzione. Oltre che più skillati, infatti, siamo diventati tutti più ingenui e ci beviamo qualsiasi cosa, lo dimostra quello che vi ho raccontato qualche apparizione fa. E la colpa non è solo nostra. Le responsabili sono le IA (maledette), e non ho in mente teorie complottiste ma esempi concreti. Prendiamo il deepfake, una tecnologia che va ben oltre i CGI footage, grazie alla quale si può far dire qualunque cosa a qualsiasi persona, facendola passare per vera. Sono creati dal computer stesso e non hanno bisogno di interventi specifici dell’uomo perché si basano sul deep learning. Cresciuti nelle stanze del porno, i deepfake sono oggi croce e delizia per Tik Tok e trovano terreno fertile soprattutto nella politica.
E visto che siamo freschi di elezioni americane, il caso più famoso è quello di Obama, ma più recentemente c'è anche chi ha immaginato un universo parallelo in cui Trump accetta sportivamente la vittoria di Biden.
Oltre a far sognare come la realtà potrebbe essere, i deepfake sono revisionisti e possono cambiare il corso della storia: Cosa sarebbe successo se l’Apollo 11 si fosse schiantato sulla luna? La mostra inaugurata l’anno scorso dal MIT parte proprio da questa domanda per ipotizzare uno scenario alternativo nel quale Nixon si rivolge alla popolazione per comunicare la tragedia.
Fin qui è facile, sappiamo che non è successo, ma i deepfake imparano in fretta ed è sempre più complicato decifrare se un deepfake è un deepfake e se ci sta dicendo la verità. Youtube in questo senso regala infiniti tutorial su come correre ai ripari ma alla fine a fare il lavoro sporco sono sempre le AI.
Bene, se è tutto chiaro ci vediamo prossimamente per un'altra apparizione. Nel frattempo sapete dove trovarmi.