Mai quanto oggi l’uomo vive in rapporto simbiotico con le tecnologie che lo circondano, e che lui stesso ha creato. E oggi come un tempo, le tecnologie sono uno specchio fedele delle società che le hanno generate, dei desideri, delle paure, delle necessità degli uomini dei loro tempi.

Ne abbiamo parlato con Clément Lambelet, che si occupa di tematiche legate al rapporto tra società e tecnologia in relazione alle ideologie del controllo e alla comparsa delle Intelligenze artificiali.

Clément Lambelet (Ginevra, 1991) è un artista svizzero; ha ricevuto un Bachelor of Arts in Fotografia all’ECAL, dove lavora come assistente. E’ stato selezionato all’interno del Foam Talent 2017 con Collateral Visions, un’indagine sui nuovi dispositivi di visione macchinica e sulla loro capacità di plasmare la nostra percezione del mondo. Il suo primo libro “Two Donkeys in a war zone” è stato nominato per l’Authour Book Award ai Rencontres d’Arles del 2018 e il suo lavoro è stato esposto in importanti istituzioni, tra cui il C/O Berlin, la Frankfurter Kunsteverein e il Musée de l’Elysée di Losanna.

Bianca Cavuti: Partiamo dal tuo ultimo lavoro, Collateral Visions. Ti va di raccontarci qualcosa sull’opera e su come nasce il tuo interesse per questo tipo di tematiche?

Clément Lambelet: Ho iniziato a lavorare a Collateral Visions nel 2016, dopo aver realizzato due progetti sulle immagini generate dai droni militari, Find Fix Finish Two donkeys in a war zone. Le ricerche portate avanti per queste due serie avevano attirato la mia attenzione sulla comparsa di un nuovo paradigma nelle modalità di osservazione degli esseri umani, legato prima di tutto alla proliferazione delle nuove tecnologie di visione artificiale sviluppate negli ultimi trent’anni.Ma è sopratutto un cambiamento sociale e politico quello che si è manifestato con la necessità di un controllo sempre più pressante sulla popolazione. Nello stesso tempo, la maggior parte delle persone ha accettato la presenza di sistemi di sorveglianza sempre più invasivi nella propria vita quotidiana. Anche il vocabolario è cambiato: in Francia la “video-sorveglianza” è diventata “video-protezione”.

Questo slittamento semiotico smaschera il tentativo di rendere questi sistemi largamente accettati. Ho sentito l’esigenza di realizzare questo progetto perché avevo bisogno di elaborare una una visione più ampia sull’umanità, esplorando i nuovi paesaggi prodotti dagli strumenti di controllo che accompagnano le nostre vite. Come ci percepiscono queste macchine? Cosa rivelano sulla nostra individualità? Cosa ci raccontano della società, la nostra, che le ha inventate?

Ho realizzato a questo punto che l’automazione della visione oggi ha cosi tante forme che per me sarebbe stato difficile, se non impossibile, creare un progetto monolitico in grado di toccare tutte le tematiche in questione. Collateral Visions è quindi una costellazione di serie e parti differenti. Dal riconoscimento facciale esplorato attraverso i ritratti realizzati con l’algoritmo Eigenface, si arriva al concetto di fede tecnologica con il dittico Adam and Eve. Dai sorrisi e dai pianti di Happiness is the only true emotion, si passa alla testimonianza degli attacchi dei droni con la serie Two donkeys... Mi piace molto questa struttura perchè mi permette di mostrare tutte le sfumature e di rivelare la complessità del soggetto.

 Bianca Cavuti: Mi ha colpito molto A Distant Encounter, un video che fa parte di Collateral Visions e che problematizza la questione dello sguardo nell’ambito delle nuove tecnologie di osservazione, militari e non. Lo sguardo finale dell’agricoltore è molto forte, e solleva non pochi quesiti sulla cosiddetta logistica della percezione e sulla gerarchia della visione. Quali sono le riflessioni messe in gioco con questo lavoro?

Clément Lambelet: Il video A Distant Encounter è una risposta più emotiva alla questione della visione macchinica e delle ideologie del controllo. Durante la ricerca per Collateral Visions, ho provatouna certa ansia riguardo all’impiego di questi strumenti che credo derivi da due ragioni: prima di tutto, il fatto che tecnologie che un tempo erano utilizzate esclusivamente all’interno dei conflitti sono sempre più utilizzate contro i civili. Non siamo ancora in una situazione in cui un drone da combattimento può colpire dei civili in Europa, ma potrebbe potenzialmente accadere.

Il secondo motivo di preoccupazione deriva dalla velocità con cui queste tecnologie di controllo si stanno diffondendo. Durante la realizzazione delle serie di ritratti Eigenface ho scoperto con stupore che possiamo far risalire l’invenzione della sorveglianza di massa contemporanea a questo algoritmo, che è stato inventato nel 1991, solo 27 anni fa! Per me, questo solleva una duplice questione: in primo luogo, quella del “senno di poi”. Abbiamo riflettuto abbastanza sull’impatto di questi strumenti? Ma soprattutto, cosa avrà in serbo il futuro per noi, dal momento che queste tecnologie si sono sviluppate cosi rapidamente?

Questo senso di ansia è espresso molto chiaramente nel senso di attesa e di incertezza che caratterizza A Distant Encounter: il cecchino colpirà il suo obiettivo? Ma quello che mi interessa più mostrare nel video è l’asimmetria di potere generata dai sistemi di controllo. Come spiega Grégoire Chamayou in “Drone Theory“, nel corso del tempo è emerso un nuovo modello di conflitto, i droni militari hanno creato uno squilibrio totale tra i diversi combattenti. Il pilota di drone non espone più il suo corpo al combattimento nonostante ne sia direttamente coinvolto. Non si tratta più di una guerra “classica”, ma di uno “stato di violenza” la cui legalità può essere messa in discussione.

Al contrario, il presunto terrorista ha solo il suo corpo da offrire. Siamo di fronte a un antagonismo totale tra l’attacco del drone e l’attacco suicida. Ma soprattutto, c’è una concezione non condivisa della morte. Come dice Chamayou, “ognuno è nello stesso tempo l’antitesi e l’incubo dell’altro”. Esistono sorvegliati e sorveglianti. A Distant Encounter ci mette nella posizione di chi ha il potere di osservare, ma non di agire, rendendoci dei semplici testimoni di questo incontro. E questa posizione scomoda, insieme allo sguardo attonito dell’agricoltore alla fine del video, ci ricorda della necessità di riequilibrare gli strumenti di visione contemporanei.

 Bianca Cavuti: Oggi la visibilità legata alla proliferazione di tecnologie sempre più sofisticate è una realtà onnipresente, che rischia di trasformarsi in una trappola a senso unico. Come si inseriscono i tuoi lavori all’interno del dibattito sulla società del controllo e sul tema della sorveglianza?

Clément Lambelet: Una delle questioni centrali è il principio di disumanizzazione generato da queste tecnologie. Lo vediamo molto chiaramente in Happiness is the only true emotion. Per questo progetto, ho utilizzato un database di ritratti di diversi attori che mimano le cosiddette emozioni di base: rabbia, disgusto, paura, felicità, sorpresa, tristezza. Questi ritratti, creati inizialmente per delle ricerche psicologiche, hanno trovato una nuova destinazione d’uso nella creazione di un algoritmo per il riconoscimento delle emozioni. Io ho lavorato in due fasi, prima di tutto trattando in maniera soggettiva le immagini per renderle più fluide, mutevoli ed espressive. L’emozione probabilmente si trova li, ma dove cercarla esattamente nell’immagine?

Durante la seconda fase, ho sottoposto i 184 ritratti che ho realizzato ad un algoritmo per il riconoscimento delle emozioni creato dalla Microsoft per metterne in luce il funzionamento. L’algoritmo è stato in grado di riconoscere con certezza solo la felicità. Per quanto riguarda le altre emozioni, il risultato era un errore evidente o un insieme di emozioni contraddittorie. Ci potremmo concentrare sulla questione degli errori prodotti dagli algoritmi, ma il problema essenziale è pensare di poter ridurre le emozioni umane ad una serie di numeri assoluti. Un sacco di persone hanno sorriso anche durante momenti difficili delle proprie vite, cosa può riuscire a comprendere un algoritmo di questa complessità umana? Il limite ideologico che afferma che l’umanità può essere ridotta ad astrazioni matematiche mi sembra una delle più grandi minacce delle tecnologie contemporanee. Specialmente nel momento in cui questa ideologia, che abbia la forma di un algoritmo o di un’intelligenza artificiale, è presentata come una realtà oggettiva e imparziale pur essendo sempre controllata e indirizzata.

Bianca Cavuti: Oltre che artistavisivo, ti definisci “algorithm hijacker” (“dirottatore di algoritmi”). Puoi parlarci della tua pratica artistica e delle tue strategie poetiche?

Clément Lambelet: Ho ancora qualche difficoltà a definire in maniera precisa la mia pratica, probabilmente perché non si inserisce all’interno di una cornice rigida. Ho una formazione come fotografo, ma non utilizzo più solo la fotografia e non realizzo necessariamente immagini in prima persona. Se riesco a trovare una fonte visiva più forte di quella che potrei creare io stesso, piuttosto me ne approprio invece di produrre qualcosa che sarà sicuramente più debole. Definirmi artista visivo non dice molto su di me, “algorithm hijacker” è abbastanza vago ma mi permette di contestualizzare il mio lavoro associandolo con gli algoritmi e quindi con la tecnologia. Le ultime invenzioni tecnologiche, i nuovi utilizzi della AI, non mi affascinano in sé per sé ma in relazione a quanto rivelano dell’umanità, delle sue paure, dei suoi desideri, dei suoi dubbi. Sono lo specchio delle nostre aspirazioni, dei nostri dogmi. Credo che il centro della mia pratica sia soprattutto l’essere umano, la società che sviluppa, la sua relazionecon gli altri e con il mondo. Le tecnologie sono mezzi per visualizzare e testare idee spesso più vecchie delle tecnologie che le supportano.

Ho sviluppato diverse strategie per realizzare i miei progetti. La prima è legata “all’invisibilità” degli attuali sistemi di controllo. Certo, possiamo vederne alcuni nella nostra quotidianità, ma raramente il potere della tecnologia risiede negli strumenti. Parafrasando Brecht, che è stato una grande ispirazione: una fotografia di un centro dati di Google o Facebook non ci dice quasi niente su queste istituzioni. La strategia è perciò sempre stata quella di mostrare i risultati della visione delle macchine, piuttosto che le macchine in quanto tali. Per esempio, per il dittico Adam and Eve, realizzato con un body scanner a onda millimetrica usato negli aeroporti, non ero interessato a mostrare direttamente la macchina.

L’opera rivela un altro importante processo: quello di deviare il normale scopo di una tecnologia per l’uso e la visione personali. In questo caso, ho voluto mettere in luce il rapporto quasi religioso che molti di noi hanno con gli strumenti di controllo. Accettiamo pienamente il rituale di essere spogliati da una macchina, prova della nostra purezza, con la stessa fede di un devoto religioso. Per mostrare questa connessione, ho posato per lo scanner con un’amica nella classica posa dell’Adamo ed Eva di Dürer del 14° secolo. Questi rimandi storici richiamano l’idea di un tempo a lungo termine, permettendo di trattare ideologie attuali alla stregua di quelle più antiche.

Infine, un ultimo approccio che si trova in Collateral Visions è quello di mettere in collegamento le parti del progetto, di renderle una costellazione. Sono sempre stato attratto dagli atlanti, incluso quello di Gerhard Richter, e dalle potenziali associazioni tra gli elementi che lo compongono. Ho usato questo metodo in Collateral Visions, includendo documenti, dati, articoli di giornale che, raggruppati su un tavolo, costituiscono una sorta di didascalia per le immagini, una mappa per esplorare il progetto da diversi punti di vista.

Bianca Cavuti: Uno degli aspetti più controversi della ricerca sulle Intelligenze Artificiali è il tentativo di mettere a punto algoritmi in grado di categorizzare e rilevare specifici pattern in ambiti soggettivi come quello delle emozioni e della creatività. Quali sono secondo te le implicazioni, le minacce e le promesse (se ci sono) insite in questo tipo di approccio?

Clément Lambelet: Credo che ambiti soggettivi come quello delle emozioni e della creatività, ma anche quello del rischio di recidiva o di commettere un crimine, del premio assicurativo, ecc. siano le aree di applicazione delle AI più pericolose. Le Intelligenze artificiali ci vengono presentate come la soluzione miracolosa a tutti i problemi, ma bisogna ricordarsi che il significato del termine “AI” è stato largamente esagerato. Questa “intelligenza” si limita a individuare dei modelli all’interno di una grande quantità di dati, e ciò solleva il problema del pregiudizio, con innumerevoli esempi: discriminazione contro le donne, i neri, i poveri… Questi sistemi riproducono e amplificano le disuguaglianze odierne, sono uno specchio della nostra società.

Ma, come sostiene Julia Powles, i ricercatori hanno difficoltà a capire come risolvere questi difetti. Non basta un miglior filtro per i dati, una collezione più ampia, più personalizzata: “L’errore è un problema sociale, e cercare di risolverlo con la logica dell’automazione risulterà sempre inadeguato”. L’errore esisteva prima della raccolta dei dati, è radicato nella nostra società e ci allontana dalla vera questione: “quella di correggere i sistemi di Intelligenza Artificiale, non di utilizzare un sistema differente o non utilizzarlo affatto”. Aggiungiamo tecnologia per risolvere i problemi della tecnologia, è cosi assurdo! Spero che un giorno saremo davvero in grado di chiederci quale ruolo vogliamo affidare a questi sistemi.

Bianca Cavuti: In alcuni lavori, come per esempio Two Donkeys in a war zone, sembri andare alla ricerca degli ultimi residui di umanità all’interno di tecnologie sempre più disumanizzate e disumanizzanti.  Come nasce questo lavoro e quali sono le possibili strategie di resistenza visiva a questa condizione?

Clément Lambelet: Ho iniziato questa serie mentre stavo lavorando a Find Fix Finish, che,comeTwo donkeys…, è un’opera sugli attacchi dei droni. Questa serie, pubblicata come un libro d’artista, parte dai PowerPointriservati dell’esercito americano resi pubblici da “The Intercept”nell’ottobre del 2015. Ho ritagliato questi documenti per estrarre gli elementi visivi che compongono l’iconografia utilizzata dall’esercito. E’ un’estetica molto colorata, dove la realtà degli attacchi dei droni è descritta con grafici, statistiche ed esplosioni inoffensive.  La serie mostra, nell’ottica di un’ “arte della guerra”, il bisogno di efficienza, il contesto economico legato dall’esercito.

Durante la realizzazione di Find Fix Finish, ho capito che questi documenti fornivano solo una vista parziale della complessa realtà dei combattimenti con gli UAV. Per capire meglio di cosa si tratta ho semplicemente cercato su Youtube “drone strike”, e sono apparsi dozzine di video. Uno dei primi che ho guardato mostra un attacco dell’esercito statunitense ad un accampamento dell’Isis. La scena è ripresa dalla telecamera ad infrarossi del drone e tra due esplosioni compaiono brevemente sullo schermo due asini.

Questa irruzione piuttosto inaspettata mi ha portato a concepire diversamente questi video, che mostrano molto più del semplice attacco. Nelle inquadrature troviamo anche animali, passanti, testimoni che esistono nell’immagine registrata e che quindi soffrono la violenza sistematica del drone. Ho cercato metodicamente queste tracce di vita nella maggior parte dei video che ho potuto trovare su Youtube o Liveleaks. Fotografando il mio schermo mi sono concentrato su questi “dettagli” ai margini dell’inquadratura, ma che il pilota del drone non prende in considerazione. Ho cercato di mostrare la vita prima della morte, e a fianco di essa. Questa modalità mi permette di mettere in discussione attraverso l’immagine il principio che sta dietro a questi attacchi riformulando il processo visivo della telecamera. Si tratta di resistenza visivain quanto è un modo per offrire uno spazio nuovo, per mostrare un’umanità che continua a subire una tecnologia esterna disumanizzante.

Un’altra questione che volevo sollevare riguarda del doppio limite della visione, sia del sistema che dello spettatore. La visione artificiale viene spesso descritta come più precisa e ampia di quella umana, e gli attacchi di droni sono filmati con telecamere termiche che permettono di visualizzare il calore corporeo. Anche se la maggior parte di questi video sono di bassa qualità e deliberatamente ridimensionati prima di essere messi online, numerose ed edificanti testimonianze dei piloti ci parlano in dettaglio dei molti difetti di questi sistemi. Per rendere visibile questo limite percettivo ho scelto di mostrare anche immagini “povere”, di bassa qualità, fortemente pixellate, ma che contengono pur sempre un segno di vita. Ci scontriamo a questo punto con un altro limite: la capacità di accettare che un’immagine non debba necessariamente essere “bella” per essere forte ed essenziale. La sua povertà di base è, come sostiene Hito Steyerl nel suo “In Defense of the Poor Image”, testimone fondamentale della sua condizione, della sua origine e della sua dispersione.

Bianca Cavuti: Quali pensi siano i rischi legati alla delega sempre maggiore dello sguardo umano alle “macchine che vedono”, le cosidette “seeing machines”? Ritieni che questo processo di sostituzione della visione racchiuda in sé anche delle potenzialità positive?

Clément Lambelet: Ovviamente la visione artificiale ha dei vantaggi. Quello che la NASA o la ESA fanno per comprendere il mondo è importante. Nello specifico, il drone utilizzato dal pubblico generico o dagli artisti ha portato alla luce nuovi modi di vedere il mondo. Il drone è uno strumento interessantefinchè resta inoffensivo. Nel momento in cui viene dotato di un missile Hellfire e dell’abilità di seguire il suo obiettivo per ore, diventa l’agente di un sistema di assassinio remoto. Secondo me, non possiamo criticare una tecnologia in quanto tale, dobbiamo sempre collegarciad una sua specifica applicazione. Credo inoltre che il più grande problema non sia la visione artificiale in sè, ma piuttosto la sua applicazione su larga scala. Gli studiosi di immagini hanno percepito il profondo cambiamento avvenuto con l’avvento dell’immagine digitale, e si sono concentrati sui suoi utilizzi sociali.

Ma, come affermato da Trevor Paglen nel suo saggio “Invisible Images (Your Pictures are looking at you)”, hanno mancato uno dei punti centrali dell’immagine digitale: il suo essere leggibile da una macchina, ancora prima che da un essere umano. Questo mutamento fondamentale spiega perché siamo in grado di creare intelligenze artificiali capaci di riconoscere oggetti e facce, solo perché i bilioni di immagini postate quotidianamente su Instagram, Facebook, Snapchat, sono identificabili da un computer. E questa lettura, questi collegamenti all’interno dei database, non sono innocui. Oggi possono avere un grande impatto sulle nostre vite, sul prezzo del nostro premio assicurativo, sulla nostra possibilità di volare… Il tutto mascherato da buone intenzioni: “Fa’ la cosa giusta” (Google), “Rendiamo il mondo più piccolo” (Facebook). Ma come precisa Paglen, questi strumenti oggi sono “leve immensamente potenti di regolazione sociale che, mentre si presentano come oggettivi, sono al servizio degli interessi di razze e classi specifiche”.

Bianca Cavuti: Proprio Trevor Paglen, in un articolo del 2017, parlando di intelligenze artificiali sostiene che gli artisti debbano avere un ruolo di primo piano in questa discussione, perché nessuno meglio di loro è in grado di comprendere e decodificare le immagini (e anche per far sì che queste faccende non vengano lasciate nelle mani dei “ragazzi della Silicon Valley.”).

Qualpensi debbano essere la posizione e il ruolo dell’arte all’interno di questo dibattito? Ritieni che la produzione artistica possa coesistere con l’attivismo? Pensi che esista qualcosa come l’art activism, inteso secondo la definizione di Boris Groys come “la capacità dell’arte di fungere da arena e medium della protesta politica e dell’attivismo sociale”?

Clément Lambelet: Non credo che i miei lavori siano medium della protesta politica, o almeno non è quello il mio scopo primario. Anche se comprendo e a volte sento il bisogno di un attivismo più forte, temo anche che l’arte possa diventare uno strumento ideologico simile a quelli che cerco di criticare.

Ad ogni modo, le questioni socio-politiche rimangono il cuore dei miei progetti. La mia pratica artistica è politica nel senso originario del termine – ovvero si interessa della società in cui vivo, e delle emozioni che provoca. Dal mio punto di vista si tratta di puntare uno specchio sulle aree più oscure e indecifrabili della nostra società, rendendole visibili senza dare ovvie interpretazioni. Del resto, le ideologie che critico sono raramente il risultato di singole scelte politiche. Per me è più importante mettere in discussione pratiche e discorsi più estesi, come quello sul controllo, piuttosto che focalizzarsi su uno specifico evento politico e darne un’interpretazione.

In questo modo posso mantenere una certa distanza che ritengo fondamentale per l’autonomia del mio lavoro, che non si traduce in una mancanza di significato o di contenuto. Tramite queste opere, spero di rendere le persone più vigili e critiche rispetto ai nuovi sistemi di controllo. In conclusione, credo che l’arte debba mantenere una certa distanza per garantire la propria autonomia, mache gli artisti abbiano il dovere di partecipare alle discussioni importanti dei loro tempi, e di aprire porte invisibili che non erano ancora state considerate. Questo è quello che cerco di fare durante i talk, proponendo anche al pubblico soluzioni concrete, come quelle di privacytools.io.

Paglen solleva la questione del ruolo dell’artista nella sua epoca. Non si tratta della nostra capacità di criticare tematiche contemporanee ma della nostra posizione, della nostra urgenza. Io non lavoro per una multinazionale o per un governo, ma questa non è una posizione di rifiuto : da qui posso sollevare dei criticità, mettere in dubbio i dispositivi e gli utilizzi delle immagini generate da macchine;è una posizione privilegiata che mi spinge ad agire artisticamente. Gli ingegneri della Silicon Valley, nascosti dietro buone intenzioni, non vedono i mostri che stanno creando, o sono accecati dal profitto. D’altro canto il pubblico è raramente consapevole dell’uso delle immagini digitali, che non si limitano più a rappresentare la vita, ma hanno un impatto diretto su di essa. In questo momento critico della storia, in cui il potere sta rafforzando la sua autorità tramite l’utilizzo delle immagini, non possiamo più accettare che i ciechi continuino a guidare i ciechi.


https://c-lambelet.com/

https://www.privacytools.io/

https://theintercept.com/drone-papers/

http://www.spiegel.de/international/world/pain-continues-after-war-for-american-drone-pilot-a-872726.html

https://www.e-flux.com/journal/10/61362/in-defense-of-the-poor-image/

https://thenewinquiry.com/invisible-images-your-pictures-are-looking-at-you/