Immaginate una biblioteca pubblica. Una molto comune, con tantissimi scaffali pieni di libri suddivisi per genere e in ordine alfabetico. Il modo in cui questo spazio è organizzato è ora messo in discussione da nuove modalità di elaborare le informazioni. Negli ultimi anni, le biblioteche sono particolarmente interessate all’applicazione di metodi computazionali per classificare, organizzare e gestire il loro inventario. Tuttavia, l’introduzione di risorse ottimizzate potrebbe avere altre implicazioni.

Il noioso compito di smistare voluminose raccolte di libri può essere delegato a un software di pulizia, che registra la circolazione dei libri e seleziona quelli che la biblioteca dovrebbe eliminare. In questo modo, i libri che non sono stati presi in prestito per un certo periodo di tempo saranno scartati. Se, per esempio, una copia del Gobbo di Notre-Dame di Victor Hugo non fosse letta da nessuno per due anni, verrebbe eliminata. Affidandosi così tanto alla circolazione, il sistema ignora il giudizio dei bibliotecari, i quali hanno una conoscenza più profonda del valore di alcuni libri.

In una piccola biblioteca di Sorento, in Florida, due dipendenti hanno deciso di affrontare il sistema utilizzato dalla loro biblioteca. Hanno creato un cliente abituale immaginario, Chuck Finley, e usato questo account per prendere in prestito più di 2500 libri nell’arco di nove mesi, sfruttando le valutazioni dei libri presenti nel sistema. In questo modo sono riusciti a salvare alcuni libri a loro avviso di grande valore dall’eliminazione automatica di titoli con scarsa popolarità. La relazione problematica tra algoritmo e bibliotecari umani è stata quindi risolta grazie all’astuzia umana. Quando quest’attività è stata scoperta, gli ufficiali della East Lake County hanno preso provvedimenti nei confronti dei due dipendenti, in quanto il desiderio del loro lettore immaginario ha alterato il tasso di circolazione della biblioteca del 3,9%, cosa che avrebbe potuto aumentare in modo fraudolento il finanziamento della filiale.

Dal momento che la società accoglie strumenti computazionali come mezzi di espressione e presa di decisione, il modo in cui navighiamo in Internet è sempre più elaborato e plasmato per mezzo di algoritmi. Questi identificano e anticipano ciò che abbiamo bisogno di sapere nella nostra economia dell’informazione. Gli algoritmi filtrano e gestiscono l’utilizzo dei canali di comunicazione in modo molto simile a come fa l’unpleasant design[1] nel mondo urbano. Ma cosa si può definire ostile (unplesant) nell’operazione di un algoritmo? O meglio, esistono dei modelli di progettazione nel mondo digitale che possono essere paragonati all’unpleasant design nelle aree pubbliche? Di seguito esamineremo la progettazione degli algoritmi con i quali interagiamo quotidianamente, dallo shopping online ai social network o ai sistemi di sorveglianza. Questi sistemi sembrano far parte della sfera pubblica all’interno della quale possiamo liberamente scambiare opinioni, ma il modo in cui operano è più affine a parchi a tema e centri commerciali.

Unpleasant Design – Oggetti nelle aree pubbliche

Ogni processo di progettazione, sia dal punto di vista tecnico sia da quello estetico, è ideologico. Per questo motivo le sue caratteristiche, strutture e modalità di funzionamento, all’interno delle quali l’utente interagisce con questo processo, possono essere controllate. Nel libro Unpleasant Design, siamo riusciti a identificare e documentare un certo linguaggio di ostilità (unpleasantness). Questo linguaggio risulta da un approccio di progettazione che trasmette un uso particolarmente limitato dell’oggetto. Si tratta di un insieme di scoraggiamenti e proibizioni mantenuti e promossi da fattori nascosti.

Le applicazioni dell’unpleasant design spaziano da interventi architettonici nelle aree pubbliche – come una superficie irregolare che previene dormite scomode, cassonetti che promuovono la pulizia della città per mezzo della superficie inclinata, oppure luci che rendono impossibile e altamente pericoloso l’utilizzo di droghe all’interno dei bagni pubblici, poiché le vene sono difficilmente visibili. L’esempio più comune è certamente la progettazione dell’arredo urbano che scoraggi il sonno e, allo stesso tempo, fornisca un modo per sedersi. Dall’altra parte, il più estremo è forse quello che connette digitale e fisico in modo sbalorditivo, come le reti anti-suicidio utilizzate nelle strutture Foxconn, dove vengono prodotti gran parte dei nostri hardware di consumo (iPhone, Kindle, Nintendo, Xbox, ecc.). Le reti vengono installate sopra il livello del suolo per “catturare” un potenziale suicida, rendendo così il suo tentativo inutile.

Unpleasant Design non riguarda la mancata realizzazione di bei prodotti, e nemmeno semplicemente di oggetti scomodi o inutilizzabili. Il meccanismo freddo che sta dietro questi agenti silenziosi – siano essi reti o panchine – potrebbe agire bene nella rimozione del problema da questo sito particolare, ma fallirà sempre nella risoluzione della radice del problema. Tuttavia, la rimozione di dormienti dalle zone residenziali o di adolescenti che gironzolano nei centri commerciali, non renderà questi spazi più facili da gestire e più costosi da affittare. Dunque, l’unpleasant design esclude con successo determinati gruppi sociali e limita determinati usi di oggetti, e allo stesso tempo aumenta il valore di un prodotto o gli ambienti circostanti.

Unpleasant design opera nello spazio pubblico e, data la sua posizione, crea attrito sociale. Le cose vanno diversamente se si pone un ostacolo agli skater nel loro giardino privato rispetto a quando lo si fa in un parco pubblico. Nello spazio pubblico c’è un’aspettativa di accessibilità. C’è l’aspettativa che l’accessibilità venga garantita a tutti o che possa essere negoziata. Al contrario, con un approccio legato all’unpleasant design, oggetti fermi e immutabili rappresentano una politica o una regola e assicurano che venga applicata senza alcun dibattito.

Probabilmente, la maggior parte di noi non riuscirebbe a sostenere il fatto di rendere uno spazio pubblico comodo per dormire, così come incoraggiare i senzatetto a trascorrere la notte (o il giorno) sulle panchine nei parchi e nelle piazze che frequentiamo. Probabilmente potremmo essere d’accordo sul fatto che in primo luogo non desideriamo che ci siano senzatetto. Tuttavia, le domande sono: cosa si può fare per risolvere il problema dei senzatetto che si trovano ancora lì? Il design dovrebbe prevenirlo, risolverlo o semplicemente ignorarlo?

Spazio accessibile per la vita pubblica

La lotta per l’accessibilità e il diritto allo spazio pubblico possono essere ricondotti all’origine delle città. Nell’antica Grecia, per avere accesso alla sfera pubblica, era necessario essere cittadino libero e quindi possedere una proprietà. Nell’Europa medievale, il mercato e la chiesa erano il centro della vita pubblica. Il sociologo e filosofo della sfera pubblica, Jürgen Habermas definì lo spazio pubblico come il luogo in cui si svolge la vita pubblica[2]. Osservò che durante il Rinascimento, con l’ascesa della società borghese, nacque l’aspettativa di uno spazio pubblico accessibile, in cui gli individui scambierebbero liberamente opinioni e conoscenze.

Al contrario, negli ultimi anni è emerso un nuovo tipo di spazio: l’architetto Miodrag Mitrašinović nel suo libro Total Landscape l’ha teorizzato come PROPASt[3]. Spazi accessibili al pubblico e di proprietà privata come i parchi divertimento e i centri commerciali costituiscono uno strano mix di accessibilità e di apertura al pubblico. Qui le interazioni sociali sono uguali a quelle che avvengono nello spazio pubblico – le persone si incontrano, scambiano opinioni. Tuttavia, questi spazi sono mantenuti, gestiti e controllati da enti privati. Questo tipo di accordo si sta infiltrando sempre di più nelle aree urbane – sottoforma di Business Improvement Districts o BIDs. Centri commerciali per lo shopping praticamente all’aperto, la forma tradizionale di una strada per fare shopping qui è destinata alla gestione di enti privati. I BID sono noti per il trasferimento dell’autorità da funzionari pubblici politicamente responsabili ad attori privati non responsabili, per aver messo lo spazio pubblico nelle mani di privati. L’unpleasant design viene spesso utilizzato per mantenere l’etichetta prescritta dalle aziende – posti a sedere freddi e scomodi, luci forti, videosorveglianza con riconoscimento facciale, ecc.

Unpleasant Design digitale

Le regole e i regolamenti nei centri commerciali sono paragonabili ai termini e alle politiche di numerosi servizi online offerti gratuitamente. Spesso le regole qui sono più esplicite – e i documenti che li descrivono sono molto più complicati – ma allo stesso modo sono vincolanti. Tutto è concesso, a patto che arrechi qualche profitto all’azienda e non interferisca con il controllo della società su dati e algoritmi. Quindi, questo importante canale per uno scambio di informazioni e opinioni pubblicamente accessibile – proprio come lo era lo spazio pubblico per Habermas – è completamente nelle mani di aziende tecnologiche private. Esisterà una cosa simile come l’unpleasant design digitale?

Siti web scomodi e pregiudizi algoritmici

Un modello, analogo al linguaggio dell’unpleasant design, si può riscontrare nelle tecniche persuasive utilizzate oggi da numerosi siti web al fine di influenzare le scelte dei visitatori o di attrarre visibilità. Al tempo stesso, le decisioni su ogni livello sono costituite sempre più da algoritmi, che hanno pregiudizi latenti nei confronti di alcuni gruppi sociali, stili di vita, nazionalità, ecc. – paragonabile al modo in cui l’unpleasant design viene utilizzato per escludere alcuni gruppi e limitare gli impieghi dello spazio.

Le compagnie aeree spesso approfittano del processo di acquisto del biglietto per offrire alcuni servizi aggiuntivi. Ci sono servizi di autonoleggio e di prenotazioni alberghiere, assicurazioni di viaggio e offerte di upgrade. Il cliente spesso si trova davanti a delle proposte che alterano il significato delle proprie azioni – come per esempio affermare di non voler risparmiare quando in realtà non vogliono pagare una quota di iscrizione. La “disiscrizione” dalle newsletter è sempre facile da annullare. Piuttosto che fare il semplice check in, il sito web ti suggerisce con insistenza di ottenere l’upgrade alla Business class. Piuttosto che acquistare semplicemente l’articolo che si sta cercando, un sito web suggerisce di aggiungere un articolo “gratuito”, per cui addebitano i costi di spedizione. Queste tecniche nel web design vengono chiamate a volte dark pattern – il design antropocentrico guidato dal marketing. Si tratta essenzialmente di una collezione di esperienze in cui lo schema generale è ingannare, fuorviare le persone negli acquisti o altrimenti fargli accettare qualcosa che va oltre le loro intenzioni[4]

Ciò nonostante, non c’è alcuna apertura al pubblico nei negozi online, negli acquisti dei biglietti aerei e nelle iscrizioni alle newsletter. Questi sono tutti outlet di servizi commerciali che non costituiscono di per sé “un diritto” su Internet. Tuttavia, entrare in contatto con le persone è leggermente diverso. Mentre i social network come Facebook promuovono il loro servizio gratuito come un modo per mettersi in contatto e agevolare lo scambio di ricordi e opinioni, questi assumono le sembianze di qualcosa che appartiene alla sfera pubblica. Questo tuttavia, è distante dalla realtà in quanto queste piattaforme appartengono ad enti privati. Sono costruite su un codice proprietario e sono servite attraverso delle infrastrutture, gestite del tutto privatamente. In maniera significativa l’utilizzo di questi servizi viene regolato da lunghe e complicate condizioni sui Termini di Servizio. Per usufruire di un servizio gratuito, quindi, innanzitutto è richiesto di accettare una lunga lista di dichiarazioni che spesso non vengono nemmeno lette.

A proposito dell’insistenza sull’essere pubblico, con lo scopo di identificare il digital unpleasant design, esiste un solo caso in cui queste tre sfere, siti web, infrastrutture e luoghi pubblici, si incontrano. Il Wi-Fi accessibile al pubblico è spesso disponibile nei luoghi comuni. Analogamente al modello dell’antica Grecia, l’accesso a questa ampia agorà è garantito agli utenti con una password. La maggior parte delle reti wireless aperte presenti ancora oggi nei luoghi pubblici, vengono fornite da attività come i ristoranti, le banche, i negozi, ecc. Tutte queste reti richiedono una qualche forma di autenticazione e il consenso delle condizioni dei Termini di Servizio. Navigare su Internet è gratuito, in cambio di qualche informazione personale (e.g. il numero di telefono) o semplicemente di un consenso. Se si esaminano le regole stabilite qui dai fornitori della rete si scopriranno diverse misure che possono essere prese per limitare comportamenti indesiderati e l’utilizzo del traffico – come la riduzione della banda larga o bloccando alcuni utenti. L’accesso ad un Wi-Fi libero è quindi esplicitamente regolato e gestito da enti privati che lo forniscono, simile a quello che succede nei BID o nei parchi a tema[5]. Il problema di limitare l’accesso a una rete wireless è molto simile a quello di limitare l’utilizzo di una panchina pubblica – se questa rete si propaga nei luoghi pubblici ed è aperta al pubblico, allora l’istituzione delle regole proprietarie si avvicina molto alla nostra definizione di unpleasant design: si escludono con successo alcuni comportamenti e si limitano a determinati utilizzi gli oggetti, mentre il valore, in questo caso, del servizio aumenta.

Oltre al Wi-Fi gratis, troviamo spesso la video sorveglianza negli spazi pubblici. Le videocamere, individuali o a circuito chiuso, atterrano su strade, angoli, spazi pubblici e privati. Questa vista può essere monitorata in diretta, dall’oscurità delle sale di controllo CCTV. Nelle sale di controllo tradizionali, si trovano persone sedute di fronte a una serie di schermi che osservano la situazione con l’obiettivo di notare se succede qualcosa di insolito e reagendo agli allarmi relativi ad attività sospette. Con il progresso delle tecniche di visione artificiale, questo compito viene trasferito sempre più spesso ad algoritmi. Gli agenti silenziosi sono quindi programmati nel software che segnala qualsiasi comportamento sospetto. Se una persona con cappuccio nero potrebbe passare inosservata o ancora, potrebbe non allarmare gli osservatori umani, un software ben addestrato si farà insospettire dal suo aspetto e avviserà tutti. Utilizzando il riconoscimento facciale, le telecamere a circuito chiuso possono catturare volti umani nelle immagini. I sistemi di polizia utilizzano il riconoscimento facciale per confrontare, in tempo reale, le immagini dei volti in strada con le “liste nere” di persone sospettate di criminalità o con un mandato di arresto aperto[6]. Un grosso problema della sorveglianza basata su visione artificiale è il suo pregiudizio non dichiarato. Il pubblico non ha modo di sapere in che modo è programmato il software ed è abbastanza difficile da controllare. E ci sono molte prove di favoritismo negli algoritmi, in ciò che viene riconosciuto come volto umano e quanto questi volti siano simili ad altri volti. La tendenza razziale era, infatti, già presente nelle tecniche fotografiche analogiche. Le pellicole a colori sono state apparentemente costruite per i bianchi e hanno mostrato risultati davvero scarsi quando sono state sviluppate immagini di persone non-bianche. Questo era l’effetto più ovvio in situazioni “miste”.

Il software di riconoscimento facciale utilizza l’apprendimento automatico su set di immagini – per esempio immagini di volti diversi per riconoscerne uno. Viene dato un input del tipo “questo è un volto” e “questo non è un volto”. Se il set non è sufficientemente diverso, tutto ciò che si discosta troppo dalla norma stabilita sarà più difficile da individuare. Questo può essere dovuto ai tratti del viso di una persona, o semplicemente dal suo colore della pelle. Esistono molti esempi di telecamere con software che non sono riusciti a riconoscere i volti dei neri[7]. Un altro caso tipico è la percezione di un ammiccamento nelle fotocamere digitali, che scambiano gli occhi asiatici per l’ammiccamento di un caucasico. Una ricercatrice del media lab MIT, Joy Boulamwini ha notato quanto viaggi velocemente questo pregiudizio – il più velocemente possibile per scaricare da Internet le generiche librerie di software di riconoscimento facciale (openCV). Il preconcetto generato in questo codice si propagherà attraverso tutte le applicazioni che lo utilizzano. Il problema è rappresentato di frequente anche dai set di formazione che spesso sono semplicemente grandi raccolte di qualcosa, e non di una rappresentazione oggettiva della diversità – raramente infatti rappresentano la popolazione in proporzioni eque.

Le manifestazioni di distorsioni algoritmiche sono abbondanti e non riguardano solo la visione artificiale. Gli algoritmi informano anche su decisioni relative alla possibilità di ottenere o meno un prestito, andare in prigione, o se i genitori sono in grado di prendersi cura di un bambino[8]. Ma piuttosto che estendere questa discussione in questa direzione, dovremmo tornare alla domanda fondamentale che riguarda questo progetto non gradito, se sia fattibile o meno in ambito digitale.

Digital Citizenship e l’impossibilità dell’Unpleasantness

Vari teorici del design e filosofi – come Herbert Simon, Vilem Flusser, Tony Fry – hanno riconosciuto che non è possibile capire noi stessi senza comprendere ciò che creiamo. Così, gli artefatti e gli algoritmi che progettiamo si offrono per un’interpretazione della società. L’identificazione di modelli oscuri nel web design e di pregiudizi algoritmici nel riconoscimento facciale è un tentativo di delineare in modo significativo queste aree di interesse. Abbiamo visto alcuni luoghi dove gli algoritmi convergono con lo spazio pubblico o la sfera pubblica – la comunicazione, come nei social network; la sorveglianza, come nel riconoscimento facciale; le infrastrutture, come nel WiFi pubblico. Un’importante differenza tra il design fisico e quello digitale di intenzionale sgradevolezza è che le borchie anti-senzatetto, i cestini inclinati per la spazzatura – tutti questi agenti operano a livello sensuale nello spazio pubblico. In ambito digitale, lavorano a livello cognitivo, mentre circolano in un regno che è allo stesso tempo virtuale e privato. Per concludere, ecco alcune osservazioni sulle ragioni per cui non dovremmo considerarle parte del fenomeno unpleasant design.

Tra i numerosi esempi di siti web persuasivi e scadenti, algoritmi di parte e infrastrutture inaccessibili, solo alcuni possono essere considerati potenzialmente sgradevoli. Ma cos’è, se non altro, pubblico nella sfera digitale? Le interazioni digitali si svolgono in uno spazio esclusivamente privato di infrastrutture di rete. Si affidano a servizi di comunicazione come Twitter, Facebook, Gmail di Google, Skype di Microsoft, ecc. che vengono offerti da aziende commerciali, gratuitamente, ma operanti in uno spazio algoritmico proprietario. Tuttavia, queste pile tecniche di infrastrutture di proprietà privata diventano sempre più spesso i nostri principali punti di espressione. Le conversazioni sono mediate da canali di comunicazione che codificano e trasmettono messaggi basati su un codice e dei protocolli. Alcune di queste conversazioni sono interamente private, mentre altre, come le campagne politiche e il coordinamento delle proteste, si rivolgono alla sfera pubblica. Può essere che la nozione di sfera pubblica stia cambiando con queste nuove tecnologie della comunicazione?

La continua e attenta riprogrammazione degli algoritmi di feed di Twitter e Facebook conferma l’importanza data all’attenzione dei loro utenti. Nel 2016, Twitter ha introdotto il suo nuovo algoritmo di gestione del feed basato sulla rilevanza piuttosto che sulla cronologia. Anche l’algoritmo del news feed di Facebook è in sintonia con la nostra attenzione, che l’azienda dichiara di poter soddisfare con contenuti rilevanti, relativizzando in questo modo temi importanti come le notizie false o i contenuti offensivi,- ritenuti più rilevanti per alcune persone che per altre. Dobbiamo sfidare questo tipo di filtraggio quando si tratta dei risultati politici o del modo in cui gli algoritmi vengono introdotti nella conoscenza umana. Tuttavia, il dibattito su questi temi si conclude solitamente con il riconoscimento della responsabilità di Facebook per i contenuti serviti attraverso la loro piattaforma, proprio perché si tratta di uno “spazio” privato. E poiché questo spazio è governato da algoritmi più che razionali (sono super-razionali, accelerando sempre di più le misurazioni e l’ottimizzazione dei contenuti in circolazione) e quindi difficili da contestare come decisori.

Prima di iniziare a parlare dell’aspettativa di accessibilità o equità su queste piattaforme, dobbiamo pensare ad articolare la legittimità di una cittadinanza digitale. Non si tratta semplicemente di “chiamare” qualcosa con quel nome, di cambiare qualche parola nel modo in cui si parla di diritti su internet o nello spazio pubblico. Si tratta di acquisire maggiore familiarità con queste strutture e di inventare modi per affrontare, come società, fenomeni puramente legati al digitale, situati nelle infrastrutture di comunicazione.


[1] In questo contesto, “unpleasant” (“ostile”) si riferisce al fenomeno specifico che l’autore chiama “unpleasant design” e sul quale ha co-editato un libro con lo stesso titolo, Gordan Savičić e Selena Savić, eds., Unpleasant Design (Belgrado, 2013).

[2] Jürgen Habermas, The Structural Transformation of the Public Sphere: An Inquiry into a Category of Bourgeois Society (Cambridge, Mass.: MIT Press, 1989).

[3] Per saperne di più su come ha affrontato i processi urbani di privatizzazione delle risorse pubbliche, vedi Miodrag Mitrašinović, Total Landscape, Theme Parks, Public Space (Aldershot, England ; Burlington, VT: Ashgate, 2006).

[4] Per una raccolta di queste pratiche, consultare https://darkpatterns.org/

[5] Ci sono modi per aggirare alcune di queste restrizioni. Per combattere i limiti di tempo imposti da alcuni fornitori di reti aperte – da 30 minuti fino a un massimo di un’ora in molti aeroporti e sui mezzi di trasporto – l’artista Kyle McDonald offre una piccola parte del codice Python che aiuta a modificare l’indirizzo MAC (conosciuto anche come MAC-spoofing) del proprio dispositivo in rete con un metodo automatizzato https://medium.freecodecamp.org/free-wifi-on-public-networks-daf716cebc80

[6]Il software di riconoscimento facciale può anche essere aggirato – si veda per esempio l’opera CCTV Dazzle dell’artista Adam Harvey.

[7] Per una visione d’insieme, si faccia riferimento per esempio a questo articolo del Guardian sul riconoscimento facciale e i pregiudizi razziali: https://www.theguardian.com/technology/2016/apr/08/facial-recognition-technology-racial-bias-police

[8] Per una visione d’insieme più dettagliata del pregiudizio algoritmico, fare riferimento al libro di Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Prima edizione (New York: Crown, 2016).