Lo psicologo canadese Laurence J. Peter ha scritto: “Alcuni problemi sono così complessi da richiedere una grande intelligenza ed informazione anche solo per essere indecisi al riguardo”.
Il design contemporaneo si adatta alla perfezione a questa definizione: le conseguenze dell’information technology nei grandi sistemi architettonici incrociano grandi moli di dati digitali con nuove metodologie progettuali e rivoluzionarie tecniche di produzione materiale. La terza edizione del Design Modelling Symposium che si è tenuta a Berlino tra il 7 e il 12 Ottobre 2011 presso la Universität der Künste Berlin (UDK), è stata un osservatorio privilegiato sulla sfida che stanno affrontando ricercatori e progettisti degli ambiti più diversi per il controllo di questi sistemi complessi.
In due giorni di workshops, lectures e master classes, i partecipanti hanno potuto mettere le mani direttamente su alcune delle metodologie più avanzate del design digitale, guidati da esponenti di istituzioni, aziende e gruppi di ricerca di punta come Autodesk, Buro Happold, Live Architecture Network, Institute for Advanced Architecture of Catalonia, Princeton University, Evolute GmbH. I successivi tre giorni di conferenza, densissimi, hanno visto l’avvicendarsi di molti dei principali teorici e progettisti del parametric design, tra cui Robert Aish (Autodesk), Enrico Dini (D-Shape), Neil Katz (SOM), Arnold Walz (Design to Production), David Rutten (Mc Neel).
Invitati come osservatori da Joannis Zonitsas, uno dei curatori del simposio insieme a Christoph Gengnagel e Norbert Palz, abbiamo dovuto affrontare una lunga discussione prima di decidere di organizzare questo articolo come un dialogo. Un report tradizionale non avrebbe avuto molto senso, perché non sarebbe stato in grado di rendere la complessità scaturita dai quasi quaranta appuntamenti del simposio.
Per Digimag, abbiamo preferito riprendere alcuni temi centrali del Symposium, leggendoli attraverso delle lenti non strettamente specialistiche e mettendo a frutto la differenza di punti di vista tra un sociologo (Bertram) che si occupa delle implicazioni sociali delle tecnologie digitali ed una designer (Sabina) che sta affrontando una mappatura delle metodologie di digital design.
Bertram Niessen: Una delle cose che mi ha colpito di più nel Symposium è il parallelismo tra la nuova centralità dei dati nella produzione materiale e le trasformazioni generali della società dell’informazione. E’ un passaggio sul quale sto già riflettendo da tempo per quello che riguarda l’artigianato digitale e la produzione materiale peer-to-peer, ma non avevo mai realizzato appieno che fosse in atto anche nell’architettura.
La nuova centralità dell’informazione è uno dei principali cambiamenti nei sistemi sociali, culturali e produttivi, nei quali è divenuto possibile raccogliere dati quantitativi e qualitativi tramite strumenti radicalmente nuovi, dai social network a sensori di ogni genere. Le API (Application Programming Interface) rendono possibile lo scambio in tempo reale di dati tra una molteplicità di piattaforme e programmi in parti diverse del mondo.Inoltre, librerie di oggetti per la programmazione rendono sempre più accessibile l’analisi e la progettazione tramite software, aprendo continuamente nuovi scenari anche a quelle categorie (artisti, designer, ricercatori) non tradizionalmente deputate ad operare con l’informatica.
Così come le API facilitano lo scambio tra programmi diversi, nuove concezioni della User Interface stanno rivoluzionando il modo in cui gli esseri umani possono intervenire sulle macchine, mutando i modelli cognitivi della progettazione e della produzione.
Questi cambiamenti sono probabilmente più evidenti nel campo dell’immateriale, perché l’utilizzo diffuso dei social network ci sta rendendo consapevoli dell’onnipresenza dei dati e della loro complessità. Ma anche la produzione materiale sta divenendo sempre più “data centered”: il design parametrico e computazionale prende in considerazione grandi moli di dati e li tratta con metodologie della complessità nuove.
In questo caso, il cambiamento in corso è molto meno evidente: a livello sociale, siamo abituati a considerare la produzione materiale come un dato scontato, una serie di processi che si materializzano in oggetti e architetture verso le quali esercitiamo un livello di critica e consapevolezza molto minore.
Per me il Symposum è stato sostanzialmente questo: sollevare il “Velo di Maya” che nasconde ai non addetti ai lavori la trasformazione in corso tra dati e produzione materiale.
La lecture Modelling Hyperboloid Sound Scattering di Jane Burry, ad esempio, è stata una dimostrazione affascinante di come la realizzazione di prototipi per la dispersione nel suono negli auditori musicali possa essere affrontata mettendo in relazione analisi computazionale, grandi moli di dati e manifattura digitale. Si tratta di pratiche diffuse già da qualche anno nel mondo dell’ingegneria e dell’architettura avanzate, ma che per un osservatore esterno offrono delle visioni quasi “magiche” di come l’informazione stia prendendo una forma materiale nel mondo fisico.
Sabina Barcucci: Questo non è che una parte una parte delle innovazioni tecnologiche portate dall’architettura parametrica. Guardando oltre le caratteristiche esteriori o tecnologiche che conferiscono alla produzione materiale, emerge la centralità che il processo ha acquisito nel design contemporaneo.
Nella pratica, questa centralità è la conseguenza di una necessità legata al livello di complessità reso possibile dalle nuove tecnologie. Da un lato ci sono le collaborazioni distribuite nei quali gruppi geograficamente dislocati lavorano tramite web a uno stesso progetto di grande scala (nominalmente large-scale concurrent design), dove la domanda di aggiornamenti e interrelazione non potrebbe funzionare con strumenti standard. Queste richiedono l’uso di tools gestionali che parlano la stessa lingua della complessità che gestiscono, innescando una multi-paternità allargata del manufatto finale.
Un altro elemento discriminante la nuova architettura dalla “vecchia” è l’ottimizzazione. Si parla di Building Information Modeling (BIM), cioè di forme e strutture che sono governate da dati numerici, sui quale è umanamente difficile esprimere una preferenza oggettiva, se non sugli aspetti prettamente estetici.
E’ difficile dire cosa funziona meglio tra una facciata ottimizzata rispetto al consumo energetico dei suoi comparti e un sistema che ne ottimizza in percentuale maggiore la riduzione dell’ombra che l’architettura genera sul contesto in cui dovrà installarsi. Queste decisioni si basano quasi completamente sulla totalità degli aspetti legati alla grande mole di dati interconnessi su cui si basa un’architettura BIM. La sua valutazione è possibile solo attraverso softwares che ne possano cogliere la totalità degli effetti.
Lo scenario è quello di un pacchetto software che gestisce gli individui e la complessità dei contenuti progettuali e di fabbricazione, unito ad un’altra piattaforma in grado di valutare la totalità del manufatto, indirizzandolo di volta in volta lungo tutto il processo. Qui sta la nuova centralità del processo di cui parlavo all’inizio. Lo sforzo più grande è quello di tenere insieme lo sciame di dati, individui e aggiornamenti che danno vita a un manufatto.
Bertram Niessen: Il tema del Symposium di quest’anno era “Complexity and Responsibility – Computational Processes and the Physical Production of Space”. Purtroppo non abbiamo potuto seguire tutte le giornate dell’incontro, ma leggendo i paper contenuti negli atti, mi è rimasto un dubbio pressante. Quando guardo agli sviluppi del design computazionale lo faccio con una sensazione ambivalente: da un lato sono entusiasta per le possibilità apparentemente infinite, dall’altra continuo ad avere il timore che l’iper-specializzazione possa portare ad una nuova forma di miopia riguardo al senso complessivo della produzione architettonica. Osservando le pratiche di comunità del design digitale nelle reti non mancano esempi incoraggianti di sguardi ecologici, ma in generale sembra che il focus sia pericolosamente sbilanciato sulla performance.
Per questo credo che il rapporto tra prevedibilità, controllo e responsabilità stia assumendo un ruolo del tutto nuovo nel campo del design parametrico. La figura del designer che lavora con metodologie computazionali si sta spostando sempre più verso l’ingegneria. E’ sicuramente un processo interessante, che fa convergere saperi disciplinari diversi, nel quale nuovi software e metodologie facilitano l’integrazione del pensiero “visivo” dell’architetto e di quello numerico dell’ingegnere.
Tuttavia, per chi viene dalle discipline sociali, politiche e filosofiche è sempre stato difficile rapportarsi con l’idea di responsabilità che sembra implicita in alcuni approcci alla professione dell’ingegnere: “responsabilità” sembra venire tradotta con “qualità”, un impegno deontologico verso il committente, al quale bisogna fornire il prodotto con la migliore performance possibile, facendo passare in secondo piano le implicazioni ecologiche in senso lato. In questa visione manca la dimensione politica, sociale ed olistica della reponsabilità.
Ovviamente non si tratta di un problema di cattiva coscienza, quanto della difficoltà in progetti complessi di cogliere la portata sistemica del proprio lavoro. Ecco, mi chiedo quanto l’ingegnerizzazione di alcune pratiche legate al design parametrico non corra il rischio di incentrare tutta l’attenzione sulla qualità del prodotto, diminuendo le possibilità di una visione ecologica.
Sabina Barcucci: A questo riguardo c’è da precisare un aspetto: l’ottimizzazione della performance non è unicamente sinonimo di impegno deontologico con la committenza. Molto più frequentemente la performance costituisce il metro di misura della sostenibilità del progetto architettonico.
Le strutture freeform, calcolabili solo con software parametrici, possono essere costruite con molto meno materiale di quelle standard; i processi di ottimizzazione permettono di operare un’ulteriore riduzione della materia. Oppure, è possibile parametrizzare la quantità di materiale anche in base al trasporto su ruote che la costruzione può generare, e lavorare su quello ottimizzandone il trasporto. Anche questa è sostenibilità. Teoricamente si può riuscire a lavorare con maggiore facilità su moltissimi parametri che implicano una riduzione di costi, materiale e consumi, con una filosofia del “more with less”.
Allo stesso tempo, non a tutti i livelli è possibile veder affiorare scenari di innovazione sostenibile. Queste grandi macchine collaborative hanno generato iper-specializzazioni professionali arricchendo lo scenario professionale con consulenti, progettisti, costruttori, fabbricanti, coordinatori e molte altre figure nuove. E’ ancora poco chiaro come costruire una regia del processo che veramente tenga conto dei parametri sostenibili qualitativi. Se le macchine collaborative lavorano con visioni parziali, non è conseguente che il risultato finale possieda qualità veramente olistiche. Sebbene la selezione di dati che si mettono in gioco nel processo del BIM abbia una base qualitativa, il prodotto finale maneggiato da centinaia di mani e cervelli difficilmente riesce a tenere un indirizzo rigido e controllato.
C’è un grande margine di non prevedibilità che scaturisce dal fatto che solo le singole fasi ultra-specializzate del processo progettuale e costruttivo sono controllate in maniera tecnologicamente avanzata. Questo rimette in discussione il discorso che facevo prima sull’affidabilità del software come strumento di valutazione, e lascia aperte diverse domande su come costruire una coscienza della responsabilità del progetto. Le metodologie parametriche configurano uno scenario post-autoriale dell’architettura: nel momento in cui un progetto ha un network di autori, in definitiva non ne ha nessuno e le figure di riferimento a cui attribuire responsabilità diventano vaghe.
Credo che questo genererà delle forme di organizzazione professionale e di coordinamento diverse, alla quale le figure professionali dovranno adeguarsi. Lo storico dell’architettura Mario Carpo, ad esempio, sostiene che la figura dell’architetto rischia di estinguersi, come la carta stampata o i rullini fotografici. [1]
Non ritengo questa visione particolarmente drammatica: la figura dell’architetto è comunque in una posizione critica da troppo tempo, e una radicale revisione dei suoi compiti e responsabilità – che lo trasformi in un attore di un processo allargato – è una mutazione auspicabile.
Bertram Niessen: Per concludere è interessante provare a fare il punto su una questione sulla quale discutiamo assieme da anni. Per chi viene dall’arte elettronica, molte estetiche e metodologie del design parametrico non sono qualcosa di nuovo. Lo sviluppo di gruppi di tipologie geometriche a partire dal codice, l’organizzazione evolutiva delle forme, la trasformazione secondo gradi di libertà controllata sono alla base dell’opera di molti artisti importanti, da Golan Levin a Marius Watz (e, se è per questo, di tutti gli autori trattati nel libro che abbiamo recensito assieme l’anno scorso, Form+Code). [2]
Tuttavia, credo che la somiglianza delle forme ottenute con processi simili, tenda a generare degli equivoci sul rapporto tra forma e funzione. Gli artisti digitali possono permettersi di ignorare molti aspetti funzionali della forma, e quindi tendono a dare poco peso agli sforzi progettuali in questo senso. Allo stesso tempo, nei non addetti ai lavori, le forme parametriche tendono a generare uno “wow effect” che pone eccessivamente in secondo piano tutti gli altri aspetti.
Questi due elementi (l’Art & Research e la difficoltà di comunicazione delle implicazioni progettuali del design parametrico) rendono indispensabili nuove formule didattiche e comunicative, anche e soprattutto fuori dai circoli degli accademici e degli addetti ai lavori. Come sociologo, trovo la questione tutt’altro che astratta. Da un lato perché sono chiare le possibilità favolose offerte dal digital design dal punto di vista della ricerca, dell’innovazione e della sostenibilità, e credo che per sfruttarle nel modo più intelligente sia necessario inventare nuovi modi per parlarne; dall’altra perché credo che ci sia l’urgenza di evitare i colpi di coda dell’”Effetto Guggenheim” che ha popolato le città di edifici “altamente iconici”, talvolta anche esteticamente interessanti, ma spesso ecologicamente e socialmente poco sostenibili.
Come se il fascino fantascientifico delle architetture parametriche funzionasse da grimaldello per dubbie operazioni urbanistiche. Anche il Metropol Parasol progettato da Jurgen Mayer a Siviglia (discusso proprio al Symposium) è stato accusato di spettacolarità e insostenibilità; io non ho ancora deciso che cosa ne penso, ma credo che il rischio esista.
Sabina Barcucci: L’architettura contemporanea è sempre stata proiettata sul futuro lavorando per un uomo che non c’era ancora. Quello che Le Corbusier disegnava negli anni ’20 era pensato per quello che avrebbe potuto essere l’uomo trenta anni dopo; l’architettura modernista si basava sulla convinzione che il sistema di produzione in serie avrebbe standardizzato bisogni e costumi nelle società.
Considerando la funzione, bisogna tenere presente che il salto formale in architettura è dato dalle nuove potenzialità con cui la forma può seguire la funzione. All’inizio del ventesimo secolo Il biologo matematico D’Arcy Thompson descriveva le forme naturali come risposte alle forze ambientali. La migliore architettura è sempre stata concepita in questo modo. Oggi continua farlo, prendendo in considerazione molte dimensioni in più, dando vita a un linguaggio geometrico più complesso. La tecnologia ci permette di costruire manufatti che rispondono sempre più dettagliatamente alle forze esterne, consumando il quantitativo di energia e materia minimi necessari per far funzionare le cose.
Le forme che abiteremo sono la risultante di queste forze, non una scelta formale basata su un’idea di uomo futuro che abita nelle menti dell’architetto. L’architettura parametrica non si basa sull’idea di un uomo, ma sulla capacità di costruire sistemi di relazioni umane. E in questo senso ci sono esempi riusciti come il Rolex Learning Center di SANAA a Losanna.
Il “Guggenheim effect” è un fenomeno a parte, che non riguarda necessariamente l’architettura parametrica. Ha piuttosto a che fare con le grandi manovre speculative che usano i contesti urbani come terreno di sfruttamento e deposito di capitale. Sarebbe bello se le rivoluzioni digitali fossero in grado di allargare i processi decisionali al punto da rendere la cittadinanza davvero in grado di partecipare alla sorte del loro territorio urbano, in modo da dare vita a un processo di formazione urbana veramente sistemico. Ma questo discorso lo teniamo per un prossimo articolo.
http://www.design-modelling-symposium.de/intro/index.php?&lang=en
http://b3rtramni3ss3n.wordpress.com/
Note: