Trevor Wishart, nato nel 1946 a Leeds, è un compositore e performer, padre e guru riconosciuto di tutta la ricerca sulla sound art e sulla analisi digitale del suono degli ultimi 30 anni, a cui è recentemente assegnato il “Grand Prize” durante il Giga-Hertz-Award for electronic music 2008.

Pioniere del sound-morphing, Wishart ha raggiunto notevoli traguardi artistici e tecnici, sviluppando strumenti di trasformazione sonora nel pacchetto software Sound Loom – Composers’ Desktop Project , e scrivendo libri importanti come ‘On Sonic Art’ e ‘Audible Design’, dove ha condiviso la sua vasta ricerca sull’estensione della voce umana  e sulle tecniche di computer music. E ‘attualmente ‘Arts Council Composer Fellow’ presso il Dipartimento di Musica – Università di Durham, in Inghilterra. L’abbiamo raggiunto per rendere omaggio alla sua attività lungo tutta la sua brillante carriera.

Nel testo seminale “On Sonc Art”, in cui sviluppa la nozione di suono come arte, avanzando l’idea della creazione di un sound landscape e delle possibilità offerte delle tecnologie per la trasformazione del suono, scrive: “In the past, the quality or nature of sounds used in music was set by the technology of instrument design, and conventions about performance and musical ‘expression’. In the 19th century, european composers became increasingly concerned with ‘sonority’, through development of new orchestration techniques, and new instruments. However, a systematic approach to sound itself had to wait for the invention of sound recording and the accurate computer analysis of sounds. Studios, and then computers, also provided powerful new tools for musicians to work directly with sound.”

Un personaggio unico per la sua dimensione non solo artistica ma anche propedeutica, pioneristica, per un campo di ricerca creativa che gode oggi di grande salute e di enormi potenzialità, grazie alla costante implementazioni di tecnologie hardware e software. E’ stato quindi un piacere e un onore per noi poterci parlare e la chiacchierata che ne è scaturita è una testimonianza di valore sul percorso evolutivo compiuto dalla sintesi sonora digitale negli ultmi 30 anni.

.

USO: Sei stato premiato al Festival di Bourges, poi a Linz per Ars Electronica e ora a Giga-Hertz, tre premi prestigiosi per la musica elettronica. Qual’è il tuo stato d’animo per tutti questi riconoscimenti al tuo lavoro come compositore?

Trevor Wishart: E’ molto gratificante ricevere questo tipo di riconoscimento da parte della comunità musicale, in particolare perchè il genere di musica che produco è quasi invisibile alla stampa colta nel Regno Unito, dove la composizione elettro-acustica è schiacciata tra la musica classica strumentale e la musica popolare.

USO: Come hai iniziato a interessarti di composizione musicale?


Trevor Wishart: Sono stato educato in una famiglia della classe operaia, senza alcun reale collegamento con il mondo dei concerti o teatri. C’era un pianoforte in casa, un cimelio di famiglia che nessuno aveva mai suonato e che mi conquistò. Così i miei genitori decisero di lasciarmi prendere lezioni di pianoforte. Un po’ più tardi, all’età di 7 anni, guardando nella vetrina dell’unico negozio di musica classica della città, notai uno strano libro, uno spartito musicale senza alcuna nota su di esso (si trattava di un libro manoscritto). Ne comprai subito uno e cominciai a scrivere la mia musica.

.

USO: Perché hai scelto il supporto elettronico e come questo ha influenzato il tuo modo di comporre?

Trevor Wishart: All’inizio andai all’università a studiare Chimica (i miei genitori non riuscivano ad immaginare la musica come un vero e proprio lavoro), ma ben presto passai a Musica. Dopo essermi spostato a Darmstadt grazie al mio tutor di Oxford, cominciai a scrivere musica strumentale complessa, quando mio padre morì. mprovvisamente percepii un senso di disconnessione dal suo mondo (lui lavorava in una fabbrica a Leeds). Così comprai l’unico registratore a nastro che mi potei permettere (girava a 3+3/4 pollici al secondo, con un microfono incorporato di cattiva qualità) e andai per fabbriche e centrali elettriche a Nottingham e Leeds per registrare suoni industriali, con la vaga idea di fare un pezzo dedicato a lui. In studio scoprii che molte delle mie ipotesi sulla composizione venivano sconvolte in questo nuovo mezzo. I suoni avevano una vita propria che andava rispettata. Nozioni preconcette di proporzioni e rapporti musicali sono state messe in dubbio dalla realtà concreta dei suoni stessi. Dopo due primi grandi progetti (‘Machine’ e ‘Journey-into-Space’) scelsi quindi di lavorare in ‘Red Bird’ con materiali complessi basati sull’idea della trasformazione sonora.

‘Red Bird’ tratta i suoni del mondo reale (uccelli, animali, voci, macchine) come metafore in un paesaggio mitico, dove un suono si trasforma in un altro per creare una forma a metà strada tra musica e racconto mitologico. In realtà l’approccio mi fu suggerito dalla lettura di ‘The Raw and the Cooked’ di Levi Strauss, dove egli utilizza la musica come una sorta di metafora per il suo approccio antropologico e strutturale al mito. La mia idea era quella di creare un mito contemporaneo (riguardante l’industrialismo, il determinismo, la libertà e la creatività) per mezzo del suono e della struttura musicale. L’approccio alla trasformazione del suono (molto difficile da realizzare in uno studio analogico) fu quindi in parte ispirato da un idea politica … la possibilità di cambiare il mondo sociale. Con l’avvento dei computer, il controllo preciso della struttura compositiva ha permesso di adottare la trasformazione sonora come approccio generale a materiali musicali. Penso a tutto ciò come a una generalizzazione delle idee classiche di variazione e di sviluppo, estesa a tutto il dominio dello spettro sonoro.

.

USO: Preferisci utilizzare campioni generati da fonti vocali eseguite con tecniche estese?

Trevor Wishart: Non strettamente. Io uso molto spesso la voce umana (a volte la mia, a volte quella di esecutori come in ‘Electric Phoenix’ o ‘Singcircle’, a volte voci dai media o dalla comunità locale), per due motivi. Da un lato la voce è molto più di uno strumento musicale. Attraverso il discorso ci si connette al mondo sociale, e quindi alle tradizioni della poesia, del dramma, della commedia, etc. Essa rivela molti dettagli dell’oratore, come il sesso, l’età, la salute, l’atteggiamento, lo stato d’animo e l’intenzione, e ci ricollega anche ai Primati, i nostri vicini “parenti biologici”. ‘ascoltatore riconosce una voce anche quando è minimamente indicata, o notevolmente trasformata, così come riconosciamo volti umani da pochi spunti. E l’ascoltatore medio verrà coinvolto maggiormente da un multifonico della voce, con cui si stabilisce un collegamento empatico immediato, in una maniera più coinvolgente di quanto accadrebbe con un multifonico prodotto da un clarinetto (più apprezzato nella sfera degli affezionati di musica contemporanea). Computer a parte, la voce genera una vasta gamma di suoni, da quelli ad altezza stabile a completamente rumorosi, da quelli più complessi, come multifonici in rapida evoluzione a textures varie e così via. Si tratta di un ricco filone minerario per l’esplorazione musicale.

USO: Potresti descrivere il tuo processo di creazione musicale?

Trevor Wishart: Normalmente ho una idea generale (una ‘poetica’) per ogni mio singolo lavoro. Ad esempio, ‘Imago’ nasce dall’idea di eventi sorprendenti che emergono da improbabili origini (proprio come l’ultima fase della metamorfosi della farfalla, chiamata Imago). Per ‘Globalalia’ l’idea è quella di esprimere la connessione di esseri umani con l’esplorazione degli elementi fondamentali di tutte le lingue: le sillabe. E’ importante dichiarare all’ascoltatore le ‘materie prime’ in un contesto in cui non è utilizzato il linguaggio musicale tradizionale. Ripetizione, sviluppo e ricapitolazione dei materiali sono particolarmente importanti per l’ascoltatore nel tracciare un percorso attraverso una forma musicale estesa. Tutti i materiali audio sono diversi e non è possibile prevedere, salvo nei modi più evidenti, che cosa succederà quando si inizia la trasformazione dei suoni. Così investo molto tempo esplorando, giocando con le sorgenti, trasformando, e trasformando le trasformazioni, e gradualmente si cristallizza in studio uno schema formale adatto a ciò ho scoperto in quei particolari materiali.

.

USO: Come è stata la tua esperienza di lavoro presso l’IRCAM per “Vox 5”?

Trevor Wishart: La mia prima visita in IRCAM fu l’esperienza di apprendimento più entusiasmante della mia vita: scoprire le possibilità offerte dalla trasformazione e dall’analisi dei suoni utilizzando il software, studiare la psico-acustica durante le lezioni ispirative di Steve McAdams, interagire con ricercatori dinamici con sempre nuove idee.
Mi fu offerta l’opportunità di fare un pezzo durante la mia visita del 1981, ma poi l’intero hardware di base in IRCAM cambiò e attesi fino al 1986 per iniziare a lavorare su ‘VOX-5’ – un pezzo che nasce dalla mia esperienza con ‘Red Bird’. Mi fu assegnato un mentore (Thierry Lancino), ma lui presto capì che probabilmente potevo cavarmela da solo (la mia educazione scientifica ha fatto sì che fossi incline alla programmazione) e quando scoprii il ‘Phase Vocoder’, cominciai a “fare a pezzi” i files di dati per scoprire cosa c’era dentro, utilizzando quelle conoscenze per iniziare la progettazione di strumenti di sound-morphing basati sulla trasformazione di tali dati.

USO: Sei coinvolto nello sviluppo di software da diversi anni. Perché hai scelto di plasmare il tuo strumento digitale personale?

Trevor Wishart: Ci sono due ragioni principali. Il primo è la povertà (!). Sono stato un compositore freelance per quasi tutta la mia vita, ed essere un compositore freelance sperimentale in Inghilterra è seriamente difficile! Durante i primi lavori con l’elettronica si era dipendenti da scatole nere come per esempio l’unità multieffetto Yamaha SPX90. Il mio problema è stato, anche se avessi potuto acquistare una di queste macchine, di non potermi permettere un aggiornamento periodico, come invece erano in grado di fare i dipartimenti di musica delle Università. Era chiaro che la soluzione a questo problema sarebbe stata di avere, come in IRCAM, del software in esecuzione su un desktop computer. Così, insieme ad altri compositori e ingegneri, abbiamo creato il progetto Composers’ Desktop (nel 1985-6), iniziando ad importare alcuni software IRCAM / Stanford su Atari ST (allora il MAC era troppo lento per l’audio professionale). In seguito abbiamo iniziato a creare il nostro software. La seconda ragione è che creare un proprio strumento significa poter seguire l’immaginazione sonora ovunque essa ti conduce, piuttosto che essere limitati da software commerciali. È possibile sviluppare o estendere lo strumento quando si sente la necessità, non quando il produttore commerciale decide che è redditizio farlo, e si può anche metterlo a posto se si dovesse rompere!

 .

USO: Ci puoi raccontare la genesi di Composers’ Desktop Project?


Trevor Wishart
: Il porting originale su Atari fu molto lento: ad esempio, per fare una trasformazione spettrale di un audio stereo di 4 secondi, in IRCAM bastavano 4 minuti, ma sull’Atari ci volevano 2 giorni. Tuttavia, sul proprio sistema domestico, ci si poteva permettere di aspettare … sicuramente era più facile che tentare di accedere alle grandi istituzioni ogni volta che si voleva fare un pezzo. A poco a poco il PC è diventato più veloce – anche l’IRCAM si spostò su MAC. Da quando il CDP è approdato su PC (i MAC erano troppo costosi per i freelance!), il software è diventato progressivamente più veloce del tempo reale. Il CDP è sempre stato un sistema basato sull’ascolto, e ho evitato per lungo tempo la creazione di una interfaccia grafica – molti software commerciali hanno un aspetto affascinante per nascondere limitate possibilità musicali. Tuttavia, a metà degli anni ’90 ho sviluppato ‘Sound Loom’ in TK/Tcl. (questo linguaggio è stato particolarmente utile, in quanto l’interfaccia può essere sviluppata senza modificare i programmi di elaborazione del suono). I vantaggi dell’interfaccia sono diventati ben presto evidenti, in particolare la sua capacità di memorizzare un numero infinito di attività musicali, salvare le patch, e creare multi-processi (chiamati ‘Instruments’). Recentemente ho aggiunto nuovi strumenti per gestire un gran numero di file (‘Bulk Processing’), mentre ‘ Property Files’ consente agli utenti di definire proprietà e valori assegnabili ai suoni, in modo da poterli selezionare sulla base di tali caratteristiche. Ci sono moltissime funzioni che possono essere ricombinate per raggiungere un alto livello di efficienza.

USO: Come hai sviluppato le tue abilità di programmazione nel dominio della frequenza?

Trevor Wishart: Ho studiato scienza e matematica a scuola, e un semestre di matematica universitaria (per chimici). La matematica è sempre stata uno dei miei hobby – è bella, come la musica. All’età di 15 anni, la mia scuola organizzò una visita al computer universitario (Leeds), una bestia grande e misteriosa che utilizzava schede perforate, nascosta in una stanza con aria condizionata. Scrissi a quei tempi il mio primo programma in Algol ( algorithmic language). Cominciai a programmare più tardi, in qualità di studente presso York, quando Clive Sinclair creò il suo primo home-computer ultra-economico (ZX80). Studiai da solo il Basic, crebbi con le altre macchine Sinclair, fino al definitivo ‘QL’ con cui controllai la spazializzazione del suono utilizzato in VOX-1. Successivamente imparai il linguaggio C. Non ho mai preso parte a un corso o imparato formalmente a programmare, ma ho avuto la fortuna di apprendere da alcuni maghi come Martin Atkins, che ha progettato il sistema CDP, e Miller Puckette all’IRCAM, dal quale ho raccolto alcuni consigli utili … tuttavia quando si tratta di programmare mi considero solo un abile dilettante!

.

USO: Potresti spiegare la tua preferenza per la trasformazione del suono in modalità offline, anziché in realtime?

Trevor Wishart: Offline e realtime sono differenti sia da una prospettiva di programmazione, che musicale. Con il lavoro in modalità offline, puoi prenderti tutto il tempo per produrre un buon risultato, riflettere e decidere sul da farsi, eseguire un processo una seconda volta, e sulla base di questo eseguirne un terzo e così via. Quando le macchine e i programmatori si evolveranno sarà possibile aggirare la maggior parte di questi problemi. Ma la principale differenza è estetica. Se stai processando un evento live, devi accettare ciò che entra nel microfono o in qualsiasi altro dispositivo di ingresso. Per quanto sia precisa la partitura, i suoni saranno sempre diversi in ogni performance. Perciò il processo che si usa deve essere in grado di lavorare con svariati potenziali input. Il problema principale con la musica dal vivo, è che devi essere il tipo di persona che ama andare a concerti, e molte persone non lo sono. Da un lato, questo può essere cambiato attraverso l’istruzione, ma, più significativamente, rendendo il mondo dei concerti aperto a differenti gruppi di persone, ad esempio organizzando eventi in luoghi insoliti.

Lavorando offline, è possibile manipolare le caratteristiche uniche di un particolare suono che non può essere riprodotto a piacimento in una performance. Perdipiù, l’assenza degli artisti, interpreti o esecutori sul palco potrebbe sembrare una debolezza, ma ha i suoi lati positivi: paragonate per esempio teatro e cinema. Nel puro evento elettroacustico si può creare un mondo “dei sogni” che può essere realistico, astratto, surreale o tutte queste cose in momenti diversi – un teatro dove le orecchie ci possono trasportare lontano da qui, in un luogo immaginario, evocato dal suono, al di là delle convenzioni sociali della sala da concerto. La musica elettroacustica non è diversa dal cinema nella sua ripetibilità, ad eccezione del fatto che la diffusione del suono, nelle mani di persone qualificate, possono rendere ogni spettacolo unico nel suo genere, dall’interazione con il pubblico alla gestione dello spazio acustico.

 .

USO: Qual’è il tuo approccio al multicanale e alle tecniche di spazializzazione? 

Trevor Wishart: Negli anni ’70 ho lavorato su supporti analogici a 4 piste. Ma poi quella tecnologia è morta. Da allora utilizzo cautamente qualsiasi procedura di spazializzazione diversa da quella stereofonica, non voglio che il mio lavoro dipenda da una tecnologia che potrebbe non durare. Sono interessato sia all’ascoltatore medio, che non segue concerti, che all’istituto speciale con strutture complesse di spazializzazione. La maggior parte delle persone ascolta la musica con le cuffie o con impianti domestici. La musica deve vivere anche in questi contesti. Con la diffusione, tuttavia, posso espandere il lavoro stereo, utilizzando il processo di diffusione per rafforzare ed espandere i gesti all’interno della musica. Il mio attuale pezzo sarà probabilmente a 8 tracce, in parte per ragioni estetiche, – si basa sul discorso umano riconoscibile, e vorrei che questo circondasse il pubblico – e in parte perché, 8 tracce sono probabilmente “a prova di futuro”, essendo essenzialmente 4 volte stereo! Sono eccitato dai sistemi di spazializzazione in fase di sviluppo in questo momento, ma vorrei vedere anche lo sviluppo di altoparlanti di alta qualità a buon mercato, per rendere queste tecnologie accessibili a compositori come me, che lavorano a casa, in luoghi più piccoli e abituali.

USO: Come dovrebbe essere eseguita la tua musica (da te o da qualsiasi altro artista del suono) in un contesto dal vivo?

Trevor Wishart: I puri lavori elettroacustici (stereofonici) dovrebbero essere proiettati in molte coppie di diffusori stereo. Solitamente fornisco una partitura con indicazioni di base per la diffusione negli altoparlanti.

.

USO: Che cosa pensi in merito all’approccio strutturale nella composizione? Pensi che possa essere utile la composizione assistita dal computer, al fine di accelerare il lavoro del compositore?

Trevor Wishart: Assolutamente essenziale, non c’è musica senza struttura. Ma la composizione assistita è adatta per la musica commerciale e il cinema, dove non si vuole deviare da percorsi conosciuti. Artisticamente, voglio sentire come un’altra persona plasma materiali sonori per trasmettere un’esperienza musicale. Non sono interessato a conoscere l’output di un algoritmo, anche se, ovviamente, gli algoritmi possono essere utilizzati in piccola scala per aiutare a dar forma a particolari eventi.

USO: La carriera accademica ha contribuito a espandere la tua conoscenza sul modo di comporre?

Trevor Wishart: Sì, perché studiando Musica in uno più conservativi dipartimenti musicali del Regno Unito, sono stato messo in contatto con la musica dal Medioevo fino ai primi del 1900. Questo mi ha insegnato molto circa i diversi approcci con cui i compositori hanno organizzato i loro materiali in centinaia di anni.

USO: Nella tua musica ci sono tecniche  o riferimenti ispirativi a compositori del passato?

Trevor Wishart: Non credo. O meglio, dovrei dire non ancora.

.

USO: Quali sono i tuoi progetti per il prossimo futuro?

Trevor Wishart: Il mio attuale progetto, una residenza di 3 anni, comporta la registrazione delle voci di persone in tutta la comunità nel nord-est d’Inghilterra mentre parlano naturalmente. Ho registrato in scuole, centri per anziani, pub e case. Voglio raccogliere una gamma diversificata di voci – sesso ed età diverse, da 4 a 93 anni. La mia intenzione è di fare un pezzo elettroacustico di circa un’ora, in 4 ‘atti’, sull’unicità di ciascun oratore e sulle caratteristiche comuni della voce che tutti noi condividiamo. Il pezzo deve essere comprensibile alla comunità locale, in particolare a quelle persone di cui ho registrato la voce (di cui molto pochi hanno interesse per la musica sperimentale!), ma anche ad un pubblico internazionale, senza la presunzione che gli ascoltatori stessi capiscano l’inglese.


www.trevorwishart.co.uk

www.giga-hertz.de

www.dur.ac.uk/music

www.composersdesktop.com