Numer 28 / 2016

Od translacji do hiperciała

Tomasz Biernacki

Przekształcenia czynnika performatywnego w nowej muzyce – typologia przypadków

 

Na przestrzeni minionych 60 lat w obrębie estetyki muzycznej dokonały się przeobrażenia na nieznaną przedtem skalę. Skłaniają one do postawienia na nowo pytania o relację między tożsamością dzieła a jego wymiarem performatywnym; relację, która uwzględniałaby powstałe w owym czasie – a nieprzystające do starych modeli teoretycznych – zjawiska jak happening, forma otwarta czy digitalizacja świata dźwiękowego. Zjawiska te ostatecznie przyczyniły się do wyczerpania się starego, heglowskiego porządku rzeczy. W tym systemie dzieło muzyczne ujawniało swoją „prawdę” czy „istotę” w poprawnej interpretacji, a rolą wykonawcy było pośredniczenie w owym przekazie: intelektualnie („odpowiednie” odczytanie intencji kompozytora, zawartej w tekście muzycznym) i technicznie (adekwatne przełożenie tego odczytania na szereg działań mechanicznych, czyli właściwa koordynacja mięśni i sprawność palców). Dopóki muzyka pozostawała w kręgu tych filozoficznych ograniczeń (kompozytor jako jedyny podmiot twórczy w wielopoziomowej grze performatywnej ze słuchaczem), a kreacja tekstu muzycznego była ściśle skonwencjonalizowana i ujęta w ramy aktualnego paradygmatu estetycznego, dopóty relacje kompozytor-wykonawca i wykonawca-słuchacz wydawały się dość stabilne, a tożsamość dzieła muzycznego – jasno zdefiniowana. Kolejne zmiany we współczesnej estetyce muzycznej, determinowane zarówno rozwojem technicznym (udoskonalenie sposobów nagrywania dźwięku, umożliwiające w końcu pracę z nim samym, nie zaś z jego symbolicznym odwzorowaniem na papierze), jak i zwrotem anty-romantycznym (już przecież u Erika Satie dostrzegamy niechęć do traktowania muzyki jako namaszczonego wyjątkowością dzieła sztuki, domagającego się równie natchnionego odczytania), doprowadziły jednak do reinterpretacji roli wykonawcy muzycznego w procesie fizycznego, a także konceptualnego „stawania się” sztuki dźwiękowej.

Strategie kompozytorskie, zakładające dotąd tylko samą „grę ze słuchaczem”, uzupełnione zostały celowo o element „gry z wykonawcą”, bądź samym pierwiastkiem performatywnym jako takim. Zależnie od roli tego pierwiastka, jak i przyjętego przez kompozytora (mniej lub bardziej otwartego) konceptu tożsamości utworu (powiemy o tym poniżej), a także sposobu realizacji w nagraniu, wytworzyło się całe spektrum potencjalnych i faktycznych relacji, które daleko wykraczają poza granice pojęcia „interpretacji”, szczególnie tej znanej z modelu heglowskiego.

 

Idea muzyki bezpośredniej

Pierwszym wyzwaniem rzuconym owemu modelowi było pojawienie się muzyki konkretnej. Abstrahując od instrumentów mechanicznych, znanych już w baroku, a będących właściwie wyrafinowanymi zabawkami, muzyka konkretna stworzyła historyczny precedens, kiedy to zapis muzyczny nie wymaga zapośredniczenia w tekście w postaci znaku na papierze. W przypadku muzyki konkretnej jest to zapis na taśmie magnetycznej, przy czym ostateczna forma utworu kształtuje się podczas montażu w studio – przy pracy z samym brzmieniem. Tak skomponowany utwór nie podlega już potem żadnym interpretacjom: każde odtworzenie Symphonie pour un homme seul Pierre’a Schaeffera będzie identyczne w swych proporcjach czasowych oraz w stosunku natężenia poszczególnych elementów jego substancji dźwiękowej. Oczywiście jest to przypadek skrajny – później muzyka elektroniczna odbiła się niejako od tego anty-performatywnego progu, odnajdując drogę poprzez live electronics do większej otwartości i wieloznaczności efektów końcowych. Tu jednak mamy do czynienia ze swoistym punktem zero, dlatego musimy o nim wspomnieć.

Nieco podobne w tym wymiarze są też etiudy fortepianowe Conlona Nancarrowa, które – mimo iż wykoncypowane w swych rytmicznych proporcjach na papierze – z racji swojej wyjątkowych komplikacji metrorytmicznych zostały wytłoczone przez kompozytora na specjalnych wałkach odtwarzanych następnie przez mechaniczny instrument – pianolę. Niezwykły przykład realizacji „muzyki niemożliwej” przez samego kompozytora, łączący abstrakcyjną (nieograniczoną do ludzkich możliwości) tożsamość utworu z absolutną, autorską realizacją[1]. Muzyka „niemożliwa” (z racji swych antypianistycznych komplikacji) staje się w owych mechanicznych odtworzeniach pianoli czymś bezpośrednim, przechodzącym od kompozytora wprost do słuchacza.

 

Instrumenty Giacinta Scelsiego

 

Odwrotnie rzecz widział Giacinto Scelsi, stojący estetycznie na przeciwnym biegunie performatywnego modelu. U niego bezpośredniość muzyki wiązała się nie z aktem wykonawczym, lecz sięgała już samego procesu twórczego. U Scielsciego komponowanie, odbywające się według złożonego planu, przebiegało w dużej mierze w czasie realnym, podczas żywej pracy z brzmieniem i formą. Dysponując (poza fortepianem) dwoma elektronicznymi instrumentami klawiszowymi (clavioline, znane na włoskim rynku pod nazwą handlową Ondiola; wyposażone są w 18 klawiszy rejestrowych, umożliwiają płynne przechodzenie między dźwiękami, oraz osiąganie różnych stopni vibrata, barwy i artykulacji), Scelsi organizował na poły improwizowane sesje dźwiękowe, których celem było okiełznanie dźwięku w jego naturze, wybrzmieniu, vibracie, mikrotonowych odchyleniach i powodowanych przez nie dudnieniach. Wszystkie te naturalne zjawiska akustyczne wykorzystywane jako środki ekspresji mogłyby się nie sprawdzić, gdyby zanotować je tylko na papierze, a z pewnością zagubiłyby swój wyjątkowy brzmieniowy charakter. Jak ukazał projekt Uli Fusseneggera i Klangforum Wien z 2014 roku, Scelsi szkicował swoje utwory w całości tak jak każdy kompozytor w jego epoce. Gdy jednak przychodziło do zapisu, postępował zgoła odmiennie: zamiast notować każdy głos graficznie – nagrywał go na taśmę. Odtwarzając następnie nagranie, realizował kolejną linię instrumentalną i powtarzał cały proces tak długo, aż partytura osiągnęła w kolejnych nawarstwieniach swoją pełną brzmieniową realizację.

 

Wykonanie jako translacja muzyczna

Z racji quasi-improwizacyjnego sposobu, w jakim swój ostateczny kształt dźwiękowy osiągały utwory Scelsiego oraz jego zwyczaju pozostawiania ich w nagraniach (późniejsza transkrypcja była tu rzeczą wtórną), dzieła te są wciąż spisywane z taśm, co upodabnia pracę ich „opisywaczy” do pracy tłumacza poezji, konfrontującego się z wieloma ograniczeniami (np. frazeologicznymi) i problematyką nieprzekładalności metafor. Musi on zatem podjąć szereg arbitralnych decyzji, co czyni z niego współtwórcę dzieła poetyckiego w nowym języku. Nadawanie struktury rytmicznej, metrycznej i agogicznej rozległym, linearnym płaszczyznom dźwiękowym muzyki Scelsiego, umykającej intuicyjnemu wyczuciu owych elementów, jest właśnie taką pracą. Jednym z „tłumaczy” stał się (w ramach wspomnianego projektu Giacinto Scelsiego REVISITED) austriacki kompozytor Georg Friedrich Haas, który w utworze Introduktion und Transsonation podjął się przeniesienia na żywe wykonanie za pomocą współczesnych, bardziej zaawansowanych notacyjnie i technicznie środków, jednej z takich scelsiańskich taśm[2].

W pierwszym segmencie tego utworu mamy do czynienia z transkrypcją rytmiczną w określonym metrum (tutaj główną rolę interpretacyjną przejmuje Haas). W drugim zaś (po uprzednim celowym zdesynchronizowaniu muzyków) następuje „odczytywanie” zapisu bezpośrednio z taśmy, której odsłuch – każdy swojej tylko partii – odbierany jest dyskretnie za pomocą niewielkiej słuchawki. Ten rodzaj odbioru materiału wykonawczego wprowadza rzecz jasna do relacji kompozytor-instrumentalista zupełnie nową jakość: instrumentalista nie tyle „interpretuje”, co podąża za transmitowanym brzmieniem; musi opanować bardziej sztukę mimetyczną niż hermeneutyczną, związaną z pośrednictwem tekstu. Wspomniany na początku model wyjściowy „muzyki bezpośredniej” podnoszony jest tu niejako do potęgi drugiej przez kombinowanie go z modelem performatywnym, tworząc sytuację nową i wieloznaczną.

 

 

Rozważając problematykę translacji muzycznej trzeba wspomnieć w tym miejscu o przypadku muzyki graficznej, zrodzonej na fali powojennego modernizmu. Kompozytorzy od Earle’a Browna (odrzucającego w swoim słynnym December 1952 czy 4 Systems na fortepian jakiekolwiek nawiązania do notacji klasycznej) po Sylvano Bussotiego (który w swoisty, plastyczny sposób flirtował z nią) wymogli na wykonawcach znacznie większe zaangażowanie w dzieło interpretacji. Wykonawcy mieli nie ograniczać go do samego spełnienia jednoznacznie ujętych poleceń, lecz raczej poszerzyć o uprzednią pracę badawczo-hermeneutyczną związaną z osobnym, indywidualnym odczytaniem wieloznacznego tekstu. Tutaj rzecz jasna mamy do czynienia z całkowitą „pośredniością”, zresztą w duchu święcącej swe triumfy w tym okresie filozofii strukturalistycznej, w której podstawowym zagadnieniem jest właśnie problem odczytania tekstu i znacznie bardziej aktywnej roli czytelnika/odbiorcy w performatywnym łańcuchu. Analogicznie więc rolę aktywną przejawia wykonawca i od niego oczekuje się nadania dziełu jednej z możliwych tożsamości dźwiękowej, w ramach szeroko zakreślonej przez podmiot twórczy przestrzeni. Skrajnym przypadkiem powyższej strategii jest Treatise Corneliusa Cardew gdzie wykonawcza praca translatorska wykonawców jest absolutna, bo pozbawiona ograniczających ją reguł (!). Każde pojedyncze wykonanie z definicji nie może oddać tożsamości tego absolutnie zmiennego utworu, który w swym zamyśle wymyka się ujednoznacznieniu, stanowiąc niewyczerpane źródło kolejnych interpretacji. Rozrzedzenie tożsamości staje się całkowite, muzyka niemożliwa do przekazania przez faktyczną mediację z tekstem (brak instrukcji, jak go czytać, odrzucając przy tym zbyt dużą oczywistość czytania „intuicyjnego”[3]), a praca wykonawcy wkracza tu w domenę w zasadzie kompozytorską.

 

Wykonanie jako mediacja z tekstem

Zapis muzyczny rozchodzący się z późniejszym faktycznym sposobem realizacji zmienia też rolę samego instrumentalisty, zmuszając go do mediowania pomiędzy tekstem a ciałem, do szukania osobnych, nieodkrytych jeszcze powiązań między nimi. Podejmuje się tego choćby znakomita fińska wiolonczelistka Frances-Marie Uitti, która za pomocą dwóch smyczków, umieszczonych nad i pod strunami, z powodzeniem potrafi wykonać niewykonalne pasaże we współczesnych utworach (jak u Xenakisa w wiolonczelowym Nomos Alpha z jego passusem równoczesnego przenikania się przeciwstawnych, rozmijających linii melodycznych). Podobnie Irvin Arditti pracujący z Cagem nad jego skrzypcowymi Freeman Etudes (najeżonymi nagłymi zmianami artykulacji i rejestrów) czy pianistka Grete Sultan w Etudes Australes (gdzie materiał skomponowany jest niezależnie dla obu rąk, z której każda ma do dyspozycji ambitus całej klawiatury!) musieli dokonać ogromnej pracy przekładu tekstu muzycznego na język fizycznego gestu, by nie stracić wiele z jego istoty i zachować tak dużo w ukształtowaniu jego struktury, jak tylko się da.

 

Steven Schick i jego instrumentarium

 

Wybitny amerykański perkusista Steven Schick podkreśla, że głównym problemem w wykonawstwie skomplikowanej w zapisie muzyki jest próba znalezienia odpowiedniego sposobu nauki, czyli „otwarcia” dzieła na cielesność[4]. Schick wspomina, że podczas uczenia się utworu Bone Alphabet Briana Ferneyhough pierwszy tydzień spędził na „próbie zrozumienia obliczenia, zapamiętania struktury polirytmicznej pierwszych trzech szesnastek”[5] utworu. Całkowity czas ćwiczeń nad utworem zamknął się w sześciu miesięcach (tysiącu godzin prób). Jest to rzecz nieunikniona, bo – jak wskazuje Schick – najistotniejsze w wykonawstwie tej muzyki jest początkowe pełne uświadomienie sobie jej konceptualnego potencjału, a następnie próbowanie na różne sposoby przeniesienia go na rzeczywistość fizyczną, którą to fazę nauki nazywa „soft phase”. Polega ona na wypróbowaniu wielu rozmaitych możliwości fizycznego zaistnienia jakiegoś małego fragmentu muzyki i wyborze – w końcowej fazie podejmowania ostatecznych decyzji – tylko jednej z nich. Istotą każdego kolejnego wykonania jest jednak odwoływanie się do owej fazy konceptualnej, w której tkwi niewyczerpany potencjał. Należy „unikać chęci bycia doskonałym” – twierdzi Schick. Gdy przygotowane wykonanie uznaje się za idealne, zmniejsza się chęć jego zmieniania. Niezbędne jest więc najpierw utwierdzenie ciała w nowych gestach, przyswojenie przezeń specyficznej, choreograficznej rytmiki tylko po to, by zyskać następnie pewną plastyczność ruchu. Ciało, wchodząc w rytm gestów, zacznie z nimi grać, bawić się nimi, szukać nowych akcentów i dróg. Stąd też, trzeba tu podkreślić, współczesna praktyka pojedynczych prawykonań (wymuszona poniekąd rytmem kolejnych festiwali, systemem zamówień i grantów, w którym niestety zamyka się duża część muzyki współczesnej) jest skazana na porażkę. Żadna kompozycja nie ukaże swojej „konceptualnej” strony i nigdy nie obejmiemy wyobraźnią (jako słuchacze i wykonawcy) jej prawdziwego potencjału, słuchając zaledwie pojedynczego wykonania, do tego jeszcze pierwszego, a jakby tego było mało – przygotowanego z myślą o natychmiastowym porzuceniu po koncercie. Muzyka zawsze musi znaleźć swoją drogę, dojrzewając stopniowo w fizyczności wykonania. Pierwsze wykonanie jest zawsze tylko pierwszą próbą. Ciało musi przyswoić sobie pożądany ruch, a pogłębianie wglądu krytycznego na przestrzeni wielu miesięcy czy lat powoduje, że utwór w swym performatywnym wymiarze rozwija się, znajdując stopniowo swoje optymalne rozwiązania. Często więc praktykowane w polskich realiach przygotowywanie pojedynczego (pra)wykonania na dwa tygodnie przed koncertem skazuje takie przedsięwzięcie na niechybną porażkę. Mediacja tekstu z ciałem, a także z intelektualnym aparatem krytycznym, to powolny proces, który zawsze wymaga dużo czasu.

Podobne wyzwania stoją przed wykonawcami muzyki Iannisa Xenakisa, dla którego utwór muzyczny stanowił emanację nadrzędnego porządku „pozaczasowego”, gdzie reguły ustalane są wcześniej za pomocą specjalnie w tym celu skonstruowanego programu komputerowego. Tu kwestia wykonalności jest także sprawą podlegającą negocjacji i mediacji z fizycznością. W swym perkusyjnym utworze Psappha Xenakis żąda choćby całej serii potrójnych uderzeń w ramach impulsów mierzących 0,2 sekundy każdy, co nie jest wykonalne inaczej niż w symulacji cyfrowej (o czym później). Ponadto, podobnie jak w Bone Alphabet, to do wykonawcy należy dobór instrumentarium, a tym samym ostateczny kształt brzmieniowy – co czyni perkusistę współodpowiedzialnym za akustyczny obraz zapisanego abstrakcyjnie utworu.

Muzykę na instrumenty klawiszowe Xenakisa także cechuje obecność specyficznych, skomplikowanych zjawisk fakturalnych – arborescencji. Kompozytor notuje je nieraz na kilku niezależnych rytmicznie pięcioliniach: w klawesynowym Khoaï jest ich sześć, a w koncercie fortepianowym Synaphai nawet dziesięć (oddzielny rytm dla każdego palca!), czasem wyposażając je dodatkowo w horyzontalne linie imitujące płynne, czyli między-chromatyczne glissando. Fakt, że Xenakis wykorzystywał raz użyte arborescencje (linearne, rozrastające się na boki niczym gałęzie wzory przebiegu melodycznego, służące za podstawę do opracowania instrumentalnego) ponownie (po przeniesieniu ich w inny rejestr czy przez obrót), świadczy o tym, że wyobraźnia dźwiękowa twórcy nie ograniczała się w ogóle fizycznymi możliwościami i żądała od instrumentalisty takiego opracowania, w którym całość możliwa byłaby w ogóle do zagrania[6]. Pianiści zmuszeni są dokonać wyboru materiału i koniecznych w nim uproszczeń, tworząc niejako wyciąg fortepianowy z partii fortepianu, lecz jest to konieczny warunek, by dzieło w ogóle zaistniało brzmieniowo w żywym wykonaniu.

Dziś dysponujemy jednak środkami technicznymi, które pozwalają usłyszeć utwór także w jego idealnej postaci – np. poprzez zarejestrowanie partii instrumentalnej w kilku sesjach, ścieżka po ścieżce. Również wydana w 2008 roku płyta z nagraniami muzyki fortepianowej i klawesynowej Xenakisa, zrealizowanej na instrumencie MIDI sterowanym przez specjalnie napisany w tym celu program komputerowy (autorstwa Daniela Grossmanna, któremu należy chyba przypisać rolę wykonawcy), jest przekonującym dowodem na rozszerzanie się definicji procesu performatywnego w nowej muzyce[7]. Wykonawcą nie musi być już wyłącznie instrumentalista czy wokalista, ale także osoba odpowiedzialna za reżyserię dźwięku, montaż nagrania czy programista tworzący odpowiedni software.

Tego rodzaju działania będące swoistymi protezami, dzięki którym przekroczyć można fizyczne ograniczenia wykonawcy, upowszechniają się w dzisiejszych czasach już nie tylko w praktyce studyjnej, lecz także poprzez ich zaimplementowanie do żywego wykonania estradowego. Wkroczyliśmy w epokę cyfrową.

 

 

Nicholas Hodges gra Koncert fortepianowy Simona Steena-Andersena

 

Wykonanie fizyczne i proteza cyfrowa

Korzenie tego, co nazywamy myśleniem o dźwięku w kategoriach cyfrowych, spotykamy jeszcze w muzyce technicznie rzec biorąc analogowej. Pierwsze niecyfrowe jeszcze samplery pojawiły się już w latach 60., a jednym z pierwszych, przełomowych i wizjonerskich nagrań, w którym wyraźnie zarysowuje się „myślenie cyfrowe” o dźwięku, był album Milesa Davisa Bitches Brew z 1969 roku. Jego brzmienie nie jest prostym zapisem sesji nagraniowej, czym łamie pewną powszechnie przyjętą regułę, lecz poddane zostało czasochłonnej postprodukcji, w ramach której dodano (analogowo jeszcze) szereg efektów dziś należących do cyfrowej klasyki, takich jak: pogłosy, delaye, sample, rozległe cięcia i ponowny montaż, wydłużanie i skracanie ścieżek oraz zapętlenia. Po Davisie tego rodzaju działania stały się normą w latach 70. w albumach rockowych, a w jeszcze większym stopniu popowych, i pozostają nią po dziś dzień.

U podstaw rewolucji cyfrowej stało rozróżnienie na dwa porządki, kierujące się odmienną logiką estetyczną i charakterem brzmienia: fizycznego wykonania i tego, co nazywamy nagraniem muzycznym. Trzeba bowiem sobie uświadomić, jak duża zmiana mentalna za tym stała. Nagranie mające spełniać dotąd rolę jedynie obiektywnego „przekazu”, rejestracji żywego wykonania, samo staje się w tym momencie „dziełem”, wprowadzając do łańcucha performatywnego (kompozytor-wykonawca-słuchacz) kolejne ogniwo – technologię. Podstawową cechą cyfrowej rewolucji nie jest jednak stworzenie jakichś nowych technik lecz raczej ich demokratyczne upowszechnienie. Zasób środków technicznych profesjonalnego studia nagraniowego z lat 70. leży dziś w możliwościach przeciętnego laptopa, stąd też łatwiej ich użyć w interakcji z żywym wykonawcą, niż to było możliwe kiedykolwiek wcześniej.

Przełom technologiczny konfrontuje problematykę wykonawczą z zupełnie nowymi wyzwaniami. Pozwala bowiem ingerować w tożsamość utworu znacznie głębiej niż kiedykolwiek można było to zrobić fizycznymi środkami wykonawczymi. Gdy pierwszy z wielkich „cyfrowych” wykonawców, Glenn Gould, dokonywał swych komercyjnych nagrań, nie przedstawiał tam „prawdy akustycznej” o utworze (co stanowiło dogmat poprzedniej epoki), lecz raczej „prawdę fenomenologiczną”, próbując wykreować w ten sposób idealną (według jego wizji) tożsamość dźwiękową utworu. W tym celu dokonywał dziesiątek nagrań rejestrowanych równocześnie na kilkunastu mikrofonach i dopiero potem w żmudnym procesie postprodukcji następował swoisty remiks dostępnych i satysfakcjonujących go ujęć, pozwalając słuchaczowi to zbliżać, to oddalać się wirtualnie od instrumentu (skrajne rozmieszczenia mikrofonów to: tuż nad strunami oraz na końcu sali filharmonicznej).

W podobnym kierunku zmierza też np. wydany w 2009 roku album Le Sacre du Printemps – Stefan Goldmann Edit, na który składa się ponad tuzin różnych nagrań, dokonanych w różnych czasach, salach, technice oraz przez różne orkiestry i dyrygentów. Wyselekcjonowany z nich materiał prawie 150 fragmentów został tu zremiksowany w jedno, „idealne” dla producenta i całkiem spójne brzmienie.

Z takich właśnie doświadczeń zaczynają twórczo korzystać młodzi kompozytorzy generacji cyfrowej. Istotą ich działań staje się rozmycie granic pomiędzy realnościami: fizyczną i wirtualną, tak jak rozmywa ją każde współcześnie wyprodukowane nagranie (włączając te opatrzone etykietką „live”, które także są ostatecznie kreacją reżysera dźwięku). Muzyka po rewolucji cyfrowej nie chce utrzymywać fikcji „obiektywizmu” sali koncertowej i dotychczasowych stosunków między wykonawcą i słuchaczem. W świecie, w którym wszystko, co słyszymy z radia, telewizji, Internetu czy odtwarzacza CD, jest kreacją cyfrową, sytuacja koncertowa zaczyna przypominać oderwane od rzeczywistości muzeum, gdzie wszystko dalej ma być po staremu, bez względu na przemianę naszych przyzwyczajeń i realnych doświadczeń dźwiękowych.

Jeden z najnowszych utworów Simona Steena-Andersena – Koncert fortepianowy z 2014 roku – może stanowić dobry przykład rozszerzenia fizycznej rzeczywistości o czynnik wirtualno-wizualny. Materiałem kompozytorskim Koncertu są nagrania odgłosów spadania i roztrzaskiwania się o betonową podłogę fortepianu, zarejestrowane przez kompozytora. Na dużym ekranie z boku obserwujemy ten proces w formie obrazu – zwalnianego, cofanego, zastygającego w rozmaitych stanach przejściowych i fazach destrukcji. Orkiestra jest tu ściśle skoordynowana z warstwą wizualną, także pianista – w tej roli Nicolas Hodges – ma swojego awatara, grającego na zniszczonym już instrumencie naprzeciwko jego samego (co wyświetlone jest na mniejszym, skrojonym do wymiarów fortepianu, ekranie). Solista, kontrolując swego awatara za pomocą klawiatury MIDI, wchodzi z nim w swoisty dialog. Tworzą się starannie zaplanowane „choreograficznie” duety, prześmiewcze rywalizacje. Widzimy i tańczący, podskakujący fortepian, i zastygającego w stop-klatce pianistę, a wszystko to w ramach próby znalezienia odpowiedniego widzialnego gestu dla muzyki, w ramach ukazania fizycznej genezy kompozytorskich przekształceń brzmieniowych. Dzięki wyposażeniu dźwięku w jego wirtualno-wizualny wymiar dokonuje się pewnego rodzaju rozszerzenie rzeczywistości wraz z osadzonym w niej wymiarem idiomatyki instrumentalnej.

 

Nadar Ensemble gra Generation Kill Stefana Prinsa, fot. Rebecca Diependaele

 

Podobnego rodzaju wykraczanie w wirtualność jest też pożywką twórczości Stefana Prinsa. Chętnie sięga on po technikę wideo (nakładając na siebie rozchodzące się obrazy jednego i tego samego wykonawcy, jak w Generation Kill), ale i świetnie radzi sobie bez niej, gdy stara się czysto muzycznymi środkami upodobnić instrumentalne brzmienia do szumu czy sampla, a ten bierze ze znalezionych nagrań muzyki komercyjnej (oczywiście będącej wynikiem wspomnianych wyżej zaawansowanych technik post-produkcyjnych, jak w przypadku nagrań Michaela Jacksona we Fremdkörper #3). Prins dostrzega także potencjał twórczy w idei „protezy cyfrowej”, w jaką wyposażony może zostać współczesny instrumentalista (cykl utworów Prinsa Flesh+Prosthesis poświęcony problemowi wykonawczego „hiperciała”). Wykonawca taki, poprzez możliwość sterowania programem dźwiękowym uruchomionym na podłączonym do instrumentu laptopie za pomocą np. systemu pedałowego, może kształtować na żywo nagrany przed chwilą dźwięk, odwracać go w czasie, filtrować, „zamrażać”, powodując, że nie wybrzmiewa w sposób naturalny itp. Lista potencjalnych technik i efektów jest otwarta i to na tym polu rozgrywa się dziś większość muzycznych innowacji.

Michael Beil, niemiecki twórca działający w obrębie estetyki cyfrowej, na potrzeby wykonań wielu ze swych kompozycji dokonuje uprzedniego nagrania instrumentalisty i w ten sposób zwielokrotnia niejako jego obecność na scenie, ustawiając go ze sobą w rozmaitych relacjach – symetrii (Mach Sieben dla pianistki), rozszczepień (along na gitarę elektryczną), wielopoziomowego współgrania w różnych czasach (Doppel na dwa fortepiany). Wszędzie tam wykonawcom towarzyszą ich awatary, stawiając słuchaczowi nieustanne pytanie o fizyczne pochodzenie dźwięku, który właśnie słyszy.

 

 

Technika cyfrowa umożliwia także wniknięcie w niuanse brzmieniowe instrumentu, wyłuskanie z niego określonych marginalnych cech i budowanie z nich nowego świata materiałowego dla kompozycji. W tej sytuacji – przy zastosowaniu ogromnej amplifikacji – powiększeniu ulegają też wszystkie współrzędne ruchu fizycznego wykonawcy, którego zachowanie można porównać tylko do poruszania się w środowisku o mniejszej grawitacji, gdzie np. siłę ciężkości ręki i towarzyszącego temu napięcia mięśni trzeba dopasować na nowo do zmienionych warunków akustycznych. Dobrym przykładem są utwory Marka Andre czy kompozycje na skrzypce i elektronikę z repertuaru norweskiej skrzypaczki Karin Hellqvist.

 

Performans słuchania

Na koniec trzeba jeszcze wspomnieć o skrajnym modelu relacji, kiedy wykonanie ani nie jest tożsame z dziełem, ani nie jest intencjonalne, bo całkowicie wyklucza udział wykonawcy. Właśnie w tym ekstremum możemy ulokować wiele z działań artystycznych choćby Petera Ablingera, takich jak jego projekt Weiss/Weisslich 29b: Stuhl (Stühle), polegający na umieszczeniu w przestrzeni publicznej krzeseł, spełniających rolę „pustej ramy” w sztukach wizualnych – a więc prostym gestem nadających codzienności charakteru artystycznego. Tu nic nie odbywa się według jakiegokolwiek czasowo rozrysowanego planu, brak także wykonawców. Przewidziani są tylko słuchacze, których twórca zaprasza do rozgoszczenia się na ustawionych w zaskakujących, nietypowych miejscach fotelach, kreując w ten sposób sytuację quasi-koncertową. Podobnie inny projekt: Arboretum (oraz pokrewny mu Baumrauschen), którego istotą jest eksploracja szumu drzew, lub Weiss/Weisslich 31: Membrane, Regen, gdzie przewidzianą muzykę tworzy deszcz uderzający o parasol, ewentualnie membranę specjalnie zaprojektowanych altan, lub też mały zestaw perkusyjny.

Podobną otwartością charakteryzują się także instalacje przestrzenne, rzeźby dźwiękowe („sound sculptures”) i performanse z pogranicza sztuk, w których silny jest pierwiastek nieintencjonalności wykonawczej – np. u Georga Nussbaumera w jego Verdichtungsflügel pomyślanej na porzucony w parku fortepian, do którego zamiast nóg przytwierdzone są zasilane motorem sprężyny, a na struny rozrzucono kamienie. Koncept zakłada pełną mechaniczną obiektywność wykreowanej przestrzeni dźwiękowej, której kompozytor jest siłą sprawczą, pozwalającą jej jedynie zaistnieć. W tej sytuacji podmiotem wykonawczym przestaje być nieistniejący tu przecież odtwórca, lecz sam słuchacz, swoją obecnością stwarzający swoisty performans słuchania. Docieramy tym samym do ostatniego ogniwa wspominanego na wstępie łańcucha kompozytor-wykonawca-odbiorca, przenosząc cały ciężar performatywnego zaistnienia muzyki na tego ostatniego.

 

Verdichtungsflügel Georga Nussbaumera

 

Jak widzimy, postępująca reinterpretacja roli wykonawcy w poszczególnych estetykach kompozytorskich spowodowała rozwarstwienie problemu „tożsamości dzieła”: po pierwsze doprowadziła do wyemancypowania się pierwiastka performatywnego w procesie kreacji (mam tu na myśli współtwórczą rolę wykonawcy i skalę jego ingerencji w dzieło – na wszystkich etapach jego powstawania), a po drugie przyczyniła się do głębokich przemian w zakresie samego problemu tożsamości utworu muzycznego – od podania go całkowicie w wątpliwość, jak w niektórych skrajnych przypadkach muzyki graficznej, aż po absolutyzację w muzyce konkretnej. Tożsamość dzieła może rozszczepiać się na różnych poziomach poprzez z jednej strony zastosowanie formy otwartej czy logiki aleatorycznej, z drugiej poprzez nadmiar ograniczających informacji, traktowanych jako swoisty labirynt, z którego każdy wykonawca musi znaleźć własną drogę wyjścia. Poza przemianami w obrębie definicji ontologicznej samego dzieła napotykamy też działania zmierzające ku redefiniowaniu pojęcia wykonawcy. Czy dziś wykonawcą nie jest również producent tworzący nagranie z istniejących, znalezionych nagrań? A programista realizujący abstrakcyjną partyturę Xenakisa na wirtualnym instrumencie cyfrowym? Podobnie fizyczne możliwości i ograniczenia muzyków coraz częściej przekraczane są za pomocą środków technologicznych, gdzie zamazuje się granica pomiędzy tym, co możliwe, a tym, co „niewykonalne”, tak jak w otaczającym nas świecie zamazuje się granica między fizycznym a wirtualnym.

W efekcie każda współczesna kompozycja odnajduje się w swoich aspektach wykonawczych na złożonej mapie współrzędnych, gdzie powyższe czynniki przejawiają się w różnej skali intensywności. Mamy utwory niedookreślone z aktywnym udziałem twórczym wykonawców oraz dzieła bez wykonawców w ogóle; utwory sprecyzowane notacyjnie do najmniejszych niuansów i te zapisane równie ściśle, lecz w formie nagrania, bądź komputerowej/mechanicznej symulacji. W końcu także obecność wykonawcy i rodzaj tej obecności staje się czynnikiem otwartym: wykonawca istniejący tylko w przetworzonym, zmontowanym nagraniu, wykonawca wirtualnie rozszerzony, wykonawca istniejący obok realnego w swoim awatarze, wykonawca jako spontaniczny współtwórca np. jako konceptualne medium w muzyce intuitywnej (jak choćby w Aus den Sieben Tagen Stockhausena) lub ostrożny i precyzyjny analityk. Fakt, że dziś nie mamy już do czynienia z prostą, dziewiętnastowieczną relacją kompozytor-wykonawca, lecz raczej z siatką zależności pomiędzy wskazanymi powyżej czynnikami – tożsamościowym, performatywnym oraz technologicznym – składającymi się na pełną jakość estetyczną każdej kompozycji, ujawnia subwersywny i kreatywny potencjał tkwiący w każdej zmianie relacji modelu społecznego sztuki muzycznej, a także porządku estetycznego, w jakim ta ostatnia ujmuje kwestię dźwiękowej reprezentacji.

 

Tomasz Biernacki

 

[1] Dla porządku warto jednak przywołać instrumentalne wykonania transkrypcji pianolowych etiud, np. w wersji Yvar Mikhashoffa na zespół kameralny, bądź w wersji na dwa fortepiany w wersji Thomasa Adèsa (wykonanie duo Thomas Adès – Rolf Hind, wydawnictwo Signum Records z 2011 roku) oraz wersji dua Helena Bugallo and Amy Williams z 2004 roku (płyta wydana przez WERGO). Pojedyncze etiudy wykonała także solo pianistka Joanna MacGregor, lecz tego typu przedsięwzięcia należą jednak do rzadkości.

[2] Za życia Scelsiego rolę skryby spisującego z taśm i instrumentującego powstały w ten sposób materiał spełniał wynajęty przez twórcę muzyk Vieri Tosatti, sam będący zresztą kompozytorem, całkowicie skądinąd konserwatywnej muzyki. Jego transkrypcje są z tego względu rzecz jasna znacznie prostsze w zamyśle od tej poczynionej przez Haasa.

[3] Pojawia się tu bowiem zasadnicze pytanie na ile tzw. czytanie „intuicyjne” nie jest już zdeterminowane określoną, lokalną tradycją zapisu, a także samymi skojarzeniami językowymi, które określają naszą wyobraźnię, a poza które nie możemy się wydostać. I tak np. obłe kształty zaś sugerować mogą łagodne brzmienia, w przeciwieństwie do ostrych kątów i zębatych linii, zachowując analogię ostry dźwięk-ostry kąt. Podobnie z symbolicznym odwzorowaniem wysokości czy głośności.

[4] Porównaj tekst Stevena Schicka Budowanie kontekstu interpretacyjnego: uczenie się Alfabetu kości Briana Ferneyhougha w „Glissandzie” #28 (2016).

[5] Steven Schick, dz. cyt.

[6] Wbrew pozorom nie jest to jednak praktyka aż tak niezwykła, jak to się może wydawać, zważywszy na to, że np. harfiści niemal zawsze musieli opracowywać swoje orkiestrowe partie samemu, z tej racji, iż wiedza o ich instrumencie wśród kompozytorów była tradycyjnie bardzo niewielka. Spójrzmy chociaż na partytury Wagnera, w których mimo dysponowania nieraz więcej niż jednym instrumentem, zamiast rozdzielić niewygodne pasaże, kompozytor je dubluje zachowując ich niewykonalność…

[7] CD: Iannis Xenakis: Music for Keyboard Instruments realised by computer, NEOS 10707 (2008).