Numer 33–34 / 2018

O naturze gestów. Laetitia Sonami i Pamela Z

Lucie Vágnerová , tłum. Szymon Ozimek

Jest pierwszy czerwca 2015. Francusko-amerykańska kompozytorka Laetitia Sonami stoi na scenie w Fondation Cartier w Paryżu. Ma zamknięte oczy i rozkłada ramiona, jak gdyby rozciągała miech akordeonu. Zgina tylko lewy palec wskazujący, udając, że naciska klawisz. Gest ten wyzwala szumiący dźwięk, który dynamicznie narasta wraz ze słyszalnymi w tle tąpnięciami. Odległość między jej rękami staje się dużo większa niż szerokość udawanego akordeonu. Sonami stoi z rozpostartymi ramionami, patrząc na swoją lewą, ubraną w czarną rękawiczkę, dłoń. Wygina nadgarstek w przód i w tył – nagle pojawia się efekt gitarowej wajchy (whammy bar) modulującej pojedynczy dźwięk. Po raz ostatni, jak mówi, ma na sobie Lady’s Glove , kontroler, z którym występowała[1] od 20 lat. Dzisiejszy koncert jest hołdem dla jej byłej nauczycielki kompozycji, Éliane Radigue. `

Występy muzyczne z wykorzystaniem ubieranych (wearable) kontrolerów bazujących na geście przywołują na myśl dwa nurty współczesnej nauki: multidyscyplinarne badania nad performującym ciałem i teksty o budowanych na miarę interfejsach muzycznych. Chciałabym tu dokonać przeglądu prac kompozytorów wykorzystujących ubierane kontrolery buzujące na gestach, które zbierają ciągłe i dyskretne dane kinetyczne oraz dotyczące biologicznego sprzężenia zwrotnego (biofeedback), aby uruchomić wcześniej przygotowane elektroniczne dźwięki, procesy algorytmiczne i sample. Wychodząc od The Hands (1984) Michela Waisvisza oraz interfejsu BioMuse (1992) Atau Tanaki, które stanowią przykłady systemów kinetycznych oraz opartych na biofeedbacku, skupię się na pracy Sonami z Lady’s Glove i performansów Pameli Z z jej BodySynth (1994). Chociaż wielu kompozytorów i inżynierów docenia konceptualny potencjał tych systemów – to, w jaki sposób stają one w opozycji do klasycznego rozumienia takich pojęć jak instrumentalność i wirtuozeria, czy to w jak produktywny sposób mieszają ze sobą technikę i technologię – to zwykle zaniedbują oni muzyczne i teatralne aspekty kontrolowanych gestem występów konkretnych muzyków. Będę dowodzić, że to właśnie na polu teatru dźwiękowego i dramatu scenicznego kompozytorzy ingerują w płciowe, rasowe i cielesne stereotypy, które ograniczają i definiują technologiczne paradygmaty późnych lat 80. i 90. Zwracam się zatem ku pracom badaczy zainteresowanych performansem gestycznym poza obszarem kompozycji elektronicznej (czyli w operze, muzyce klasycznej, teatrze, tańcu, performansie, języku migowym), którzy konceptualizującym ciało teatralne jako to, które zaciera granicę między naturą a kulturą[2]. Fakt, że skupiam się na pracach Laetitii Sonami i Pameli Z wynika z mojego zainteresowania powiązaniem danych gestycznych z przetwarzaniem wokalnym. Ich wokalne performanse z kontrolerem bazującym na gestach, stanowią bowiem ingerencję w tradycyjną ekonomię muzyki klasycznej, opartą na zmaskulinizowanych dłoniach i sfeminizowanych głosach. Badanie tych performansów otwiera muzykologom i  środowiskom feministycznym nową perspektywę na negocjacje między sprzecznymi próbami „udzielenia kobietom głosu” i jednoczesnej marginalizacji wokalności. W szerokim ujęciu moim celem jest zatem usłyszenie muzycznego performansu z użyciem kontroli gestycznej jako cyborgicznej ingerencji w nasze szeroko pojmowane genderowe i muzyczne rozumienia performansu[3].

Laetitia Sonami, źródło: sonami.net

Kontrolery Waisvisza, Sonami, Tanaki i Z wykorzystują różne procesy do zbierania różnych typów danych, które są następnie przetwarzane przez komputer z postaci analogowej do cyfrowej. Dla Waisvisza i Sonami kluczowym komponentem performansu są makroskopowe, fizyczne „dane wejściowe i wyjściowe z prawdziwego świata”[4]. The Hands Waisvisza „wyczuwają relatywne położenie i orientację w przestrzeni, oraz zawierają przełączniki i potencjometry pozwalające kontrolować wysokość i barwę, oraz wybierać instrumenty za pomocą protokołu MIDI”[5]. Lady’s Glove Sonami, której oryginalną wersję ulepszył w 1994 Bert Bongers, również jest wyposażona w sensory magnetyczne, przełączniki, paski rezystorowe, głośniki ultradźwiękowe i akcelerometry, które wytwarzają zmienne napięcie konwertowane na standard MIDI za pomocą oprogramowania SensorLab stworzonego w holenderskim Studio for Electro-Instrumental Music (STEIM) w 1989[6]. Z kolei kontroler Tanaki korzysta z biologicznego sprzężenia zwrotnego: zbudowany w roku 1992 przez Hugh Lusteda i Bena Knappa system BioMuse używa „penetrujących skórę elektrod, aby mierzyć aktywność mięśniową”[7]. Wykorzystywany przez Z kontroler BodySynth, zbudowany przez Chrisa Van Raalte i Eda Severinghausa na początku lat 90. i opatentowany w 1996, również odczytuje zmiany czynności elektrycznej mięśni, aby wytworzyć ciągły strumień danych elektromiograficznych (EMG). Do nich kompozytorka przyporządkowuje rozmaite procesy muzyczne, korzystając jednocześnie z wcześniej stworzonych, niewidocznych wyzwalaczy. W praktyce zatem każdy kompozytor przypisuje rozmaite muzyczne procesy i zdarzenia do danych pochodzących z fizycznych i/lub fizjologicznych działań.

Johannes Birringer, choreograf i badacz performansu, pisze:

Interaktywna sztuka elektroniczna nie opiera się na żadnej konkretnej technologii (analogowej, cyfrowej, radiowej, wideo, modemach czy satelitach), ale na jakości czy konceptualnej strukturze punktów styku i kanałów łączących poziomy interaktywności[8].

Badaczka performansu Jennifer Parker-Starbuck idzie o krok dalej i otwiera swoją wydaną w 2001 roku monografię Cyborg Theater takim stwierdzeniem: „Bardziej niż technologie interesują mnie ciała i związki między tymi dwoma żywiołami, które powstają dzięki ich wzajemnej bliskości”.[9]

Można powiedzieć, że performanse korzystające z kontroli gestycznej mniej polegają na ontologicznych różnicach między sposobami kontroli, a bardziej na muzycznych „pętlach akcja-percepcja”[10], które aktywują się w trakcie performansu. Już Theodor W. Adorno ostrzegał zresztą w swojej polemice z medium telewizji, że „techniczne” i „społeczne” elementy praktyki nie mogą być traktowane osobno[11]. Na podobnej zasadzie Paul Théberge krytykuje tradycyjną organologię za jej nadmierną koncentrację na klasyfikowaniu instrumentów muzycznych zamiast dyskutowania o ich „szerszym znaczeniu kulturowym”[12]. Opierając się na tych krytycznych podejściach, traktuję kontrolery gestyczne jako przedstawicieli mniej widocznych technologii artykulacji muzycznej i cielesnego performansu. Ich udział w oczywisty sposób polega na byciu przyczepionym do ciała, ale również na zaznaczaniu swojej sprawczości jako instrumentów do komponowania.

Syntezatory vs. skomponowane instrumenty

(…) Powstałe w latach 80. i 90. kompozycje z użyciem specjalnie skonstruowanych kontrolerów gestycznych są, przynajmniej w części, konfrontacją komercyjnych, przemysłowych, społecznych i estetycznych skutków tych zmian na rynku technologii muzycznej. Moniek Toebosch, artystka multimedialna, tancerka i wokalistka eksperymentalna, która współpracowała z Waisviszem w latach 1972–1983, celnie określiła jego zbudowany z kawałków ogólnodostępnej elektroniki kontroler jako „technologię povera”, odnosząc się w ten sposób do włoskiego ruchu artystycznego z lat 60. arte povera. Artyści związani z tym ruchem często dekontekstualizowali komercyjne przedmioty, krytykując w ten sposób świętość i komercjalizację sztuki[13]. Podobnie Z ubolewała nad dominującym „przekonaniem, że jeśli masz odpowiednie oprogramowanie, to nie musisz już być artystą, bo komputer po prostu zrobi sztukę za ciebie”[14]. Wraz z artystą multimedialnym Randallem Packerem wykonała na Apple Expo West 1993 performans polegający na prezentacji fikcyjnego produktu nazwanego Art-o-Matic, wyśmiewając w ten sposób pomysł, że technologia może błyskawicznie tworzyć sztukę. „Po co ćwiczyć?”, pytała Z, „Bez względu na to jak nudne twoje życie było do tej pory, Art-o-Matic zmieni je natychmiast”[15]. Zaledwie trzy lata wcześniej Waisvisz z podobną emfazą ostrzegał, że zestandaryzowana produkcja elektronicznych interfejsów muzycznych ogranicza kreatywność. W swoim nietypowym apelu do muzykologów wzywał do patrzenia na muzykę elektroniczną przez pryzmat materializmu historycznego, namawiając badaczy, aby poważnie traktowali przemysłowe korzenie i technologiczny wymiar performansu jako nośnika ekspresywnego znaczenia.

Chciałbym skromnie zasugerować, że informacje nie powinny być monopolizowane w głupich wyścigach szczurów między instytucjami muzycznymi, przemysłem i jednostkami. Muzykolodzy powinni czuć się bardziej odpowiedzialni za przekazywanie jak największej ilości wiedzy następnemu pokoleniu, zamiast bawić się w nadmiernie kreatywnych artystów tłumaczących czym jest sztuka.[16]

Waisvisz szczególnie gardzi estetycznymi ograniczeniami wczesnych syntezatorów klawiszowych, które, jego zdaniem, marnują nieograniczone możliwości syntezy dźwięku. Warto zwrócić szczególną uwagę na to, jak odnosi się do postulowanego przez musique concrète ideału „sonicznej czystości”.

Odczułem, że wczesne syntezatory nie dawały prawdziwej kontroli nad elektronicznym dźwiękiem. W tych instrumentach ukryte były obiecujące światy brzmieniowe, ale przez to, że wyposażono je w takie same klawiatury jak organy czy fortepiany, wydawały się bardziej nadawać do tworzenia melodii niż „muzyki dźwięków”. Chciałem wtedy tworzyć muzykę elektroniczną w najczystszym sensie.[17]

Również Charles Dodge przekonywał, że komercyjne muzyczne interfejsy elektroniczne z lat 80. za mocno opierały się na koncepcji, według której wykonanie jest wyłącznie aktywowaniem na żywo kolejnych wydarzeń muzycznych. W ten sposób nie pozostawiały miejsca na miksowanie dźwięków na żywo czy interaktywne projekty na zaprogramowane syntezatory i performera[18]. Również Joel Chadabe opisał przewidywalne dźwięki wydawane przez standardowe instrumenty jako „deterministyczne”[19].

Dla Waisvisza muzykalność performera była nierozłącznie powiązana z dotykaniem instrumentu przez muzyka. W całej swojej karierze kompozytorskiej zestawiał elektroniczne interfejsy muzyczne oparte na dotyku (to jest haptyczne i gestyczne) oraz nieoparte na dotyku (oparte na wyzwalaczach), aby krytykować kulturę high-tech[20]. W utworze zatytułowanym The Electricity (1974) wykonanym wraz z basistą Maartenem Alteną, Waisvisz zrezygnował z klawiatury swojego syntezatora Putney VCS3 i podłączył jego krosowy panel (który składał się z kolorowych styków zamiast tradycyjnych kabli) do paneli dotykowych[21]. Ten interfejs, który nazwał CrackleSynth, korzystał z przewodnictwa elektrycznego skóry, aby przepuszczać napięcie przez palce wykonawcy[22]. Ponieważ reakcja skórno-galwaniczna zależy od układu współczulnego, zelektryfikowany dotyk oznacza nie tylko fizyczną komendę, ale też psychologiczne i fizjologiczne pobudzenie performera. W swoim tekście o interfejsach haptycznych w muzyce Jaime Oliver La Rosa przypomina, że „sposób kontrolowania definiuje same dźwięki”. Podobnie uważają Sonami i Z[23]. Oliver La Rosa korzysta z pojęcia „skomponowanego instrumentu” aby uchwycić sposób, w jaki spersonalizowane interfejsy elektroniczne w muzyce pełnią rolę nie tylko tradycyjnego instrumentu, ale także partytury[24]. Tanaka uważa nawet, że BioMuse instrumentalizuje jego ciało:

To jest przykład performansu w czasie rzeczywistym z wykorzystaniem komputerów, syntezatorów i tego rodzaju instrumentu – wolę nazywać go instrumentem niż interfejsem. Chociaż można o nim myśleć jako o interfejsie ogólnego zastosowania, to ja postrzegam BioMuse jako nowy typ instrumentu muzycznego, który jest w stanie zamienić weń moje ciało.[25]

Skomponowane instrumenty performują i są performowane; kontrolują performans i są kontrolowane. Zacierają granicę między instrumentem, partyturą i ciałem wykonawcy. Są czytelne jako dźwięk, ale też ucieleśniają proces pisania partytury ruchem. To właśnie w tym intymnie muzycznym sensie specyfika technologii ma znaczenie dla wykonań muzycznych. Co więcej, jak zauważa George E. Lewis w odniesieniu do interaktywnego, improwizacyjnego programu Voyager. który stworzył w STEIM między 1986 a 1988, „przekonania dotyczące natury i funkcji muzyki stały się częścią struktury programistycznych systemów muzycznych i kompozycji”[26]. Jak postaram się pokazać, pojęcie „natury” (zarówno kulturowej, jak i cielesnej) jest kluczowym terminem w kontekście performansów z zastosowaniem kontroli gestycznej.

Pamela Z, fot. rubra, archiwum Ars Electronica

Jedną z istotniejszych konsekwencji pracy z kontrolerami gestycznymi jest skupienie uwagi na takich elementach, jak dynamika brzmienia czy aktywność rytmiczna. Wsłuchanie się w dynamikę barwową ujawnia najbardziej złożony aspekt organizacyjny prac Sonami – cechę, którą ona sama kilkukrotnie przypisała płci kompozytorek[27]. Umniejszenie roli wysokości dźwięku oznacza ucieczkę od elementów muzycznych, które reprezentują patriarchalne wartości charakterystyczne nie tylko dla epok od baroku do romantyzmu[28], ale również dla sporej części kompozycji elektronicznych. Muzyczne formy Sonami rzeczywiście odróżniają się od francuskiej musique concrète i amerykańskiej elektroniki tym, jak niespiesznie rozwijają się w nich wydarzenia barwowe – co również stanowi cechę twórczości Radigue. Wasivisz twierdzi, że jego fascynacja barwą dźwięku wynika z faktu, że „nie ma dla niej notacji, co uwalnia nas od nudnej kultury reprodukcji”[29]. Również Z uważa kompozycję i notację muzyczną za dwa oddzielne powiązane ze sobą działalności w muzyce klasycznej, ale nie znaczy to, że zapisywanie nut było w istocie procesem komponowania”[30]. Podobnie Sonami „bardzo nie lubi rejestracji swoich performansów” ze względu na zainteresowanie buddyjskimi koncepcjami „magii” i „niestałości” oraz dystans do „idei »obiektywnych« dźwięków, dających się zaadaptować do każdej sytuacji czy czasu”[31]. Chociaż estetyki Waisvisza, Sonami i Z bardzo się od siebie różnią, to między innymi ich niechęć do notacji i nagrań sprawiła, że badacze rzadko omawiają ich twórczość. Muzyczne oraz muzyczno-przemysłowe elementy dizajnu i praktyki ich performansów – czy skomponowanych instrumentów – sprawiają, że są oni niewidoczni dla skupionych na partyturach historyków muzyki opisanych przez Nicholasa Cooka w Beyond the Score[32].

Gest, natura, normalność

O cielesnych gestach często mówi się, że mają „naturalny” związek z dźwiękiem[33]. Badacze muzyki przyglądali się im z dwóch perspektyw: wykonawcy i słuchacza. Gesty wykonawców muzyki klasycznej bada się od dłuższego czasu, szczególnie jeśli mowa o pianistach: studium pianistów Charlesa Rosena porusza wszystko – od techniki palcowania, aż po ruchy całego ciała; Peter Eldson analizuje ruch w improwizacjach Keitha Jarretta; Ivan Raykoff analizuje synergię wykonywania i nadawania znaczeń gestom w XIX-wiecznej pianistyce; David Sudnow opublikował szczegółowy, fenomenologiczny opis własnej gry na fortepianie; zaś Marcelo M. Wanderley pisał o znaczeniu ekspresywnych gestów w grze instrumentalnej skupiając się na własnym instrumencie – klarnecie[34]. Również badacze opery przysłużyli się badaniu gestu scenicznego: książka Mary Ann Smart o XIX-wiecznej operze pokazuje jak gesty śpiewaków ożywiają ich występy wokalne, naśladując ciało operowe wewnątrz i na zewnątrz.[35]

Paul Théberge pisał, że słuchacze często postrzegają „dopasowanie fizyczno-strukturalne między gestem a wynikającym z niego dźwiękiem”[36]. Aby lepiej zrozumieć tę relację Mariusz Kozak, Kristian Nymoen i Rolf Inge Godøy przeprowadzili badania oparte na zbieraniu danych z sensorów podłączonych do osób poruszających się wraz z muzyką[37]. Zidentyfikowali wspólne cechy wśród ruchów słuchaczy i zaproponowali rozumienie ich jako umiejscowionej analizy[38] (situated analysis). Badania tego zespołu są rozwinięciem idei fenomenologa Maurice’a Merleau-Ponty’ego oraz opracowanej w latach 90. teorii tzw.  odgrywania (enaction), według której życie cielesne miałoby kształtować funkcje poznawcze. I rzeczywiście – Godøy definiuje ucieleśnienie jako „schematy mentalne oparte na ruchu” czy „ucieleśnienie kognitywne”; perspektywa ta wydaje się szczególnie interesująca, jeśli wziąć pod uwagę opisy Sudnowa, który porównywał grę na pianinie do myślenia palcami[39]. Podobnie wyraża się Michel Waisvisz: „Uważam rękę za część mózgu, nie za jego pomniejszy narzędzie. Jasne, że można postrzegać rękę jako przekaźnik i czujnik, ale w kontekście świadomości wykonania to ręka jest mózgiem”[40]. Również Sonami traktuj metaforę dłoni-mózgu jako istotną dla odejścia od „XIX-wiecznego modelu decyzji”, w którym ciało jest przedmiotem kontroli[41]. Ucieleśnione poznanie pozwala spojrzeć na dźwięk jako zależny od czasu i ciała – zmienny, dynamiczny, fizyczny oraz dosłownie i w przenośni poruszający.

O ile badania Kozaka skupiają się bardziej na podobieństwach między gestykulującymi słuchaczami, to mnie bardziej interesują różnice między tymi analitycznymi systemami umiejscowionej wiedzy (situated knowledges). Pianista Vijay Iver przedstawił w swoim doktoracie teorię czegoś, co nazywa „umiejscowionym poznaniem” (situated cognition) – zależnym od ograniczeń ciała, sprawności i uwarunkowań socjo-kulturowych[42]. Antropolożka Brenda Farnell przypomina nam o sprawczości: „ciała się nie ruszają, a umysły nie myślą – obydwie rzeczy robią ludzie”[43]. Farnell ostrzega, że nasz „paradygmat ucieleśnienia” zbyt często prowadzi do postrzegania ciała jako tekstu, metafory czy politycznego awatara (Anne Balsamo używa sformułowania „konceptualny wypełniacz”[44]). „Brakuje opisów osób odgrywających ciało, to jest używających fizycznych działań do sprawczej produkcji znaczeń; działań, które mogą wynikać ze świadomości zbudowanej na nawyku, albo z bardzo przemyślanej choreografii”, pisze Farnell[45].

Pamela Z, fot. Goran Vejvoda

Granica między badaniami kognitywnymi na temat gestu muzycznego i popularną retoryką gestu-jako-naturę jest niewyraźna: ubierane kontrolery w muzyce i poza nią często reklamuje się jako „oferujące intuicyjny i niepomijalny feedback[46]. Imogen Heap mówi o swojej pracy z rękawicą umożliwiającą kontrolę gestyczną, że pozwala jej tworzyć muzykę „w bieżącej chwili i w bardziej ludzki sposób oraz bardziej naturalnie wchodzić w interakcje z oprogramowaniem i technologią”[47]. Kathy Brew, artystka multimedialna, podsumowała pracę Sonami z sensorami stwierdzeniem: „W gruncie rzeczy jej ruchy stają się muzyką”[48], jakby mówiła o magii. Choć obecny „paradygmat ucieleśnienia”[49] uznaje gest za naturalny, to ulotność tego założenia doskonale ilustruje historia amerykańskiego języka migowego (American Sign Language, ASL). Powojenna popularność ASL w szkołach dla głuchych była możliwa dzięki językowi stworzonemu przez ewangelikalnych chrześcijańskich nauczycieli, którzy wierzyli, że gest jest „językiem bliższym Boga niż mowa, czystym i niewinnym, i bardziej szczerym, ponieważ pozwala bardziej bezpośrednio wyrażać emocje”[50]. Ich przeciwniczkami, które trzymały zresztą przewagę od lat 90. XIX wieku do lat 70. XX wieku, były kobiety zainspirowane „ruchem sufrażystek i walką o prawo do publicznego wyrażania się, które dało im odmienną perspektywę na relatywną wartość »posiadania głosu« oraz społeczną i cielesną normatywność[51].

Ciało (nie)widoczne

Rzucającą się w oczy cechą założenia gestu-jako-naturalności jest przekonanie o przezroczystości technologii. W pochodzącej z połowy lat 90. analizie kontroli gestycznej David J. Sturman i David Zeltzer opisują ubraną w rękawicę dłoń jako „naturalny interfejs”[52], który jest „wolny od ograniczeń pośredniczących urządzeń”[53]. Sturman i Zeltezer nie uważają cyfrowych rękawic ani rąk za urządzenia pośredniczące: w ich tekście gestykulująca ręka jest tak perfekcyjnie ucieleśniona, że ciało staje się zupełnie niewidoczne. W podobnym tonie wypowiada się Elizabeth Hinkle-Turner, uznając BodySynth Pamieli Z za coś, co pozwala ciału być „zupełnie nieobciążonym przez instrument”[54]. Przypomina mi to sposób, w jaki Charles Ives opisywał swoją słynącą z powodu niewykonywalności muzykę wokalną jako „wolną od władzy tułowia, przepony i ucha”[55]. O ile głosy Ivesa są rzeczywiście nieobecne, o tyle system gestyczny Sturmana i Zeltzera jest zaledwie (ponad)naturalnie zintegrowany, aż do takiego stopnia, że pozostaje niedostrzeżony i niedostrzegalny, prześlizguje się przez szpary w muzycznym dyskursie.

(…) Opisy kontroli gestycznej jako naturalnej i intuicyjnej wydają mi się esencjonalistyczne, ponieważ uważam zarówno rękawicę-kontroler, jak i rękę za ważne technologie pośredniczące. Podobnie jak Jennifer Iverson myślę, że „»całość« czy »naturalność« ciał jest fikcją”, tak samo, jak „pełnosprawność jest fikcją”[56]. Waisvisz, krytykując retorykę intuicyjności, stwierdził, że „innym bardzo trudno jest grać na The Hand”[57]. Badacz i inżynier Axel Mulder umiejscawia kontrolery MIDI w tej samej linii co tradycyjne instrumenty oraz zwraca uwagę na: 1) fizyczne i kulturowe ograniczenia słownictwa gestycznego różnych wykonawców oraz 2) nieodpowiedniość kontrolerów gestycznych dla muzyków o nie-normatywnej fizjonomii i/lub funkcjonowaniu ciała[58]. Podczas gdy większość literatury o kontroli gestycznej traktuje różnice między kontrolerami a instrumentami jako coś oczywistego (nie próbuje analizować różnic, tylko traktuje kontrolery jako następstwo instrumentów), Mulder zrównuje je z racji podobnych wymagań wobec ciała wykonawcy i, w związku z tym, ich ograniczonej możliwości adaptacji. Podobnie jak w przypadku kontrolerów gestycznych, twierdzi, „zakres, w jakim instrumenty muzyczne można dostosować do osób o niestandardowych proporcjach kończyn, jest bardzo ograniczony”[59]. Personalizacja ubieranych kontrolerów w wykonaniach muzycznych pozostaje w dużej mierze nieprzedyskutowana, jednak kiedy kompozytorzy upubliczniają projekty swoich kontrolerów, to chcą w ten sposób zachęcić odbiorców nie tyle do kopiowania, ale hakowania ich na własną rękę. Imogen Heap udostępnia schemat swojej cyfrowej rękawicy na zasadach open source ponieważ, jak mówi, „ciekawi mnie, jakie modyfikacje wprowadzą ludzie”[60]. Wystarczy przejrzeć strony Waisvisza, Tanaki, Sonami czy Z lub innych kompozytorów pracujących ze spersonalizowanymi ubieranymi kontrolerami, takich jak Paul de Marinis, David Wessel, David Ostrowski, John Bischoff, Frankie Mann czy Rich Gold, aby przekonać się, że podzielają oni ten sam etos.

Laetitia Sonami, źródło: sonami.net

Wykonania z wykorzystaniem kontrolerów gestycznych pomniejszają również znaczenie gestykulującej ręki, konstruując niejednoznaczne i niestałe relacje między gestami dźwiękowymi a scenicznymi. W swojej monografii o muzyce w grach komputerowych William Cheng opisuje moment, kiedy jako dziecko nabrał się na iluzję niepodłączonego gracza 2 i uwierzył, że sam „steruje muzyką i animacjami na ekranie”[61]. Czasami podobnie trudno połączyć fizyczne gesty wykonawcy z efektami dźwiękowymi, kiedy słucha się występu muzycznego z wykorzystaniem kontroli gestycznej. Po części jest to spowodowane nieklasycznym wysunięciem na pierwszy plan barwy dźwięku; po części zaś tym, że kompozytorzy stosują gestyczne algorytmy, które odrzucają tradycyjne procesy znaczenia, znane nam z klasycznej instrumentacji i wirtuozerii. Powolny ruch może generować aktywne rytmicznie dźwięki, podniesione ramię może oznaczać opadnięcie rejestru, a podkurczone palce mogą wyzwolić sampel wokalny. Tak Tanaka opisuje trudności, jakich doświadcza publiczność z przetwarzaniem pojedynczego strumienia elektronicznych dźwięków, wydawanego przez trzech członków zespołu Sensorband:

To naturalne, że publiczność stara się połączyć fizyczne gesty, które widzą, z tym, co słyszą. Jest to jednak bardzo trudne, bo dźwięki te są nieznane. Są abstrakcyjne i generowane przez komputer, podczas gdy przy zespołach akustycznych zawsze ma się jakąś wcześniejszą wiedzę na temat tego, jak brzmią poszczególne instrumenty.[62]

Kiedy Tanaka mówi o „abstrakcyjnych” dźwiękach ma na myśli nie tylko, jak sądzę, ich komputerowe pochodzenie, ale także ich muzyczny charakter zdefiniowany raczej przez kolorystykę dźwiękową, niż czytelne elementy muzyczne takie, jak wysokość czy rytm.

BioMuse Tanaki to zbiór opasek i rękawic zakładanych na ręce, a częścią jednego z jego performansów jest rozdzielenie tego samego dźwięku między lewą i prawą rękę oraz bawienie się różnicami wysokości i amplitudy tak, aby zbudować napięcie barwowe[63]. Napięcie to podlega następnie przetworzeniu, która nadaje performansowi formę. Świszczące, granularne hałasy dźwiękowego świata Sonami i suche charkoty i chrzęsty performansu Waisvisza są abstakcyjne na tym samym poziomie. Performans Waisvisza jest też pełen kliknięć – akustycznych śladów gry na The Hands, które jednocześnie ukrywają i są ukrywane przez kompozytorską decyzję o wykorzystywaniu dźwięków z tej samej rodziny barwowej. Wreszcie, korzystając z sampli w stylu musique concrète w swoich performansach, kompozytorzy jeszcze mocniej zaprzeczają twierdzeniu, według którego mieliby performować swoimi ciałami. W archiwalnym nagraniu występu w STEIM Waisvisz sampluje początkowy aplauz widowni i używa go jako materiału w swoim gestycznym performansie z The Hands; Sonami często używa krótkich sampli wokalnych.

W miejscach, których performatywna teoria płci Judith Butler objaśnia, dlaczego płeć (gender) jest traktowana jako naturalna, choć wcale taka nie jest, możemy po prostu zastąpić „płeć” słowem „gest”. „Płeć”, pisze Butler, „jest powtarzalną stylizacja ciała, zbiorem aktów powtarzanych w wyjątkowo sztywnych ramach regulatywnych, które z czasem zastygają, tworząc pozór substancji, pozór pewnego rodzaju naturalnego bytu”[64]. Krytyczna masa esencjonalistycznych opisów rąk, gestów rąk i kontrolerów gestycznych buduje ramę sztywnych regulacji sposobu, w jaki rozumiemy rolę ciała w muzyce, bez względu na jego płeć. Zmienność algorytmicznej logiki performansów z wykorzystaniem kontroli gestycznej, tak samo jak fakt, że Waisvisz, Sonami, Tanaka i Z preferują eksperymentalne elementy w procesie komponowania muzyki, tworzą gestycznie queer-gestyczne (gesture-queer) dźwięki i przestrzenie, które kwestionują stałość dźwięków i ciał.

 

Tekst jest częścią pracy doktorskiej Sirens/Cyborgs: Sound Technologies and the Musical Body powstałej na University of Columbia w 2016 roku.

 


[1] Od tłumacza: słowa performperformance w języku angielskim mogą się odnosić zarówno do polskiego wykonania (jako dowolnego wykonania jakiegoś dzieła sztuki, na przykład koncertu czy dramatu), jak i performansu (jako działania należącego do konkretnego nurtu sztuki nowoczesnej). Podobnie jak autorka oryginału korzystam z nich zamiennie – przyp. red.

[2] Johannes Birringer, Contemporary Performance/Technology, “Theatre Journal” 51/4 (December 1999): 361–381; Jennifer Parker-Starbuck, Cyborg Theatre: Corporeal/Technological Intersections in Multimedia Performance, New York: Palgrave Macmillan, 2014; Anne Balsamo, Technologies of the Gendered Body: Reading Cyborg Women, Durham, NC 1999); Brenda Farnell, Ethno-Graphics and the Moving Body, „Man New Series” 29/4, 1994, s. 929–974; Katherine Hayles, How We Became Posthuman: Virtual Bodies in Cybernetics, Literature, and Informatics, University of Chicago Press, Chicago 1999.

[3] Jednym z najciekawszych autorów zajmujących się tą tematyką jest George E. Lewis,  zob. The Virtual Discourses of Pamela Z, „Journal of the Society for American Music” 1/1, 2007, s. 55–77; Axel Mulder, Getting a Grip on Alternate Controllers: Addressing the Variability of Gestural Expression in Musical Instrument Design, „Leonardo Music Journal” no. 6, 1996, s.  30–40;  Pamela Z, A Tool is a Tool, w: red. Judy Malloy, Women in New Media, MIT PressCambridge, MA:  2003, s. 348–360.

[4] Korzystam z frazy użytej w przygotowanym przez Studio for Electro-Instrumental Music’s (STEIM) opisie oprogramowania SensorLab, popularnego interfejsu analog-to-MIDI zaprojektowanego w 1989. Legacy Products, STEIM January 25, 2010, http://steim.org/product/discotiinued-products, dostęp 10.10.2014.

[5] Curtis Roads, The Second STEIM Symposium on Interactive Composition in Live Electronic Music, „Computer Music Journal” 10/2, 1986, s. 45–46.

[6] Wypowiedź Sonami w: reś. Renetta Sitoy, The Ear Goes to the Sound: the Work of Laetitia Sonami, 2014.

[7] Eva Sjuve, Gestures, Interfaces and Other Secrets of the Stage, w: red. Randy Adams, Steve Gibson, Stefan Muller Arisona, Transdisciplinary Digital Art: Sound, Vision, and the New Screen, Springer Verlag, Berlin 2008, s. 309. Tanaka był również członkiem Sensor- Band (1998), tria muzyków korzystających z instrumentów zbudowanych przez Bongersa. Trio składało się z Tanaki grającego na BioMuse, Edwina van der Heide na MIDI-Conductor i Zbigniewa Krakowskiego na systemie podczerwonych czujników ruchu. Zob. Bert Bongers, An Interview with Sensorband, „Computer Music Journal”, 22/1, 1998, s. 13. Rozmowę z Tanaką można znaleźć w „Glissando” #18: Jacek Plewicki, Pokazać dystans – wywiad z Atau Tanaką, tłum. Krzysztof Rowiński.

[8] Johannes Birringer, dz. cyt., s. 375. Z mówi o tym samym w wywiadzie z Kathy Kennedy: “To ciekawe, jak bardzo ludzie są teraz zaabsorbowani nowymi technologami. Myślę, że najbardziej interesują mnie artyści robiący ciekawe rzeczy niezależnie od narzędzi. Lubię muzyków low-tech i high-tech, elektronicznych i akustycznych, organicznych i syntetycznych”. Zob. Kathy Kennedy, A Few Facets of Pamela Z, „Musicworks”, no. 76, Spring 2000, http://www.pamelaz.com/musicworks.html, dostęp 12.12.2012.

[9] Jennifer Parker-Starbuck, dz. cyt., 4.

[10] Jin Hyun Kim, Uwe Seifert, Embodiment: The Body in Algorithmic Sound Generation, „Contemporary Music Review”, 25/1–2, 2006, s. 147.

[11] Samuel Weber, Theatricality as Medium, FordhamUniversity Press, New York 2004, s. 110.

[12] Paul Théberge, Any Sound You Can Imagine: Making Music / Consuming Technology, University Press of New England, Hanover, NH 1997, s. 6.

[13] Moniek Toebosch w: Brigitte van der Sande, Setting Limits and Overstepping Limits: Concerning Moniek Toebosch’s Work, „Open! Platform for Art, Culture & the Public Domain”, November 1, 2005, https://www.onlineopen.org/setting-limits-and-overstepping-limits, dostęp 13.01.2016.

[14] Pamela Z w: Kathy Kennedy, dz. cyt.

[15] David Morgenstern, Mac Performance Art, „Microtimes” 110, 1993, http://www.pamelaz.com/macexpo.html, dostęp 12.06.2015.

[16] Volker Krefeld, Michel Waisvisz, The Hand in the Web:An Interview with Michel Waisvisz, „Computer Music Journal”, 14/2, 1990, s. 32–33.

[17] Michel Waisvisz, The Hands, „The Crackle”, http://www.crackle.org/TheHands.htm, dostęp 11.11.2014.

[18] Charles Dodge, Computer Music, s. 402–404, przyp. za oryginałem.

[19] Joel Chadabe, The Limitations of Mapping as a Structural Descriptive in Electronic Instruments, w: Proceedings of the 2002 Conference on New Interfaces for Musical Expression, 2002, s. 1–5.

[20] Hennig Lohner, Interview with Robert Moog, „Computer Music Journal”, 9/4, 1985, s. 64–65.

[21] To właśnie odkrycie Putneya VCS3 w piwnicy Boston School of Fine Arts skierowało Sonami w stronę komponowania muzyki elektronicznej. Sonami w: The Ear Goes to the Sound…

[22] Michel Waisvisz, Mid Seventies: Electric Music Theatre, „The Crackle”, http://www.crackle.org/Electric%20Music%20theatre.htm, dostęp 11.11.2014.

[23] Jaime Oliver La Rosa, To Un-Button: Strategies in Computer Music Performance to Incorporate the Body as a Re-Mediator of Electronic Sound, M.A. dissertation, University of California, San Diego 2008, s. 41. Sonami w: Tara Rodgers, Pink Noises, Duke University Press, Durham, NC 2010, s. 229. Pamela Z w: Kathy Kennedy, dz. cyt.

[24] Oliver La Rosa, dz. cyt., s. 41.

[25] Atau Tanaka, Biomuse [sic], „Doors of Perception”, 1993, http://museum.doorsofperception.com/doors1/transcripts/tanaka/tanaka.html, dostęp 10.10.2014.

[26] Lewis uważa, że Voyager reprezentuje dziedzictwo afroamerykańskiej praktyki muzycznej. George E. Lewis, Too Many Notes: Computers, Complexity and Culture in Voyager, „Leonardo Music Journal”, vol. 10, 2000, s. 33, 34.

[27] Zob. Sonami w: The Ear Goes to the Sound. Sonami w: Tara Rodgers, dz. cyt., s. 231.

[28] W oryginale Common Practice Era, czasami nazywane Common Practice Period – okres od około roku 1650 do ok. 1900, pomiędzy powstaniem i porzuceniem systemu tonalnego dur-moll jako podstawy muzyki komponowanej w Europie – przyp. red.

[29] Volker Krefeld, Michel Waisvisz, The Hand in the Web…, s. 31.

[30] Pamela Z w: Kathy Kennedy, dz. cyt.

[31] Tara Rodgers, dz. cyt., s. 8.

[32] Nicholas Cook, Beyond the Score: Music as Performance, Oxford University Press, Oxford 2013.

[33] Opisy Giorgia Agambena XIX-wiecznej fascynacji patologicznymi gestami, widoczne w eksperymentach Gillesa de la Tourette’a czy Jeana-Martina Charcota, potwierdzają istnienie silnego poczucia gestycznej normatywności. Za: Giorgio Agamben, Uwagi o geście, tłum. Paweł Mościcki, w: Agamben. Przewodnik Krytyki Politycznej, Wydawnictwo Krytyki Politycznej, Warszawa 2010, s. 204–303.

[34] Charles Rosen, Piano Notes: The Hidden World of the Pianist, Free Press, New York 2002. Peter Elsdon, Listening in the Gaze: the Body in Keith Jarrett’s Solo Piano Improvisations, w: red. Anthony Gritten, Elaine King, Music and Gesture, Ashgate, Aldershot 2006, 192–207. David Sudnow, Ways of the Hand: The Organization of Improvised Conduct, Harvard University Press, Cambridge, MA 1978. Marcelo M. Wanderley, Non-obvious Performer Gestures in Instrumental Music, w: red. Annelies Braffort i in., Gesture-Based Communication in Human-Computer Interaction, Springer Verlag, Berlin 1999, 37–48. Marcelo M. Wanderley, Quantitative Analysis of Non-Obvious Performer Gestures, w: red. Ipke Wachsmuth i Timo Sowa, Gesture and Sign Language in Human-Computer Interaction, Springer Verlag, Berlin 2002. Marcelo M. Wanderley, Bradley Vines, Neil Middleton, Cory McKay, Wesley Hatch, The Musical Significance of Clarinetists’ Ancillary Gestures: An Exploration of a Field, „Journal of New Music Research”, 34/1, 2005, s. 97–113.

[35] Mary Ann Smart, Mimomania: Music and Gesture in Nineteenth-Century Opera, University of California, Berkeley 2004.

[36] Paul Théberge, dz. cyt., s. 199.

[37] Mariusz Kozak, Kristian Nymoen, Rolf Inge Godøy, Effects of Spectral Features of Sound on Gesture Type and Timing, Gesture and Sign Language in Human-Computer Interaction and Embodied Communication, w: red. Eleni Efthimiou, Georgios Kouroupetroglou, Stavroula-Evita Fotinea, Lecture Notes in Computer Science / Lecture Notes in Artificial Intelligence, Springer, Berlin 2012, 69–80.

[38] Mariusz Kozak, Embodied Cognition: Music and Movement Workshop, Heyman Center for the Humanities, Columbia University, 11.02.2016.

[39] Alexander Jensenius, Marcelo M. Wanderley, Rolf Godøy, Marc Leman, Musical Gestures: Concepts and Methods in Research, w: red. Rolf Godøy, Marc Leman, Musical
Gestures: Sound, Movement, and Meaning, Routledge, New York 2010, s. 18. Sudnow, dz. cyt., s. 92.

[40] Waisvisz w: Volker Krefeld, Michel Waisvisz, The Hand in the Web…, s. 28.

[41] Laetitia Sonami w: reż. Matt Mehlan, Roulette TV: Laetitia Sonami.

[42] Vijay Iyer, Microstructures of Feel, Macrostructures of Sound: Embodied Cognition in West African and African-American Musics, praca doktorancka, University of California, Berkeley,1998, s. 19–30.

[43] Podkreślenie jak w oryginale. Brenda Farnell, dz. cyt., s. 934.

[44] Anne Balsamo, Technologies of the Gendered Body, s. 35.

[45] Brenda Farnell, dz. cyt., s. 930–931.

[46] Tak swoje produkty opisuje mieszcząca się w Stanford firma Kramera produkująca sprzęt haptyczny. What is Haptics?: Haptics is Quite Literally The Science of Touch, „Immersion”, http://uximmr.com/haptics- technology/what-is-haptics/index.html, dostęp 25.05.2014.

[47] Imogen Heap, The Gloves That Will Change the Way We Make Music, https://vimeo.com/90252137, dostęp 29.03.2014.

[48] Kathy Brew, Though the Looking Glass, w: red. Judy Malloy, Women, Art, and Technology, MIT Press, Cambridge, MA 2003, s. 94.

[49] Brenda Farnell, dz. cyt., s. 930–931.

[50] Douglas C. Baynton, Forbidden Signs: American People and the Campaign Against Sign Language, University of Chicago Press, Chicago 1996, s. 9.

[51] Tamże, s. 9.

[52] David J. Sturman, David Zeltzer, „A Survey of Glove-based Input, IEEE Computer Graphics and Applications Journal”, 14/1, 1994, s. 38.

[53] Tamże, s. 30.

[54] Elizabeth Hinkle-Turner, Women Composers and Music Technology in the United States: Crossing the Line, Ashgate Publishing Company, Burlington VT 2006, s. 136.

[55]  Charles Ives, 114 Songs, wyd. własne, Redding, CT, 1922, http://catalog.hathitrust.org/Record/008948340, dostęp 23.05.2018.

[56] Iverson, co ironiczne, wspomina o „organicznej całości”, której mamy szukać w głosie. Jennifer Iverson, Mechanized Bodies: Technology and Supplements in Björk’s Electronica, w: red. Blake Howe, Stephanie Jensen -Moulton, Neil Lerner, Joseph Straus, The Oxford Handbook of Music and Disability Studies, Oxford University Press, Oxford 2015, s. 171, 164.

[57] Waisvisz w: Volker Krefeld, Michel Waisvisz, The Hand in the Web…, s. 30.

[58] Axel Mulder, dz. cyt., s. 38.

[59] „Wiek i cielesne traumy” wpływają na „możliwości wykonawcy”. Tamże, s. 33.

[60] Imogen Heap, dz. cyt.

[61] William Cheng, Sound Play: Video Games and the Musical Imagination, Oxford University Press, Oxford 2014, s. 1–8.

[62] Cyt. za: Bongers, An Interview with Sensorband, s. 18–19.

[63] Atau Tanaka, Atau Tanaka – New Biomuse Demo, https://vimeo.com/2483259, dostęp 11.12.2015.

[64] Za: Judith Butler, Uwikłani w płeć. Feminizm i polityka tożsamości, Wydawnictwo Krytyki Politycznej, Warszawa 2008, s. 94.