Powrót do przeszłości, czy zwrot ku przyszłości? Festiwal Audio Art 2017
„Muzyka bez granic” – tak brzmiało początkowo rozwinięcie nazwy festiwalu Audio Art, jak przypominał w tym roku jego twórca i organizator Marek Chołoniewski. Po zakończeniu tegorocznej, jubileuszowej, 25-tej edycji festiwalu, można stwierdzić, że wspomniany dopisek nadal daje o sobie znać. Poza kilkoma instalacjami w Bunkrze Sztuki, dwoma koncertami z wykorzystaniem EEG i interfejsu ruchowego (Fluctuations Michaela Fishera, Moon2 Franciszka Araszkiewicza), audiowizualnym performansem na wnętrznościach starego komputera Mac (iMac Music Jonathana Reusa) i dwoma tajemniczymi analogowymi instrumentami (HybryDuo Pawła Romańczuka i Cezarego Duchnowskiego, Rhythmicon przywieziony i zrekonstruowany przez Andrey’a Smirnova), w tym roku było bardzo instrumentalno-eksperymentalnie, a kilkukrotnie nawet mocno tanecznie.
Na początku, żeby uzasadnić kilka pytań niedających mi spokoju w trakcie festiwalu, chciałabym przywołać fragment Glissanda #31 pod redakcją Daniela Brożka, które w całości poświęcone zostało sztuce dźwięku. Akapit ten wydaje mi się bardzo istotny i przydatny w ciągu dalszych rozważań. Daniel Brożek w przedmowie napisał:
Zwyczajowo sound art zaczynał się tam, gdzie świat muzyki okazywał się za ciasny czy też niewystarczający, by oddać pełne spektrum ludzkich przygód z dźwiękiem (czego oczywistym przykładem jest John Cage i jego filozofia przypadku), lub tam, gdzie narzędzia sztuki współczesnej (szczególnie konceptualnej, o czym traktowało Glissando #29 pod redakcją Pawła Szroniaka) otwierały nowe perspektywy na fenomen doświadczania dźwięku (co błyskotliwie tropi Antek Michnik na przykładzie historii sztuki kinetycznej w bieżącym numerze). W rozwoju sound artu istotna okazywała się zarówno technologia (co prowadziło do narodzin radio artu i audio artu), jak i styczność z innymi dziedzinami sztuki (np. synestezją, sztuką mediów czy poezją konkretną) i nauki (psychoakustyką, ekologią dźwiękową, projektowaniem przestrzennym). Co okazuje się wspólne dla wszystkich podejść do sztuki dźwięku to przygoda odkrywania nowych spojrzeń, interpretacji i możliwości rozwoju działań w świecie dźwięku. Próba uchwycenia fenomenu zmiany perspektywy słyszenia. Eksperyment i wyzwanie, gest i nasłuchiwanie jego pogłosu.
Przy okazji festiwalu Audio Art chciałabym zastanowić się, na ile sama nazwa zobowiązuje (przecież ostatecznie to tylko nazwa, a definicja sztuki dźwięku pozostaje otwarta)? Oraz – czy przy okazji takiego festiwalu można oczekiwać nowych, świeżych i innowacyjnych projektów? Wybrałam kilka, spośród około 40 projektów zaproszonych na festiwal, które mogą pomóc odpowiedzieć na te pytania.
Między instalacją a performansem
17 listopada w Bunkrze Sztuki rozpoczęliśmy programową ścieżkę ustawieni w kolejkę poruszającą się w tempie narzuconym przez organizatora. Gęsiego przemieszczaliśmy się w stronę małego pokoju na parterze, gdzie czekała na nas tańcząca Śominika Dniegocka, ruchowo i głosowo (w trzech językach) opowiadająca historię z granicy snu i jawy, w której artystka jest tytułową kobietą-sarną (oryg. roe-deer woman). W ciemnym pomieszczeniu wypełnionym szumiącym kolażem, nuceniem i szeptem, rozświetlonym przez projekcje video prezentujące sceny z lasu, Śominika przedostawała się za pośrednictwem swojego roztańczonego cienia do własnego świata marzeń. Jednak w świecie leśnych nimf łatwo poczuć się jak intruz, który ze strzępków informacji i audiowizualnych bodźców stara się posklejać opowieść i odtworzyć zagadkowy kontekst.
Piętro wyżej przywoływaliśmy głosy duchów przy pomocy małych radioodbiorników stanowiących część instalacji Sen Wandzi Marcina Barskiego, prezentowanej już wcześniej na Sanatorium Dźwięku w Sokołowsku. Chodziliśmy z odbiornikami (w tym wypadku niemalże: „detektorami”) nastawiając ucho na ukryte w przestrzeni dźwiękowe komunikaty. Autor instalacji powiedział tylko, że o Wandzi nie wiemy zbyt wiele, a jedynym dowodem na jej istnienie są taśmy z nagraniami z początku lat 80., na których słychać nie tylko radiowe przeboje, lecz także fragmenty enigmatycznych rozmów o pracy, miłości, bądź migracji. Instalacja momentalnie kojarzyła się z początkami technologii reprodukcji dźwięku (fonograf, radio), w których niektórzy dopatrywali się łącznika między światami żywych i umarłych, do czego Marcin Barski zresztą wprost odwołuje się do opisie projektu. Dzięki zaktywizowaniu odbiorcy (w każdy tutaj przecież komponuje dźwięki swoją pieszą trasą z radioodbiornikiem) przypomniał uczestnikom tegorocznej edycji Audio Artu nie tylko o taśmach jako nośnikach pamięci, lecz także o tym, że kiedyś modne stwierdzenie „radio bodies are nobodies” (przypisywane Gregoremu Whiteheadowi) nie ma i chyba nigdy nie miało, zbyt wiele sensu.
Później tego wieczora zeszliśmy znów na dół Bunkra Sztuki, gdzie ilość gadżetów, plandek, interaktywnych projekcji, laserów i spora grupa performerów sugerowała, że czeka nas efektowny i złożony projekt. Owszem, podczas Dance Data 2.0 dużo się działo. Wręcz za dużo. Publika oddzielona została linią ze świetlówek od przestrzeni „performatywnej”, na ścianach śmigały projekcje, w tle pojawił się ambient przerwany kilkoma dźwiękowymi sygnałami, które pojawiły się w momencie, gdy czerwony laser (widoczny dzięki dymiarce) trafił na przysłonięte, przywieszone na ścianie czujniki. Zaraz później na scenę wyszli Iwona Olszowska i Paweł Konior, którzy zaprezentowali poruszającą i wymagającą choreografię, podczas której w pewnym momencie nawet „zamalowywali” za pomocą ruchów elementy interaktywnej projekcji na podłodze. Niestety, w natłoku gadżetów, projekcji i ruchu, dźwiękowa warstwa projektu przesunęła się na dalszy plan, a właściwie zginęła. Koncept Dance Data 2.0 również pozostaje dla mnie odrobinę zagadkowy. Z pewnością pojawiała się w nim kwestia człowieka zanurzonego w technologii, pochłoniętego przez audiowizualny świat, co dość dosłownie zobrazowały usterkujące, rozpikselowujące się i zalewające przestrzeń projekcje, które finalnie przesunęły performerów w cień. Z drugiej strony pojawiały się nawiązania do tematu samotności, współdziałania, harmonii… Niestety, ilość tych odniesień (linków czy tagów) po krótkiej chwili zlewa się w informacyjny szum.
Ryo Ikeshiro zaprezentował podczas festiwalu kilka swoich projektów, a jednym z nich był Construction in Kneading – generowany na żywo audiowizualny performans inspirowany zagniataniem chleba. Nie ukrywam, że bez wsparcia w postaci tekstu ciężko byłoby mi do tego dojść. Dynamiczne sprzężenie projekcji generowanych na żywo (wielowymiarowych fraktali) z elektronicznymi pulsacjami, nie wybiło się jednak niczym szczególnym na tle podobnych mu audiowizualnych koncertów. Występująca jako następna Annabelle Playe, francuska DJka grająca na syntezatorach, filtrach i efektach, sprawiła mi dużo większą frajdę tamtego wieczoru. Jednakże, najbardziej zaskakujące było dla mnie programowe zestawienie dwójki wyżej wymienionych wykonawców z Tomem Bucknerem — barytonem oddanym muzycznym eksperymentom od ponad 40 lat. Płynnie przechodzący od poezji dźwiękowej do alikwotowego śpiewu Buckner, zaprezentował Songs Without Words, czyli zbiór kompozycji znanych XX-wiecznych eksperymentatorów: Alvina Luciera, Anne Lockwood, Roberta Ashley’a i Philla Niblocka.
Wracając jednak do instalacji… Ja I Ty = Jestem to tegoroczna praca magisterska Łukasza Furmana z wydziału Intermediów na krakowskiej ASP związana z tematem neurofeedbacku (o którym pisał w „Glissandzie” wielokrotnie Beniamin Głuszek, w tym w #25, #29, #31 i #32 oraz na stronie). Furman wykreował sytuację sprzęgającą nadawcę z odbiorcą-współtwórcą wirtualnej rzeczywistości. Nadawca nakłada na siebie sprzęt hełm Epoc EEG i na podstawie danych zczytywanych z jego fal mózgowych tworzona zostaje wirtualna rzeczywistość, którą obserwuje i po której porusza się stojący niedaleko odbiorca, wyposażony w specjalne gogle. Środowisko i dźwięki VR zmieniają się w zależności od amplitudy fal mózgowych nadawcy. Ponadto, odbiorca może wchodzić w interakcję ze światem mózgowych fal nadawcy poprzez poruszanie specjalnym „kijkiem”. Oboje – nadawca i odbiorca – są ze sobą sprzężeni: widzą i słyszą wirtualną rzeczywistość wykreowaną na podstawie fal mózgowych nadawcy i akcji odbiorcy.
Tutaj, poza interakcją opartą na pętli sprzężenia zwrotnego, powraca problematyczność sonifikacji danych. Ciekawe dlaczego w projektach związanych z falami mózgowymi przeważnie jako ich reprezentacji używa się fletowo-elektronicznych ambientów. Czemu mózgi nie grają zmodyfikowanego country albo rave’ów? Najciekawszy przy sonifikacji wydaje się dobór dźwiękowej reprezentacji, bo czy to wybór tylko estetyczny? Oczywiście, że nie. Gdzieś kulturowo, intuicyjne czujemy, że mózg grający country nie byłby wystarczająco wiarygodny. Czemu kupujemy zatem mózg grający ambient? Być może kultura popularna przemyciła nam już podprogowo wyobrażenie dźwiękowej reprezentacji mózgu…
Playground Marty Nawrot to instalacja z zabawkami, częściowo własnoręcznie zbudowanymi, częściowo zhakowanymi. W wydzielonej przestrzeni Bunkra Sztuki rozrzucone zostały laserowe, często poruszające się zabawki: miecze laserowe, pistolety, samochody, roboty itd. W ramach ekspozycji dostępna była też szybka, na której zabawkę można było położyć i nagłośnić za pomocą mikrofonu kontaktowego. Praca Nawrot mocno łączy się z instalacją/performansem Pinball Dub Sound System, w którym Jarosław Gula Sound Orchestra grała jedynie przy użyciu flipperów. W obu wypadkach chodzi o granie obiektami dźwiękowymi, chociaż może należałoby nazwać te projekty VGM (video game music) czy nawet mixem didżejskim – wybrane zabawki i automaty posiadały bowiem całą paletę wgranych dźwiękowych mikro-kompozycji. Zastanawiam się jednak, czy pomysł polegający na dostrzeżeniu muzycznego potencjału w przedmiotach z wbudowanymi „melodyjkami” faktycznie może wydać się jeszcze komuś intrygujący, zważając na obecne możliwości udźwiękowienia, bądź grania praktycznie na dowolnym obiekcie. Obie prace zyskałyby, gdyby umieszczono je w szerszych kontekstach poruszanych przez nie zagadnień. Wybrane do obu projektów przedmioty są oczywiście dziś atrakcyjne jako nostalgiczne relikty, przejawy hauntologicznego zwrotu w stronę przeszłości. Oba ocierają się także o tematykę tzw. soundbrandingu, czyli dizajnu dźwiękowego kapitalistycznie motywowanego zyskiem. Dźwięk staje się wtedy logiem – wszyscy wszak kojarzymy brzmienie pinballa, czy strzału z laserowego pistoletu, tak samo jak dźwięki uruchamiania kolejnych edycji Windowsa. Niestety podczas festiwalu nie przedstawiono żadnego teoretycznego kontekstu dla tych prac, żadnego podparcia czy wyjaśnienia. Zabawki rozrzucono na podłodze. Nigdzie nie było nawet instrukcji dla zwiedzających, być może odrobinę zagubionych w przestrzeni i programie. Właściwie, poza wykładem Andrey’a Smirnova i jego prezentacją rhythmiconu (o którym więcej poniżej) i występem Tomem Bucknerem, jedynie nieliczne koncerty poprzedzone były odpowiednią, krótką i spójną, prelekcją. A szkoda, bo nie każdy ma czas przejść się w samo południe na wykład interesującego daną osobę artysty.
Wracając – na tym samym piętrze można było zobaczyć także Ethnic Diversity in Sites of Cultural Activity, kontrowersyjną instalację Ryo Ikeshiro. Stojący w oddali komputer wykrywał twarz przechodnia, badał jego karnację i na jej podstawie odtwarzał jeden z trzech wybranych przez artystę utworów. Ryo Ikeshiro ponoć zmienia bazę tych piosenek w zależności od miejsca, w którym przedstawia projekt (w Wiedniu w jej skład wchodziło Zombie Feli Kutiego i walc Nad Modrym Dunajem Johanna Straussa Syna). Na krakowską wersję składała się: Rota, My Ummah Dawn Has Appeared Nasheed oraz Go West Pet Shop Boys… Ikeshiro pragnął zwrócić uwagę na to jak rzadko zastanawiamy się nad działaniem samego software’u skupiając się na interfejsach. Zadaje pytania „czy komputery mogą przejawiać zachowania rasistowskie?” i „czy mogą dyskryminować za pomocą technologii wykrywającej twarze?”. Komputery (przynajmniej aktualnie) nie są odseparowanymi od ludźmi samoświadomymi bytami, lecz funkcjonują w tej samej sieci zależności co my. Projekt, skupiając się na rasistowskich działaniach algorytmów, podkreśla w efekcie to, jak ludzie, sami siebie, w algorytmiczny, zero-jedynkowy sposób kategoryzują i segregują. Zagadką pozostaje dla mnie wciąż klucz, według którego Ryo Ikeshiro dopasował znane utwory do karnacji odbiorcy.
W sobotę zaprezentowano także trzy performanse. Aqui, no Ahora Alessandro Olla i Vera Livia Garcia polegał na sfilmowanym tańcu opowiadającym o stanie pomiędzy snem a jawą „in between”, podczas którego wykonawczyni śledziła samą siebie ze snu, synchronizowała się, bądź wybijała z filmowej narracji. Dalej nastąpił dronowo-noisowy koncert na wszelkiego rodzaju sprężyny Alfredo Costa Monteiro oraz projekt Heike Fiedler i Marii Schwab, który na tle reszty najbardziej się wybił. Elektroakustyczna muzyka, visual-sound poetry i elektro skrzypce w wykonaniu obu pań odrobinę przypominały sposób narracji Laurie Anderson. W tym wypadku jednak był on mocno repetytywny i dynamicznie skaczący między czasami dość odległymi wątkami. Fiedler i Schwab poszatkowały języki, słowa i znaczenia, aby ułożyć z nich kolażowe opowieści m.in. o polityce, władzy, zakazach, kobiecym ciele, czy seksizmie. Przywoływały na projekcji z tyłu akty symbolicznej przemocy w postaci zwrotów takich jak „she should”, czy „it is strictly forbidden”. To była spójna wizualnie i dźwiękowo, utrzymująca do końca w napięciu kompozycja, wykorzystująca szereg zabiegów dźwiękowych, a nawet retorycznych, skupiających uwagę odbiorcy (jak np. dynamiczna poezja dźwiękowa, specyficzne powtórzenia, szepty i dziwne intonacje). Zakończenie było jednak zaskakujące i odrobinę niejasne — publiczność w pewnej chwili otrzymała balony do grania, aby ostatecznie je przebić… Mnie ten motyw fizycznego zaangażowania odbiorców odrobinę wytrącił z opowieści, co nie zmienia faktu, że stanowiła ona jeden z lepszych punktów tegorocznego programu Audio Artu.
Bardzo się cieszę, że przy okazji Audio Artu udało się Markowi Chołoniewskiemu ponownie sprowadzić do Krakowa rekonstruktora, muzyka, teoretyka i kolekcjonera dziwnych grających maszyn — Andrey’a Smirnova. Przyjechał z rhythmiconem, jednym z zaledwie dwóch istniejących na świecie prototypów automatu perkusyjnego zaprojektowanego przez Henry’ego Cowella, a wykonanym przez Leona Theremina w 1931 roku. Niestety, podczas koncertu kapryśna maszyna nie zadziałała (jego właściciel mówi, że właściwie nigdy nie działała dobrze) i Smirnov musiał wspomagać się wcześniej nagranymi samplami. Dużej krzywdy nie było, ponieważ ostatecznie wszyscy usłyszeliśmy odrobinę wyraźniejszą dźwiękowo wersję brzmienia rhythmiconu. Co więcej, następnego dnia podczas 3-godzinnego wykładu mogliśmy dowiedzieć się nie tylko, jak zbudowany jest i jak działa optyczny syntezator, ale mogliśmy także sporo usłyszeć na temat innych dźwiękowych eksperymentów w Związku Radzieckim. Wszystkim, którzy nie uczestniczyli w wydarzeniu, serdecznie polecam dostępną w internecie książkę Smirnova Sound in Z. Experiments in Sound and Electronic Music in Early 20th-century Russia.
Po unikatowym spotkaniu z rhythmiconem na scenę wkroczyła ekipa z krakowskiego zespołu Moon2 w składzie: Tomek Chołoniewski, Ernest Ogórek i Dennis Kolokol. Przed nami stała perkusja, bas i elektroniczny sprzęt – który, jak się później okazało, był ruchowym dźwiękowym interfejsem. Często korzysta się z tej technologii tylko dlatego, że wygląda atrakcyjnie i robi wrażenie. Nie tym razem! Wreszcie ktoś użył ruchowego interfejsu nie tylko w celu popisania się nowymi mediami lecz do przemyślanych kompozycji. Widać, że wyboru tego instrumentu dokonano kierując się efektami, które chciano osiągnąć (rodzajem dynamiki, przejść między dźwiękami itd.). Doceniam też równorzędność basu, perkusji i sterowanej ruchowo elektroniki, dzięki czemu udało się zachować przyjemny dla odbiorcy balans intensywności. Nie można jednak pominąć wielkich, początkowo zagadkowych, projekcji w tle. Obraz przypominał ekran komputerów NASA monitorujących satelitę (a przynajmniej ja to sobie tak wyobrażam). Po chwili wśród wykresów, tabelek i punktów wybijać zaczęły się zarysy wykonywanych przez Dennisa Kolokola ruchów. W tle przetwarzane były ogromne ilości danych, a my słyszeliśmy rytmiczne jazzująco-punkująco-elektroniczne muzyczne kombinacje. Moon2 to zarówno dźwiękowo, jak i wizualnie, bardzo satysfakcjonujący projekt. Po ilości sprzedanych płyt i podsłuchiwaniu zakulisowych szeptów, gdy publika zastanawiała się, kiedy zespół zagra po raz kolejny, wnioskuję, że udało im stopniowo rozbudzić ciekawość, co nie stało się udziałem wszystkich wykonawców.
Erik Bosgraaf uznawany za jednego z najwybitniejszych na świecie wirtuozów fletu prostego wystąpił przy okazji festiwalu w Krakowie. Jako ciekawostkę dodam, że w 2011 roku zachwycony artyzmem Bosgraafa Pierre Boulez udzielił muzykowi zezwolenia na aranżację Dialogue de l’ombre double na flet. Podczas Audio Artu z Bosgraafem zagrał Jorrit Taminga odrobinę przesterowując i subtelnie uzupełniając brzmienia przeróżnych zmodyfikowanych fletów, które Erik przywiózł ze sobą do Krakowa. Nie spodziewałam się ani tego, że ten koncert będzie tak absorbujący (reklamy Bosgraafa jako dzikiego improwizatora sięgającego po repertuar od Czterech Pór Roku Vivaldiego do „muzyki jutra” nie brzmiały zbyt zachęcająco…), ani nie przewidywałam tak dobrego zgrania fletu prostego z elektroniką. To była miła niespodzianka.
Kolejnym wyróżniającym się punktem programu był koncert Jonathana Reusa iMac Music, który muzyk-kombinator zagrał na starym apple’owskim komputerze (model iMac G3) – tyle że „na” znaczyło tu „w”. Pomijając to, że oczywiście pomysł grania na wnętrznościach zamiast za pomocą oprogramowania jest sam w sobie ciekawy, to Reus pokazał nam także wizualną wersję jego „operacji” na pacjencie, którego pulpit wciąż zachowywał przytomność. Zarówno dźwiękowo, jak i na rzucie ekranu obserwowaliśmy działania performera w postaci audiowizualnego hałasu pozatechnologicznego intruza, który przeskakiwał między ikonami, pulpitami, oknami niczym piszczący wirus z poczuciem rytmu. Prosty, lecz imponujący pomysł traktujący komputer dosłownie jako instrument. Wykonanie przypominające w samym procesie operacje zwinnego hackera-elektryka. Trudno powiedzieć na ile mieliśmy do czynienia z improwizacją, na ile z kompozycją. Pod koniec zastanawiałam się nawet, czy Reus swoim koncertem nie dokonał symbolicznego pogrzebu wszelkich lęków, które pojawiały się wraz z erą computer music, związanych z tym, że te doskonałe maszyny zautomatyzują naszą muzykę i odbiorą sprawczość wykonawcom. Jedni w tym kontekście udowadniają, że komputery posiadają emocje (jak Holly Herndon i jej tech-topia), inni przypominają o ich przedmiotowości (jak Reus), o której chyba zapomnieliśmy zrastając się już z tymi maszynami-przedłużeniami. Ale to zdecydowanie temat na oddzielny artykuł, bo w końcu koncert Johnatana Reusa trwał zaledwie kilkanaście minut (szkoda!).
Trzecim jasnym punktem drugiej połowy Audio Artu był występ Hybryduo Pawła Romańczuka i Cezarego Duchnowskiego. Jak sugeruje nazwa był to koncert na hybrydyczne instrumento-obiekty, które łączyły ze sobą analogowe i cyfrowe dźwiękowe uniwersum. W Bunkrze stały przed nami dwa muzyczne mutanty — pierwszy klawiszowy, potrącający trzy zestawy obiektów: półokrągłe fragmenty fornirowej wycinanki, powyginane druty/fragmenty metalu i unieruchomione winylowe płyty, których dźwięki trafiają do komputera Duchnowskiego; druga hybryda wygląda jak osobliwe stanowisko pracy, przy którym komputer i płyty CD przeistoczone zostały w metalową perkusję, a lampa w druciany instrument… Tych elementów o dźwiękowym potencjale zaprojektowanych przez Pawła Romańczuka było na hybry-biurku zdecydowanie więcej, ale nie sposób ich wszystkich opisać. Uczestnicząc w koncercie nie mogłam nadziwić się relacji miedzy wizualną, a dźwiękową warstwą (momentami te surowe maszyny nawet udawały ludzko-zwierzęce odgłosy). Obraz nie pasował mi do muzyki, a mój mózg mimo usilnych prób synchronizacji obu warstw nie znalazł w swojej bibliotece podobnych audiowizualnych kombinacji. W głowie pojawiał mi się tylko przelotnie Harry Partch z jego oryginalnymi instrumentami i odpowiednim systemem muzycznym. Cóż, Hybryduo nowym i zaskakującym brzmieniem skonstruowanych instrumentów udowodniło, że pragnąc osiągnąć konkretne dźwiękowe efekty i specyficzny sposób interakcji z obiektem, można podjąć próbę zbudowaniem swojego własnego interfejsu. Romańczukowi i Duchnowskiemu odwaga, chęć i umiejętności pozwoliły stworzyć zdumiewająco sprawne i zaskakująco brzmiące hybrydy.
Ostatnim projektem, o którym chciałabym wspomnieć jest Fluctuations Franciszka Araszkiewicza i Michaela Fishera. Projektów z wykorzystaniem fal mózgowych pojawiło się na festiwalu kilka: Ja I Ty = Jestem Łukasza Furmana, Neuromusic Beniamina Głuszka i wspomniany performans Fluctuations. Widać, że Alvin Lucier swoim Music for a solo performer z 1965 roku otwarł szeroką przestrzeń eksperymentalną dla nowych pokoleń. Jednakże, projekt Fluctuations prezentował bardziej popisowo-koncertowe zastosowanie EEG przez Araszkiewicza, które w wyniku sprzężenia z elektroniką, kilkoma innymi muzycznymi kontrolerami i mlaszczącym, przesterowanym saksofonem Fishera, zaowocowało złożoną, rytmiczną i mocno brzmiącą kompozycją. Wnioskując po ilości oklasków i bisie duetu — takich projektów publika chciałaby podczas Audio Artu więcej.
Poszukiwania czy podsumowania?
Po tegorocznej edycji mam wiele pytań i emocji. Wrócę więc do pytań: na ile nazwa festiwalu zobowiązuje? Oraz: czy przy jego okazji można oczekiwać nowych, świeżych i innowacyjnych projektów? Być może impreza ma raczej pełnić bardzo zresztą potrzebną rolę edukacyjną i prezentować dźwiękowe osobliwości i historię dyscypliny osobom, które wcześniej nie zastanawiały się głębiej nad naturą dźwięku? Szkoda w takim razie, że spora część z wykładów odbywa się w ciągu tygodnia w południowych godzinach w małej sali na Akademii Muzycznej i zaledwie nieliczne koncerty poprzedzone są krótkim wprowadzeniem. Niewykluczone, że to zbyt szeroki program i pojawiające się liczne problemy organizacyjno-techniczne generowały dodatkowe poczucie dyskomfortu w trakcie intensywnych 10 dni festiwalu.
Jeśli kierować się przekonaniem sporej części twórców i krytyków, że w sound arcie chodzi przede wszystkim o przestrzeń, to zastanawiam się dlaczego spora część z projektów prezentowanych podczas tegorocznej edycji Audio Artu nie odwoływała się do żadnej konkretnej przestrzeni, fenomenu dźwiękowego, specyficznego sposobu słuchania, czy ciekawego użycia nowych technologii. Niestety, żaden z około 40 projektów tegorocznej edycji nie rozszerzył naszych horyzontów w kategorii rozumienia sound artu. Nie chodzi tu o ciągłą gonitwę za nowościami, lecz o projekty, które dotyczą czegoś więcej, niż dźwięku samego w sobie.
Mimo tych uwag, pytań i wątpliwości Audio Art to ważny punkt na mapie dźwiękowych wydarzeń w Polsce. Od 25 lat mierzy się z kategorią muzyki, eksperymentów, sztuki dźwięku i nowych mediów. Często operuje szerokim spektrum dźwiękowych działań sięgających od muzycznej awangardy, eksperymentu i improwizacji, przez instalacje, wideo i performanse, po projekty nowomedialne. Tym razem odczułam nie tyle brak innowacji, co brak kreatywności w projektach zaproszonych do tak ważnej, bo przecież 25. edycji festiwalu – festiwalu, który wielokrotnie udowodnił, że stara się być na bieżąco z aktualnymi zjawiskami w sztuce dźwięku i chwytać je, nim staną się szerzej znane.
Anna Prokop