Design - Head - Color
default
Ausstellung

The Morning Line plays

elektroakustische Werke von Ludger Brümmer

Mo, 01.03. – Fr, 30.04.2021

© ZKM | Zentrum für Kunst und Medien Karlsruhe, Screenshot: ZKM | Videostudio
Ort
Vorplatz

Im März und April erklingt ein Querschnitt durch das musikalische Schaffen des Komponisten und ZKM | Hertz-Labor Leiters Ludger Brümmer über das mehrkanalige Lautsprechersystem des Klang-Pavillons. 

Inmitten der Pandemie breiten sich Klänge ohne Musiker:innen auf dem Platz der Menschenrechte aus. Der Klang-Pavillon »The Morning Line« spielt elektroakustische Werke von Ludger Brümmer, die den ganzen Tag und Abend über zu hören sind.

»The Morning Line« besteht aus 41 Lautsprechern und 12 Subwoofern, die über eine zentrale Kontrolleinheit gesteuert werden. Er wurde vom Künstler Matthew Ritchie sowie den Architekten Aranda\Lasch und der Advanced Geometry Unit (AGU) von ARUP speziell für die Wiedergabe raumgreifender elektroakustischer Kompositionen konzipiert. Die Installation ist ein überdimensionaler, für Besucher:innen zugänglicher Klangkörper. Das einzigartige Soundsystem wurde von Tony Myatt und dem Music Research Centre of York University entworfen.

Admin Title
D7 Paragraph: r17_text / GPC_ID: 113746
Layout
flex-row-9-3 reverse

Titel:

»Ambre, Lilac« (1994/ 95) 21’45''

»Carlo« (2004) 22'

»Cellularium« (2009) 18’25''

»Deconstructing Double District« (2011) 4’50''

»De la Nuit« (1999) 18’12''

»Falling« (2020) 27’30''

»Glasharfe« (2006) 19'

»Nyx« (2001) 27’50''

»Phrenos« (1997) 18’45''

»Spin« (2014) 18'

»Urban Voices« (2013) 62'

»Repetitions« (2005) 21’40'' 

»The Gates of H.« (1993) 18’50''

Admin Title
D7 Paragraph: r17_text / GPC_ID: 113747
Layout
flex-row-9-3 reverse

Die Titel werden in zufälliger Wiedergabe abgespielt.

Admin Title
D7 Paragraph: r17_faq / GPC_ID: 113748
Display
list-accordion
Layout
undefined
Admin Title
D7 Paragraph: r17_faq / GPC_ID: 113749
Display
default
Layout
default-12

Ludger Brümmer über seine Werke

  1. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113750
    Display
    default
    Layout
    default-12

    »Ambre, Lilac« (1994/ 95) 21’45''

    In »Ambre, Lilac« sind sowohl Klangfarbe, Tonhöhe, Dauer und Struktur als auch Dichte, Bewegungsrichtung sowie die Geschwindigkeit der Klangbewegung im Raum komponiert. Ich wollte Klänge schaffen, die so stark sind, dass man nicht nur Farben oder Körper mit ihnen assoziiert, sondern sie selbst als Farbkörper empfindet. Dazu diente vor allem das quadrophonische Syntheseverfahren, in dem ein zumeist aus vielen kleinen Partikeln bestehender Klang in ein räumliches Environment hineingesetzt wird. Dadurch kann ein Klang entweder aus einem Punkt innerhalb der vier Lautsprecher ertönen oder aber über den gesamten Raum verteilt. Derselbe Klang ist zeitlich leicht verschoben von mehreren Orten zugleich in voller Länge hörbar. Dabei evozieren die gleichen Frequenzen und Spektren immer unterschiedliche Wirkungen. Der Klang kann somit entweder als gegenständlich, als Environment oder als Raum wahrgenommen werden.

    Ein kurzes Sample aus einem indischen Raga mit Sitar und Tampoura bildet dabei den Ausgangspunkt für neue Klangwelten in »Ambre, Lilac«. Die Modifikation des Ausgangsmaterials habe ich bewusst auf die Veränderung der Reihenfolge der Klangpartikel und die Abtastratenkonvertierung beschränkt. 

    Die Größe der Partikel liegt im Bereich zwischen Millisekunden (Granularsynthese) und mehreren Sekunden. Die Klangpartikel wurden in unterschiedlichen Rhythmen vorwärts oder rückwärts ausgelesen und jeweils mit einer spezifischen Tonhöhe, Hallmenge, Lautstärke und Raumposition versehen. Jedes einzelne dieser Partikel ist ein vollständiges Event. Das heißt, es ist mit einem vollständigen Parameter-Set ausgestattet. Die Parametergrößen sind Resultate verschiedener algorithmischer Prozesse. Der wichtigste Algorithmus erzeugt eine fraktale Struktur, die wiederum Tonhöhen, Klangorte, Hallanteile usw. generiert. 

    Das Stück wurde 1994/ 95 mit dem von William Schottstaedt (CCRMA, Stanford) und Heinrich Taube (ZKM | Karlsruhe) entwickelten Musiksynthese- und Signalverarbeitungspaket »Common Lisp Music« sowie mit Fernando Lopez (CCRMA, Stanford) Software »dlocsig« zur akustischen Modellierung von Raumbewegungen am NeXT-Computer-Netz des ZKM | Institut für Musik und Akustik (heute Hertz-Labor) generiert.

  2. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113751
    Display
    default
    Layout
    default-12

    »Carlo« (2004) 22'

    »Carlo« ist eine Auseinandersetzung mit Madrigalen Carlo Gesualdos (1566 – 1613) und der Versuch, zwei völlig unterschiedliche Prinzipien des Tonsatzes miteinander zu vernetzen: der in dem Madrigal enthaltene Tonsatz mit seiner auf die stimmlichen Fähigkeiten bezogenen tonalen bzw. chromatisch-harmonischen Gestalt und zeitgenössische durch die Technik der seriellen Musik und mathematische Ordnungskonzepte geprägte Strukturideen. Letztere wurzeln in dem Bestreben neue Gestaltprinzipien aufzuspüren und einen zeitgenössischen Struktursatz mit hoher Komplexität aber einfacher Zugänglichkeit zu generieren.

    Die Idee, ein Renaissance-Madrigal als Substanz für eine moderne Komposition zu benutzen erweckt zuerst den Anschein, das Resultat eines postmodernen Gedankens zu sein. Allerdings muss man hier differenzieren zwischen einer postmodernen Zitiertechnik und der heterogenen Implementierung fremden Materials in einen neuen Kontext. Unsere gegenwärtige musikalische Kultur stützt sich nämlich keineswegs nur auf zeitgenössische Musik allein. Gegensätzlich zu früheren Kulturperioden projiziert sie mir ihrer historisierenden Sicht verschiedene Epochen und Kulturen in die Gegenwart. Unsere Zeit ist also ein Mosaik aus unterschiedlichsten Stilen, Kulturen und Zeiten. Ganz selbstverständlich werden diese voneinander getrennt entstandenen Musiken in unserer Wahrnehmung miteinander kombiniert. In »Carlo« wird diese Kombination zu einer Existenzfrage zugespitzt: das Neue ist aus dem Alten gebaut. Das alte Gebäude wird zu einem Steinbruch es wird verändert, erweitert, eingerissen und zerstört, wie es in der Architektur schon immer geschehen ist. Es geht in diesem Werk somit auch um den Versuch einer Antwort auf die schmerzliche Frage, warum dieses Neue überhaupt entstehen soll.

    Eine Auftragskomposition des Musikwissenschaftlichen Instituts der Universität zu Köln 2004.

    Entstanden am ZKM | Institut für Musik und Akustik (heute Hertz-Labor).

  3. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113752
    Display
    default
    Layout
    default-12

    »Cellularium« (2009) 18’25''

    In »Cellularium« finden physikalische Modelle verschiedene Artikulationsmöglichkeiten. Der Großteil der hörbaren Klänge wurde mit unterschiedlichen Modellen einer Saite anhand der Software »GENESIS« (ACROE, Grenoble) hergestellt. Die verwendeten Modelle erzeugen jedoch nicht nur einzelne Klänge, sondern auch ganze Phrasen. Viele der gitarrenähnlichen Klänge sind deswegen vollständig von einem physikalischen Modell erzeugt und wurden lediglich transponiert. Neben der Verhallung wurden keine weiteren Klangeffekte verwendet, sodass die originalen Modelle unverändert sind.  

    »Cellularium« entstand in den Studios des ZKM | Institut für Musik und Akustik (heute Hertz-Labor) anlässlich der Feier zum 20. Jubiläum des ZKM | Karlsruhe und wurde gemeinsam mit einer visuellen Partitur für die aus 3125 LED-Scheinwerfern bestehende Lichtinstallation CHROMA_LUX der Künstlerin Rosalie entwickelt. Die Uraufführung fand am 09.10.2009 im Rahmen der Eröffnung zur Ausstellung »Imagining Media@ZKM« im Foyer des ZKM | Karlsruhe statt.

  4. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113753
    Display
    default
    Layout
    default-12

    »Deconstructing Double District« (2011) 4’50''

    »Deconstructing Double District« entstand ursprünglich als Musik zu einem gleichnamigen Video von Volker Kuchelmeister. Es kombiniert die Visualisierung eines Tanzduos in Stereo 3D mit räumlichen Klängen und einer packenden Dramatik. Das Ergebnis ist eine sich unendlich wandelnde dreidimensionale akustische Form, mit unterschiedlichen rhythmischen Bewegungen und Geschwindigkeiten. Entscheidend für das knapp fünf Minuten dauernde Werk ist die dramaturgische Entwicklung der Musik. Nach dem plötzlichen Beginn schraubt sich die Energie unaufhörlich in die Höhe, um in einer turbulenten Klimax plötzlich zurück ins Nichts zu fallen. Diese Form zieht Hörer:innen sofort in ihren Bann, sodass das Werk im Klangpavillon »The Morning Line« rein akustisch präsentiert wird.

  5. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113754
    Display
    default
    Layout
    default-12

    »De la Nuit« (1999) 18’12''

    »De la Nuit« wurde 1999 für das Berliner Festival Kryptonale komponiert und in ausgedienten, unter die Erde gelegten Wassertanks am Prenzlauer Berg in Berlin uraufgeführt. Grundlage für die Klangkonzeption und für die formale Gestaltung des Stückes ist die Akustik der Tanks. In diesem Fall war der Raum unter der Erde also eine Art Inspiration für den Geist des Werkes.

    Die in diesem Stück verwendeten Quellen für die Signalmanipulation haben scheinbar nichts miteinander zu tun: ein Sample eines folkloristischen bulgarischen Instrumentalstückes, ein kurzes Sample eines Songs der Band Massive Attack sowie einige Metallklänge, die mit der Physical-Modelling-Software »GENESIS« (ACROE, Grenoble) erzeugt wurden.

    Während das Sample von Massive Attack kaum wiederzuerkennen ist, wurde die bulgarische Folklore mit Transpositionen kontrapunktiert. Der seltsamste Moment des Stücks entsteht an dessen Ende, wenn die Folklore rückwärts und gemeinsam mit einigen metallischen Gongklängen ertönt. Dabei wurden nicht nur die Klänge in dem physikalischen Modell erzeugt, sondern auch die Rhythmik, Phrasierung und Lautstärke. Dies geschieht durch ein sehr langsam schwingendes Objekt, dem Schlägel, der die Musikalische Gestalt vollständig aus Pendelbewegungen entstehen lässt.

    Ein kompositorisches Objekt als Quelle für ein neues Werk zu nutzen ist eine spezielle Situation. Bei der Entstehung eines aus Samples bestehenden Stückes gibt es zwei sehr spannende Momente, die über den Geist der entstehenden Komposition entscheiden. Das erste Moment ist die Arbeit mit dem Sample selbst. Wird es komplett zerstört oder widersetzt es sich allen Modifikationsversuchen? Gelingt es mit Hilfe des Samples eine neue Struktur zu entwickeln oder bleibt es weiterhin ein vereinzeltes Ereignis?

    Ein Klavierereignis zum Beispiel kann mit verschiedenen Methoden verändert werden: es kann gedehnt, verkürzt, umgekehrt und im spektralen Bereich modifiziert werden und bleibt trotzdem ein Ereignis; es kann mehrfach in verschiedenen Tonhöhen, räumlichen Lagen, Hallanteilen verwendet werden oder man kombiniert all diese Methoden miteinander, um eine komplexe Struktur zu schaffen, die sich vom bisherigen Ereignis unterscheidet.

    Das zweite Moment entsteht bei der Kombination mehrerer Strukturen, die alle einen anderen Charakter haben. Aus diesen Patches entwickelt sich eine neue musikalische Geschichte oder eine gänzlich verschiedene Zeitlinie. Zusätzlich müssen sowohl psychoakustische als auch ästhetische Aspekte berücksichtigt werden. Ein Klang oder eine Struktur können eine andere überdecken, wenn diese in einem ähnlichen Frequenzbereich liegt. Zwei Abläufe können miteinander verschmelzen, wenn sie eine ähnliche Geschwindigkeit, Tonhöhen und Klangsubstanz haben. Diese Probleme müssen mit Signalverarbeitungstechniken wie Transposition, Stretching oder Looping gelöst werden.

    Der Prozess, die unterschiedlichen Strukturen miteinander zu kombinieren, geht über einen klassischen Mix hinaus, bei dem nur Modifikationen an Amplitude und Dauer vorgenommen werden. Hierbei werden viele Möglichkeiten ausprobiert und wieder verworfen. Klänge werden dabei zumeist in Form von Transpositionen weiterverarbeitet und in den unterschiedlichsten Kombinationen ausprobiert. In der daraus resultierenden Komposition kommen letztendlich lediglich 10% der erzeugten Strukturen zum Tragen. Die restlichen 90% waren nötig um genau die richtige Kombination von Elementen zu ermöglichen.

    Anstatt es einen Mix zu nennen, würde ich dies als eine Kombination aus Interpretation (Reaktion auf den Inhalt der Strukturen) und kompositorischer Idee (der Struktur etwas entgegensetzen) betrachten. In der fertigen Komposition können Hörer:innen beurteilen, ob sich die einzelnen Elemente zu einem sinnvollen Ganzen zusammenfügen.

    Sie können feststellen, dass ein musikalisches Narrativ durch das Stück entwickelt wird, dass die Klänge in der Lage sind, Spannung und unterschiedliche Energieniveaus zu erzeugen, dass ein Crescendo mehr als eine Steigerung der Dynamik ist, oder dass das Werk mehr ist als die Klänge, aus denen es gemacht ist.

    »De la Nuit« wurde mit den Programmen »Snd«, »Common Lisp Music« (William Schottstaedt, CCRMA, Stanford), »GENESIS« (ACROE, Grenoble) und »Common Music« (Heinrich Taube, Illinois) erstellt und auf SGI-Computern im ZKM | Zentrum für Kunst und Medien Karlsruhe aufgeführt.

  6. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113755
    Display
    default
    Layout
    default-12

    »Falling« (2020) 27’30''

    Die akusmatische, 42-kanalige Komposition »Falling« entstand für die Uraufführung im Centro de Cultural de Belem in Lissabon. Anlässlich des Beethovenjahres 2020 behandelt »Falling« eine sehr späte Komposition des Meisters: »Die Große Fuge« (op. 133). Dieses Streichquartett lieferte das Tonmaterial für sämtliche Klänge des Stückes. Für »Falling« wurde das Material völlig auf den Kopf gestellt, in neue energetische Gestalten gepresst und verfolgt dadurch einen eigenständigen dramaturgischen Verlauf. Trotzdem scheinen einzelne Phrasen oder Akkorde Beethovens immer wieder durch. Hierzu muss man die zugrunde liegende Komposition nicht kennen und kann sich auch ohne diesen Hintergrund auf diese ausladende Komposition einlassen, die einige überraschende Wendungen aufweist. Wird das Material am Beginn immer weiter mit Energie aufgeladen, die Zeit immer weiter komprimiert, so kippt dies nach einer Weile um und wendet sich dem Zeitlosen, der Ausdehnung des Moments zu. Einige Akkorde Beethovens werden ins Unendliche ausgeweitet, ähnlich der Ausdehnung von Zeit in der Nähe von Orten extremer Dichte, wie es bei schwarzen Löchern der Fall ist. Zurück bleibt das Erleben eines kurzen Moments in einer extremen Dauer.

    Eine Auftragskomposition des »Arte No Tempo« Lissabon

  7. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113756
    Display
    default
    Layout
    default-12

    »Glasharfe« (2006) 19'

    Eine Glasharfe ist ein Instrument, auf dem Klänge durch Anstreichen oder Anschlagen von chromatisch gestimmten Gläsern erzeugt werden. Glasgeräusche nehmen in der akusmatischen Musik eine zentrale Stellung ein, da sich ihr Timbre während des Erklingens vom Geräusch bis hin zu einem definierbaren Ton wandelt. Dabei reicht das Spektrum der Töne von gestrichenen über angeschlagenen Klanggesten bis hin zum eindeutigen Geräusch von zerbrechendem Glas.

    In der Komposition »Glasharfe« wird mit diesen unterschiedlichen Qualitäten experimentiert. Innerhalb dichter, durch algorithmische Techniken erzeugten Strukturen können sich die Eigenschaften von Klängen erheblich verändern. Diese Veränderungsgrade reichen an manchen Stellen sogar bis hin zu Metall- oder Holzklängen, obwohl es sich nur um Transpositionen der ursprünglichen Glasklänge handelt. Zusätzlich zu den mit Glas erzeugten Tönen sind auch Klavier- und Celestaklänge zu hören, die beide ebenfalls einen glasklaren Klang haben können. Neben der Klangfarbe spielt auch die Struktur eine entscheidende Rolle. Diese entsteht durch die Verteilung von Rhythmik und Tonhöhe der Klangpartikel. Darüber hinaus werden den Klangpartikeln räumliche Informationen zugewiesen.

    Dieses Werk wurde vollständig im 192kHz Verfahren hergestellt. Schon bei der Aufnahme der Klänge wurden spezielle Hochfrequenzmikrofone verwendet. Zusätzlich bietet die hohe Auflösung von 192kHz den Vorteil, dass man die Klänge ohne den Verlust von Obertönen auf- und abtransponieren kann.

    »Glasharfe« entstand in den Studios des ZKM | Institut für Musik und Akustik (heute Hertz-Labor) als Auftragskomposition des französischen Ministeriums für Kultur und wurde am 25. März 2006 im Salle Olivier Messiaen der INA-GRM in Paris uraufgeführt.

  8. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113757
    Display
    default
    Layout
    default-12

    »Nyx« (2001) 27’50''

    Nyx ist die Göttin und Personifikation der Nacht. Hesiod schrieb in seiner »Theogonie« (11.116 138): "Erebus schuf das Chaos und die dunkle Nacht Nyx; Nyx gebar die helle Atmosphäre Aether und den Tag Hemera, den sie aus der Vereinigung mit Erebus, ihrem Bruder, empfing."

    Das Werk »Nyx« ist eines der ersten existierenden Werke, die in ihren musikalischen Grundstrukturen auf physikalisch modelliertem Kompositionsmaterial beruhen. Nicht nur die Klänge, sondern auch die Spielstruktur wurde mit der Software »GENESIS« (ACROE, Grenoble) modelliert. Als eine Art Gegenspieler zu den physikalischen Modellen verwende ich ein Zitat aus Claude Debussys (1862 – 1915) »Sonate für Flöte, Viola und Harfe«. Anstatt ein akusmatisches Stück zu schaffen, das sich mehr auf Klänge und Geräusche als auf Tonhöhen stützt, entwickelte sich eine Art melodische Struktur aus sich selbst heraus. Während die akusmatischen Skizzen immer schwieriger wurden, begann ich in unglaublicher Leichtigkeit mit dem Debussy-Zitat zu spielen. Dieses Stück ist eher eine prosaische Geschichte mit vielen bunten Bildern. Das erfordert ein anderes Hören, denn es sind eher Nuancen, die die Aufmerksamkeit lenken. Meistens ist die Tonhöhe die Achse, an der man entlanggehen muss. Sie ist das Glas, um in die Struktur des Klangs hineinzuschauen. Die meiste Zeit ist die Tonhöhe die Achse, an der man entlang geht, um - gleich einem Glas - in die Struktur des Klanges hineinzuschauen. Die Tonhöhe ist nur eine Wahrnehmungsebene, wahrscheinlich aber die offensichtlichste. Die Tonhöhe ist neben der rhythmischen, der klangfarblichen und der strukturellen nur eine Wahrnehmungsebene, wahrscheinlich aber die offensichtlichste. Sobald diese im sinnlichen Erfassungsprozess bekannt ist oder verstanden wird, sollten Hörer:innen ihr folgen.

  9. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113758
    Display
    default
    Layout
    default-12

    »Phrenos« (1997) 18’45''

    »Phrenos« ist ein Stück, das sowohl einen übermäßig dynamischen Kontrast als auch dynamische Prozesse verwendet, um synästhetische Erlebnisse auszulösen zu können. Das Werk soll Hörer:innen durchdringen und sie durch ihre eigenen emotionalen Landschaften führen.

    Dazu besteht »Phrenos« aus drei Arten von Klängen:

    • Dem Crescendo und einigen Tonhöhen aus Johannes Sebastian Bachs berühmtem Werk »Air«.
    • Einem Crescendo aus Nicolaus Hubers Werk »Auf den Flügen der Harfe« unter Verwendung einer Tonhöhe.
    • Lachen und drei gesprochenen Worten.

    Die Zusammenhänge zwischen den Instrumentalsamples sind offensichtlich. Neben den stilistischen Unterschieden verwenden diese Teile beide ein sehr langes Crescendo. Im Stück selbst wurden diese Klänge durch eine spezielle Technik mittels FFT-Analyse und Resynthese mit Formantfiltern von William Schottstaedt zusammengeschmolzen. Die resultierenden Klänge wurden dann zusammengemischt und weiterbearbeitet.

    Neben diesen Klängen bilden die Aufnahmen einer Stimme einen wichtigen Kontrapunkt. Sie wirken lebendiger und enthalten eine andere Art von Energie, die auch nach starker Bearbeitung nicht verloren geht. Die Stimme ist in einigen Momenten des Stücks fast unverändert zu hören, meist aber ist sie Quelle für repetitive Prozesse. Diese Prozesse werden mit »Breeding«-Algorithmen unter Verwendung rekursiver Strukturen erzeugt. Dabei löst ein Klang jeweils zwei weitere aus. Dadurch verdichtet sich die Struktur im Verlauf auf hunderte absolut synchronisierte Klangschichten. Durch die verwendete rekursive Programmierung lässt sich mit wenigen, aber hochkomplexen Codes eine interessante Struktur entwickeln, die mehrfach im Stücke zu hören ist.

    Ich nenne diese Algorithmen »Breeding«-Algorithmen, da aus einem Sound zwei weitere getriggert werden, aus diesen zwei Sounds werden dann vier weitere mit einer anderen Tonhöhenentwicklung erzeugt und so weiter. Im Endzustand sind mehrere tausend Klänge, die sich langsam entwickeln, als eine Art klangliche Veränderung des Signals hörbar. Alle Sounds verwenden entweder die gleiche Dauer und den gleichen Onset, klingen also parallel oder repetitiv, oder sie beginnen, unterschiedliche Dauern zu verwenden, sodass sich die parallele Startzeit langsam zu einem nicht einheitlichen Erscheinungsbild ausbreitet.

    Die rekursiven Strukturen wurden im 4-Kanal-Raum platziert. Die zusätzliche Verwendung von Delays und speziellen Dynamikkurven war nötig, um einen natürlicheren Eindruck zu erzeugen.

    »Phrenos« wurde im Auftrag des ZKM | Zentrum für Kunst und Medien Karlsruhe am Institut für Musik und Akustik (heute Hertz-Labor) auf dessen Computer-Cluster mit überwiegend Silicon Graphics Computern und William Schottstaedts Software-Synthese-Paket »Common Lisp Music« erstellt.

  10. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113759
    Display
    default
    Layout
    default-12

    »Spin« (2014) 18'

    Nachdem ich mit Granularsynthese und physikalischen Modellen arbeitete, interessierte ich mich für eine Klangqualität, die in all diesen verwendeten Techniken mehr oder weniger schon vorhanden war: das Rauschen.

    Die Klänge, die ich in »Spin« verwendet habe, begannen mit digitalem Rauschen. Dabei handelte es sich um Video- oder Datendateien, die als Rohdaten in einen Soundeditor eingelesen und dann so modifiziert wurden, dass die Informationsstruktur innerhalb der Videodatei hörbar wurde. Natürlich suchte ich nach Dateien, die eine gewisse periodische Information enthielten, sodass diese als eine mehr oder weniger gepitchte oder repetitive Klangqualität interpretiert werden kann. Nachdem ich diese Klänge modifiziert hatte, wurden sie mit anderen zuvor erstellten algorithmischen Strukturen querkomponiert. Dieser Prozess führte zu verschiedenen mehr oder weniger verrauschten Klängen, die von Zischen bis zu einigen "schmutzigen" Klangfarben reichen.

    In Verbindung mit einigen Samples von Streichinstrumenten und modifizierten Stimmen schuf ich die erzählerische Form von »Spin« mit der Absicht, eine Erfahrung von Geräusch zu erzeugen. Neben der rein akustisch im Klangpavillon »The Morning Line« präsentierten Fassung gibt es auch zusätzliche Versionen des Werkes mit, unter anderem, Videomaterial von Bernd Lintermann. 

  11. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113760
    Display
    default
    Layout
    default-12

    »Urban Voices« (2013) 62'

    Die Organisation städtischen Lebens mit all den dazu nötigen Elementen wie Architektur, Technologie und sozialem Verhalten stellt eine besondere Kulturleistung der Menschheit dar. Insbesondere die Gemeinsamkeit, die Synchronisation und Verständigung, aber auch das Wechselspiel zwischen Individuation und Gemeinschaft, zwischen Realität und Ideal bilden die notwendige Voraussetzung für die Entstehung solch komplexer, selbst entwickelter Lebensumgebungen, wie Städte es sind. Die Essenz der urbanen Realität liegt für mich in der Kultur und daher auch in der Kunst. Die Musik und die Stimme, die sich hier über die Architektur als akustische Grundlage aufbauen, geben ihr Ausdruck.


    In die Klanglandschaft »Urban Voices« sind Fragmente aus einem Werk des Renaissance-Komponisten Carlo Gesualdo (1566 – 1613) montiert, die verschiedene Aggregatzustände durchlaufen. Von der Menge bis zur Einzelstimme, von der Fläche bis zum artikulierten Rhythmus repräsentieren sie die Grundformen menschlicher Kommunikation, die Voraussetzung städtischen Lebens.

  12. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113761
    Display
    default
    Layout
    default-12

    »Repetitions« (2005) 21’40'' 

    Gewidmet Francesca von Habsburg

    Das Klangmaterial in »Repetitions« besteht ausschließlich aus Samples von Igor Stravinskys (1882 – 1971) »Le sacre du printemps«. Diese Samples wurden granuliert, also in kleine und kleinste Abschnitte zerteilt und danach wieder übereinandergeschichtet. Zusätzlich wurde jedes dieser Grains individuell in seiner Tonhöhe verändert. Allein diese beiden eher einfachen Bearbeitungen des Klanges bewirken eine völlige Veränderung der Musik. Die daraus entstehende Textur reicht von flächigen Klängen ohne Konturen, bis zu dichten Impulsketten ähnlich wie zersplitterndes Glas.

    Der Granulierungsprozess ist wie das Essen und Verdauen eines Materials, das in diesem Prozess in seine Moleküle zerteilt zu neuen Strukturen zusammengebaut wird.

    Für die Präsentation mittels »The Morning Line« wurde eine völlig neue Version der Komposition geschaffen und auf die Möglichkeiten des Pavillons angepasst. Bewegen sich Hörer:innen, so entsteht eine veränderte Abmischung an der jeweiligen Position im Pavillon. Dadurch schaffen sich Hörer:innen selbst eine interaktive Komposition. Das Hören wird somit zu einem aktiven, durch Entscheidungen von Bewegung und Stillstand geprägten Prozess.   

  13. Admin Title
    D7 Paragraph: r17_faq_item / GPC_ID: 113762
    Display
    default
    Layout
    default-12

    »The Gates of H.« (1993) 18’50''

    The »Gates of H.« wurde aus einem 120 Sekunden langen Sample eines Volksliedes generiert, das von einem Frauenchor gesungenen wird. Algorithmische Strukturen werden auf den Klang angewandt, wodurch Tonhöhe und Zeitposition von Teilen des Quellsamples verändert werden, sodass eine granulare Synthesestruktur entsteht. Die Idee, ein Klangbild auf diese Weise zu modifizieren, besteht darin, eine neue Struktur auf ein bereits bestehendes Bild anzuwenden und sie wie eine Maske über den Klang zu legen, wobei diese Maske in Zeit und Tonhöhe statt in Raum und Farbe besteht.

    Das Ergebnis ist ein Klang, der entweder die algorithmische Struktur freilegt (während das Klangbild unerkennbar wird), oder das Klangbild (wenn die Dauer der Grains lang genug ist und die Tonhöhe nicht extrem verändert wird). Mich interessierten vor allem die transienten Zustände des Grains, bei denen abhängig von der Länge der Sounds Klangfarben oder Stimmen hörbar werden. Die Rezipient:innen scheinen Ereignisse zu hören, die eine Assoziation zu einer menschlichen Stimme erzeugen, obwohl diese nicht wirklich wie eine solche klingen. Dadurch springt der Wahrnehmungsprozess der Hörer:innen zwischen dem Kontext und dem Inhalt der Grains hin und her.

    Die Spannung zwischen dem Quellsample und den Algorithmen verleiht dem resultierenden Klang eine lyrische oder dramatische Wirkung, während die erkennbaren Stimmbilder surrealistische Szenen mit starker Assoziationskraft zu schaffen scheinen. Da ich auf meinem Weg ins Studio in Stanford fast täglich an der Auguste Rodin-Skulptur »La Porte de l'Enfer« [Das Höllentor] vorbeikam, wurde unbewusst eine Verbindung zwischen der Bronzeplastik und meinem Stück hergestellt.

    Die Klangbearbeitungstechniken beschränken sich auf Abtastratenwandlung und Zeigeroperationen. Das Stück wurde ausschließlich digital auf dem NeXT-Net des CCRMA, Stanford unter Verwendung von William Schottstaedts »Common Lisp Music«-Synthesesprache, Heinrich Taubes Kompositionssprache »Common Music« und Paul Lanskys Mischprogramm »RT« erstellt. Es gewann den Prix Ars Electronica 1994. Ermöglicht wurde das Stück durch ein Stipendium des DAAD durch die deutsche Bundesregierung.

Begleitprogramm
  • The Morning Line (2007) ist im Auftrag, produziert und geschenkt von

Footer

ZKM | Zentrum für Kunst und Medien

Lorenzstraße 19
76135 Karlsruhe

+49 (0) 721 - 8100 - 1200
info@zkm.de

Organization

Dialog