AV-Parameter-Mapping in der Musikvisualisierung

Mit dem Aufkommen von erschwinglichen Personal Computern mit Prozessoren und Applikationen, die in der Lage waren, bewegte Bilder in Echtzeit zu manipulieren, konnten die bisher medientechnisch voneinander getrennten Phänomene Ton und Bild durch algorithmische Übersetzung von auditiven in visuelle Parameter verknüpft werden.

Ein Wegbereiter dieser Entwicklung war die zunehmende Verbreitung elektronischer Musik, bei der sich der Computer zum Instrument etablierte. Die Musik wurde digital erstellt und die vorhandenen Applikationen legten nahe, mit der Verknüpfungdigitaler Sounds und Bilder zu experimentieren.

Mit den ersten Programmen wurde zunächst versucht, Techniken aus dem Bereich des analogen Videos in die digitalen Möglichkeiten zu übersetzen und Bildparameter zu manipulieren. Bald wurden jedoch Programme entwickelt, die generative Prozesse beinhalteten und eine eigenständige digitale Ästhetik hervorbrachten.

Sound konnte nun analysiert und in verschiedene Frequenzbänder zerlegt werden und somit als Datenmaterial den Input für bildgenerierende Systeme liefern. Im Zuge der direkten Programmierbarkeit ist inzwischen eine Vielfalt komplexer Generierungsverfahren entstanden, die das Spektrum der Ausdrucksmöglichkeiten beständig erweitern und reichhaltiger werden lassen.

Der anfängliche Anwendungsbereich digitaler Musikvisualisierungen umfasste Club-Visuals und Live-Performances im Rahmen von Konzerten mit elektronischer Musik. Heute sind sie auf Events jeder Art verbreitet. Mit dem Durchbruch der LED-Technik wird verstärkt der öffentliche Raum erobert. Zahlreiche Gebäude und Werbewände weisen bespielbare Oberflächen auf und werden für künstlerische Interventionen genutzt. Darüber hinaus produzieren zeitgenössische KünstlerInnen zunehmend multimediale Arbeiten auf DVD oder als Installation.