Objektorientiertes Mischen: Eindrücke
Reisebericht zur 29. Tonmeistertagung in Köln 17. – 20. November 2016 von Christopher Sauder Engeler, Senior Videoconference Engineer ID MMS-VC
Selbstredend bin ich wegen den Vorträgen über Audio/Video over IP per Zug an die Tonmeistertagung in Köln gereist. Die Digitalisierung macht natürlich auch vor Audio/Video-Netzwerken nicht halt. Der bei meinen letzten Konferenzbesuchen beschriebene Standard AES67 mit kompatiblen Produkten wie „Dante“ oder „Ravenna“, welche auf Layer3 operieren, werden durch erweiterte Layer2-Formate wie AVB (Audio Video Bridging), nun umbenannt in TSN (Time Sensitiv Networking) bedrängt. Für uns an der ETH war bis anhin die HDbaseT-Übertragung von Audio- und Videosignalen über Ethernet-Kabel genügend. Immer mehr werden durch das IoT auch unsere Lautsprecher, Projektoren, Mischpulte netzwerkfähig. Die grösseren Hörsäle an der ETH besitzen jetzt schon ihre eigenen kleinen Subnetze/VLANs, worüber die Datenkommunikation der Geräte erfolgt. Werden die Komponenten und Möglichkeiten in diesen Netzen immer komplexer, stellen sie uns vor neue Probleme. Die 2 wichtigsten sind Timing sowie Redundanz.
Der Media-Clock wird üblicherweise aus dem PTP (Precision Time Protocol) generiert. Dazu haben wir an der ETH einen PTP Grandmaster als Referenzzeitquelle. Im Gegensatz zu unseren „Office“-Anwendungen kommt es eben darauf an, wann das Packet mit Audio- und Videodaten am anderen Standort ankommt. Momentan lösen wir das per Videokonferenz in datenreduzierter Form auf dem bewährten, vom ISDN herrührenden, H.323-Standard. In Zukunft wird eine Übertragung von Audio und Video eine Priorisierung erhalten müssen. Dort setzt nun AVB/TSN an. Seit Cisco diesen Standard bei Ihren Switches implementiert (IEEE 802.1 BA), ist diese Seite der Industrie wieder im Aufwind. Bei uns werden die applikationsspezifischen Protokolle wie HDCP (Content Protection bei HDMI Signal vom Laptop) oder Extron „Airmedia“ (Streaming vom Laptop auf den Beamer im Hörsaal) bereits angewendet und sind implementiert. Falls TSN ein Layer3-Standard wird, kann das die Hoffnung der (Audio-) Industrie auf eine berechenbare, statische Latenz erfüllen oder man merkt dann, dass die Büchse der Pandorra geöffnet wurde.
Redundanz ist bei den Layer3-Protokollen wie „Dante“ nur bei kleinen Applikationen, unabhängig vom ETH-Netzwerk umsetzbar. Dort ersetzt das Ethernet-Kabel die sehr teuren und schweren Audiokabel. Ein zweites Cat.7-Kabel reicht dann, um eine Redundanz zu erhalten. Dies funktioniert im grösseren Rahmen respektive in einer IT-Umgebung nicht. Zwar besteht eine dynamische Redundanz durch Spanning Tree (RSTP/MSTP) in unserer IT-Infrastruktur, eine statische Redundanz welche bei AVB zum Beispiel durch eine Ringtopologie erreicht wird und bei einem Audio/Video-Netzwerk benötigt wird, schaffen wir nicht. Abgesehen davon wäre das Monitoring der Signale in solchen Netzwerken viel aufwendiger, als das was wir heute kennen. Dies ist erst im Kleinen auf einem relativ primitiven Niveau, wie zum Beispiel bei unseren neuen Funkmikrofonen oder der Beamer-Überwachung möglich.
Was hat das jetzt alles mit objektorientiertem Mischen zu tun?
Nun, am Vortag meiner Ankunft hat eine ETH-Doktorandin, welche am Institut für Landschaftsarchitektur ein Raumklang-Labor betreibt, Ihre Arbeit vorgestellt. Ihr Labor am Hönggerberg besteht aus einem Raum mit zig Lautsprechern. Dem Konzept der Wellenfeldsynthese folgend versucht sie, Umgebungsgeräusche, welche zum Beispiel an öffentlichen Orten aufgenommen wurden, in diesem Labor zu reproduzieren. Dadurch soll im Labor die Illusion entstehen, sich auf diesem aufgenommenen öffentlichen Platz zu befinden. Die neusten Kinos in der Schweiz verwenden einen neuen Standard, welcher sich Auro 3D nennt. Dort werden an definierten Orten an allen Wänden und in der Decke des Kinos Lautsprecher angesteuert, welche dann die perfekte Illusion des Flugzeuges über dem Kopf ermöglicht.
Am letzten Tag der Tagung bin ich so mit meinem Kollegen vom Opernhaus Zürich an Vorträge über objektorientiertes Mischen, respektive über die Umsetzung der Installation einer solchen Anlage. Erst kürzlich wurde am Opernhaus eine solche Anlage in Betrieb genommen worden und besteht aus 96 im Raum installierten Lautsprechern. Bereits 2015 wurde ein 3D-Audiosystem realisiert, das neue objektbasierte System baut darauf auf. So können einerseits Effekte aber auch akustische Umgebungen realisiert werden. Man könnte dem Zuhörer im Opernhaus die akustische Illusion des Petersdoms ermöglichen. Viel wichtiger ist aber was anderes: Nun ist es möglich, die Ortung der Schallquellen perfekt für jeden Zuschauer akustisch abzubilden. Jeder kennt das Problem: man sitzt nicht genau in der Mitte des Raumes und hört das verstärkte Signal nur vom nächsten Lautsprecher. Das Gehör und das Auge erhalten ein total unterschiedliches Signal. Ich denke, dass dieses Konzept sich auch im Beschallungsbereich durchsetzen wird. Wer weiss, in ein paar Jahren werden wir im Audimax vielleicht auch gegen hundert Lautsprecher per Netzwerk ansprechen müssen. Einige schöne Beispiele durfte ich bei unserem Lieblings-Lautsprecherhersteller L-Acoustics sehen: http://l-group.com/homepage/l-isa/
Kontakt
Christopher Sauder Engeler, ID Multimedia Services (ID MMS)
Posted on
in Multimedia, Drucken, News, Support