Inhalt
In der Audiowelt gibt es ein paar Begriffe, die immer wieder auftauchen, über die gesprochen oder geschrieben wird, und bei denen doch oft der Konsens ist: Das existiert, es ist ungefähr bekannt, um was es sich handelt, aber genaue Details könnten nicht genannt werden.
Zwei Begriffe, die oft in diese Kategorie fallen, sind “Dolby Atmos” (Dolby) und “MPEG-H Audio” (Fraunhofer IIS). Plakativ formuliert handelt es sich dabei um die zwei Next Generation Audio (NGA) Konkurrenten! Für mich hat der Formatkrieg mehr von “Gut gegen Böse” als “Yin und Yang”.
Das Fraunhofer IIS hat mit dem weltbekannten mp3 Format revolutioniert, wie wir Audioinhalte konsumieren. Dolby ist wohl der erste Begriff, der HörerInnen einfällt, wenn es um Kino-Sound geht. Wer nun die dunkle und wer die helle Seite der Macht darstellt, dürfen LeserInnen hier selbst entscheiden.
Auch wenn ich mir immer wieder einen Spaß daraus mache, diese zwei Big Player miteinander zu vergleichen, verändern all die Diskussionen nicht viel. Daher auch gleich der Appell, sich nicht in Fachsimpeleien zu verstricken. Denn am Ende des Tages haben beide Parteien das gleiche Ziel: Den Menschen das bestmögliche Audio-Erlebnis zu liefern. Und da ist meiner Meinung nach der Content wesentlich entscheidender als die Technologie.
Dolby ist vermutlich etwas weitläufiger bekannt durch seine Präsenz im Kinobereich seit den frühen 2010er Jahren. MPEG-H Audio wird immer relevanter und ist aktuell durch die erfolgreiche Standardisierung in Brasilien in den Fokus geraten.
Den Wettbewerb bei besagter Standardisierung konnte das Fraunhofer IIS deutlich für sich entscheiden.
Während sie mit ihrem MPEG-H Audio Codec alle 24 Kriterien erfüllen konnten, schaffte AC-4 gerade einmal 2!!! Woran das lag und um was es sich bei beiden Begriffen genau handelt, wird in diesem Artikel betrachtet. Es gibt also schon einen Gewinner – nur die Öffentlichkeit weiß nichts davon.
Ein wichtiger Disclaimer vorweg: Bei MPEG-H Audio handelt es sich um einen Audio-Codec, der Begriff „Dolby Atmos“ hingegen ist ein Überbegriff für das immersive Klangerlebnis von Dolby. Diese Inhalte können über verschiedene Codecs übertragen werden (z.B. Dolby Digital Plus (AC-3), AC-4).
Da bei der Verwendung des Begriffes “Dolby Atmos” im Audio-Kontext je nach Anwendungsgebiet AC-3 oder AC-4 dahintersteckt, wird im Folgenden der Einfachheit halber weiterhin “Dolby Atmos” verwendet, aber in Anführungszeichen. Bitte daran denken: dahinter stecken mitunter verschiedene Codecs.
3D-Audio oder immersives Audio ist seit einigen Jahren nicht mehr wegzudenken aus der Audio-Branche. 3D-Audio bringt eine neue Komplexität mit sich – Codecs und Formate, verschiedenste Technologien und Software. Aber auch kreatives Neuland mit verschiedenen Gestaltungsmöglichkeiten und erweiterten Wiedergabesystemen.
Bei MPEG-H Audio und “Dolby Atmos” handelt es sich um sogenannte “Next Generation Audio” Systeme. Was das grundsätzlich ist, kann hier nachgelesen werden.
Dieser Artikel soll noch mehr in die Tiefe gehen und eine direkte Gegenüberstellung von MPEG-H Audio vs. “Dolby Atmos” einfacher machen.
Next Generation Audio (NGA), definiert in DVB ETSI TS 101 154 ermöglicht eine Vielzahl neuer Konzepte und Techniken zur Bereitstellung immersiver Audioinhalte und bietet eine größere Flexibilität in der Produktion und Distribution eben dieser.
Audioinhalte können durch kanalbasierte (z.B. Stereo, 5.1 Surround), szenenbasierte (z.B. Ambisonics) oder objektbasierte Herangehensweisen produziert, übertragen und wiedergegeben werden.
Audio-Objekte sind hierbei einzelne Klangelemente, die sowohl auf horizontaler als auch vertikaler Ebene mittels positionsbezogener Metadaten angeordnet werden. Wiedergabeseitig können sie flexibel auf das entsprechende Wiedergabesystem (siehe unten) gerendert werden.
Bei MPEG-H Audio und “Dolby Atmos” handelt es sich um objektbasierte Systeme. Genau genommen sogar um hybride Formate. Das bedeutet, dass nicht nur Audio-Objekte unterstützt werden, sondern auch Kanäle. Im Fall von Dolby spricht man etwa von einem Bed (7.1.2 kanalbasiert), das mit Objekten erweitert werden kann.
Objektbasiertes Audio kann durch die Übertragung von Audio- und Metadaten flexibel auf verschiedene Wiedergabesysteme (Lautsprecher und Kopfhörer) gerendert werden.
Es ist also egal, ob man eine Vielzahl an Lautsprechern besitzt, eine Soundbar oder nur ganz einfache Kopfhörer: Bei der Wiedergabe wird die Audioproduktion bestmöglich abgespielt. Damit müssen keine aufwändigen Tests mehr erfolgen, um das eigene Wiedergabe-Setup zu auszuprobieren, sondern es kann davon ausgegangen werden, dass immer das für die eigene Situation ideale Hörvergnügen aus dem Wiedergabegerät erklingt.
MPEG-H Audio basiert auf dem MPEG-H 3D Audio-Standard von ISO/IEC MPEG. Das könnte man schon mal gehört haben, ist das doch die internationale Standardisierungsgruppe. MPEG steht für Moving Picture Expert Group. Sie ist für viele weltweit dominierende Medienstandards verantwortlich. Beispiele wären MP3, AAC, MPEG-2, MPEG-4, AVC/H.264 und HEVC/H.265.
Das MPEG-H Audiosystem ist in den Fernsehstandards ATSC, DVB, TTA (koreanisches Fernsehen) und SBTVD (brasilianisches Fernsehen) enthalten und wird im weltweit ersten terrestrischen UHD-TV-Dienst in Südkorea verwendet.
In Brasilien wird es heute schon genutzt, um terrestrische HD-TV-Dienste mit personalisiertem und immersivem Sound zu verbessern. Die erste Ausstrahlung von TV-Programm mit MPEG-H Audio über ISDB-Tb (SBTVD TV 2.5) fand im September 2019 statt, und seit November 2021 wird MPEG-H Audio in der regulären Ausstrahlung verwendet.
MPEG-H Audio wurde auch als einziges obligatorisches Audiosystem für den brasilianischen TV-3.0-Übertragungsdienst der nächsten Generation ausgewählt, der voraussichtlich 2024 starten wird, sowie für einen neuen Übertragungsstandard, der in China eingeführt werden soll. Aber dazu später mehr.
MPEG-H Audio ist somit ein Next Generation Audio Codec und unterstützt NGA-Merkmale wie immersives Audio (kanal-, objekt-, und szenenbasierte Übertragung sowie deren Kombinationen). Es ermöglicht außerdem Interaktivität und Personalisierung, sowie eine flexible und universelle Bereitstellung der produzierten Inhalte.
Der MPEG-H Audio Standard wurde unter anderem für die Integration in Streaming-Anwendungen entwickelt. Es liegt beispielsweise dem Musikformat 360 Reality Audio von Sony zugrunde. Damit wird MPEG-H Audio bereits ausgiebig genutzt.
Und damit wären wir schon wieder beim Kampf der Titanen – hier der Überblick welche Musikplattformen 360 Reality Audio und Dolby Atmos Music nutzen.
“Audio” wird bei MPEG-H Audio als eine Kombination aus Audio-Komponenten und zugehörigen Metadaten beschrieben. Dabei wird zwischen statischen und dynamischen Metadaten unterschieden:
Statische Metadaten bleiben konstant und beschreiben beispielsweise Informationen zur Art des Audioinhaltes. Dynamische Metadaten hingegen verändern sich über die Zeit (z.B. in den Positionsinformationen). Der Begriff Metadaten klingt etwas abstrakt, aber man kann sie sich wie folgt vorstellen:
Bei kanalbasierten Formaten wie etwa 7.1 Surround, ist für jeden Kanal genau definiert, welcher Lautsprecher damit angesteuert wird. Bei Audio-Objekten wird aber erst bei der Wiedergabe überprüft, welches Lautsprecher-Setup überhaupt zur Verfügung steht. Heißt, der monaurale Kanal des Audio-Objekts benötigt zusätzliche Informationen, damit der Decoder später weiß, wohin der Sound eigentlich muss. Diese Informationen gibt es über die Metadaten.
Der Bitstream des MPEG-H Audio Standards unterstützt bis zu 128 Kanäle oder Objekte, die gleichzeitig auf bis zu 64 Lautsprecher übertragen werden können.
Da es je nach Anwendungsfall aus technischen Gründen nicht praktikabel ist, einen solch komplexen Bitstream an handelsübliche Geräte zu übertragen, wurden verschiedene MPEG-H Komplexitätsprofile und Levels eingeführt. Damit wird die Decoderkomplexität limitiert.
Basis für den ATSC 3.0 Standard ist beispielsweise das Low Complexity Profile Level 3, mit welchem 32 Audio Elemente innerhalb eines Bitstreams übertragen werden und 16 davon gleichzeitig decodiert werden können.
Audio-Objekte, die mit (zeitvariablen) Positions-Metadaten übertragen werden, werden im MPEG-H Audio Decoder durch einen Vector Based Amplitude Panning (VBAP) Algorithmus gerendert.
VBAP spielt insbesondere beim Panning von Objekten auf 3D Lautsprecher-Layouts eine Rolle. Hierbei werden jeweils drei (je nach System physische oder virtuelle) Lautsprecher verwendet, um ein Audio-Objekt mit einer bestimmten Einfallsrichtung zur Ausrichtung auf den Hörer an die entsprechende Position zu rendern.
Dies ermöglicht die Wiedergabe desselben Audio-Inhalts auf einer Vielzahl unterschiedlicher Wiedergabesysteme. Hierfür wurde außerdem eine umfangreiche Dynamic Range Control (DRC) sowie ein Formatkonverter implementiert, welcher den MPEG-H Audio Bitstream auf das ensprechende Wiedergabesystem anpasst.
Aufgrund dieses Konzepts wird also im größten Wiedergabe-Setup produziert, die Anpassung an kleinere Konfigurationen erfolgt schließlich über einen Downmix-Algorithmus im Renderer des Wiedergabegerätes. Die Downmix-Faktoren sind hierbei während der Produktion flexibel definierbar. Aktuell muss man nämlich neue Audiodateien und Mischungen erstellen, um etwa von einem 5.1-Mix auf Stereo herunter zu kommen.
Dieser Schritt fällt nun weg und man hat nur noch eine Datei, die für alle Wiedergabesysteme optimal funktioniert.
Jeder MPEG-H Audio Decoder enthält außerdem einen binauralen Renderer, der die immersive Wiedergabe kanal-, objekt- und szenenbasierter Mischungen über Kopfhörer ermöglicht. Man ist also nicht nur frei in der Wahl der Lautsprecher-Anordnung, sondern kann sich auch für die Lieblings-Kopfhörer entscheiden, egal ob Earbuds, Over-Ear oder andere.
DRC passt den Gesamtpegel an die geräteabhängige Ziel-Lautheit an, basierend auf der integrierten Lautheits-Messung jedes Elements der Audioszene. Für mobile Endgeräte liegt diese Ziel-Lautheit beispielsweise bei –5 bis –12 LUFS.
Darüber hinaus normalisiert das MPEG-H Audio System automatisch die Lautheit gemäß gängiger Standards (z.B. EBU R-128, ITU-R BS.1770.4, ATSC A/85 etc.).
Der Begriff „Dolby Atmos“ ist, wie bereits eingangs erwähnt, ein Überbegriff für das immersive Klangerlebnis von Dolby, welches die Produktion und Wiedergabe von Musik und audiovisuellen Inhalten ermöglicht. Diese können über verschiedene Codecs übertragen werden (Dolby Digital Plus, Dolby TrueHD, AC-4).
Es wurde im Jahr 2012 als Wiedergabesystem in Kinos eingeführt, über die Jahre auf den Heimkino-Bereich ausgeweitet und ist seit 2017 auch über Streaming-Dienste wie Netflix abrufbar. Mit der Einführung von “Dolby Atmos” Music Ende 2019 erfolgte schließlich der Eintritt in den Musik-Streaming-Markt .
Dolby Atmos Music beispielsweise basiert sowohl auf dem neuen AC-4 Immersive Stereo (AC-4 IMS) Codec (bei der Kopfhörer-Wiedergabe über Musik-Streaming-Dienste wie Tidal) als auch auf Dolby Digital Plus Joint Object Coding (DD+JOC) (bei der Lautsprecher- Wiedergabe via Tidal oder Amazon Music HD).
Man muss hier aber tatsächlich wahnsinnig aufpassen, weil “Dolby Atmos” gerne wie eine Art Qualitätssiegel verwendet wird. Einer “Dolby Atmos”-Datei muss nicht automatisch mehrkanaliges Audio zu Grunde liegen. So haben sogar manche Smartphones eine “Dolby Atmos”-Funktion. Diese versucht, Stereo einfach etwas aufzuhübschen. Das Ergebnis ist wohl Geschmackssache, dennoch konnte sich Dolby mit dieser Strategie im Konsumenten-Bereich einen großen Namen machen.
AC-4 ist ein Next Generation Audio Codec der Dolby Laboratories Inc., standardisiert in ETSI TS 103 190 und ETSI TS 103 190-2. Er gilt als Nachfolger von Dolby Digital (AC-3) und Dolby Digital Plus (EAC-3), siehe unten.
AC-4 wurde insbesondere zur Anwendung in aktuellen und zukünftigen Multimedia-Unterhaltungsdiensten wie beispielsweise Streaming entwickelt. Auch dieser Codec unterstützt NGA-Merkmale wie immersives und personalisiertes Audio. Darüber hinaus erweiterte Lautheits- und DRC-Steuerung für verschiedene Gerätetypen und Anwendungen, Dialogverbesserung, Programm-IDs, flexibles Wiedergabe-Rendering und andere Funktionen.
Der AC-4 Codec erlaubt die Übertragung von kanalbasierten und objektbasierten Audio-Inhalten sowie ihre Kombination mit hoher Audio-Qualität bei geringen Bitraten. AC-4 bietet eine durchschnittlich 50% höhere Komprimierungseffizienz als Dolby Digital Plus und ist nicht rückwärtskompatibel zu Dolby Digital oder Dolby Digital Plus.
Substreams
AC-4 ermöglicht, dass innerhalb eines Audio Bitstreams verschiedene Substreams übertragen werden. Diese Substreams können beispielsweise verschiedene Kommentare (Mono), ein 5.1 Bett oder ein 7.1.4 Bett sein. Der Audio-Renderer kann hierbei verschiedene Substreams kombinieren (etwa 5.1 Bett + englischer Kommentar oder 7.1.4 Bett + spanischer Kommentar), die in den sogenannten „Presentations“ definiert werden. Welche dieser „Presentations“ letztendlich wiedergegeben wird, wird im Decoder abhängig vom entsprechenden Wiedergabesystem entschieden.
Um die Vielzahl an Wiedergabegeräten und -systemen bedienen zu können, ist in AC-4 ein flexibles Dynamic Range Control (DRC) und Lautheits-Management implementiert. Dabei sind vier DRC-Decoder Betriebsarten standardmäßig definiert: Heimkino, Flach- bildfernseher, tragbare Lautsprecher und Kopfhörer.
Das Lautheits-Management in AC-4 umfasst eine adaptive Echtzeit-Lautheitsverarbeitung. Der Dolby AC-4-Encoder verfügt über ein integriertes Lautheits-Management. Der Encoder ermittelt die Lautheit des eingehenden Audiosignals und kann die Lautheits-Metadaten an den korrekten Wert anpassen oder mittels einer Multiband-Verarbeitung das Programm auf den Ziel-Lautheitspegel bringen.
Anstatt das Audio im Encoder zu verarbeiten, wird diese Information dem Bitstream in den DRC-Metadaten hinzugefügt, so dass die Verarbeitung im Endgerät entsprechend dem Wiedergabeszenario erfolgen kann. Das bedeutet in der Praxis, dass der Prozess nicht-destruktiv ist. Das Original-Audio wird im Bitstream mitgeführt und steht für zukünftige Anwendungen zur Verfügung.
Dolby Digital Plus (DD+) ist die Erweiterung von Dolby Digital und basiert auf dem bestehenden Mehrkanal Standard AC-3. DD+ wird hier an dieser Stelle erwähnt, da DD+ JOC (siehe unten) nach wie vor oft die Grundlage ist, wenn “Dolby Atmos” verwendet wird.
DD+ sollte AC-3 um ein größeres Spektrum an Datenraten (> 640 kbp/s) und Kanalformaten (mehr Kanäle als das von AC-3 unterstütze Maximum 5.1) erweitern. Aus diesem Grund wurde ein flexibles, AC-3 kompatibles Codiersystem entwickelt, welches als Dolby Digital Plus bzw. Enhanced AC-3 (E-AC-3) bekannt ist.
Dolby Digital Plus kann – zusätzlich zu erweiterten Kanalformaten mit bis zu 14 diskreten Kanälen – herkömmliche Mono, Stereo- oder 5.1 Surround-Formate mit etwa halber Datenrate im Vergleich zu Dolby Digital übertragen.
Joint Object Coding (JOC) ermöglicht es, objektbasierte und immersive Audioinhalte wie “Dolby Atmos” mit geringen Bitraten zu übertragen, und somit auch Produktionen mit einer Vielzahl an Objekten auf den entsprechenden Wiedergabesystemen der HörerInnen zu rendern. Hierbei werden nah beieinander liegende Objekte in räumlichen Objektgruppen zusammengefasst.
Objektgruppen können aus Objekten oder einer Kombination aus originalen Objekten und Bett-Kanälen bestehen, außerdem können Objekte auch in mehreren Objektgruppen vertreten sein.
Weiterführend wird ein Mehrkanal-Downmix der Audioinhalte zusammen mit parametrischen Informationen übertragen, die letztendlich im Decoder die Rekonstruktion der Audio-Objekte aus dem Downmix ermöglichen. Die parametrischen Informationen umfassen sowohl JOC-Parameter als auch Objekt-Metadaten.
Eine erste Version von JOC wurde entwickelt, um eine rückwärtskompatible Erweiterung des Dolby Digital Plus-Systems bereitzustellen und die Übertragung von immersiven “Dolby Atmos” Inhalten mit Bitraten wie 384 kbp/s zu ermöglichen, die häufig in bestehenden Rundfunk- oder Streaming-Anwendungen verwendet werden.
Um eine direkte Rückwärtskompatibilität mit vorhandenen Dolby Digital Plus-Decodern zu gewährleisten, wird im DD+ JOC-System ein 5.1 (oder 7.1) Downmix verwendet. Die Decodierung für DD+ JOC ist unter anderem bereits in AVRs verfügbar, die “Dolby Atmos” unterstützen.
Ein erweitertes Advanced Joint Object Coding (A-JOC) Tool, einschließlich adaptiver Downmix-Optionen und Dekorrelationseinheiten wurde im AC-4 Decoder implementiert. Darüber hinaus unterstützt das AC-4 A-JOC-System auch alle anderen Merkmale des AC-4-Codecs.
So, Respekt wer sich durch die technischen Details gekämpft und bis hierhin gelesen hat – oder das meiste vielleicht sogar schon wusste. Doch jetzt wird es richtig spannend – es folgt die Gegenüberstellung MPEG-H Audio vs. “Dolby Atmos”.
Damit wir die Unterschiede besser nachvollziehen können, fangen wir doch mit den Gemeinsamkeiten an:
Sowohl bei MPEG-H Audio als auch AC-4 handelt es sich um Next Generation Audio (NGA) Systeme, beide sind objektbasiert und unterstützen immersives Audio. Beide Systeme sind nicht lossless.
Beide NGA-Systeme unterstützen Interaktivität: Sowohl MPEG-H Audio als auch Atmos (AC-4) unterstützen “Presets” (MPEG-H Audio) oder “Presentations” (Atmos). MPEG-H Audio kann aktuell mehr Interaktivitäts-Features wie beispielsweise die Erstellung von Interaktivitäts-Ranges.
MPEG-H Audio unterstützt – zumindest der öffentlichen Informationslage entnehmend – “echtes” flexibles Rendering. Sprich, eine Produktion in MPEG-H Audio wird über den Decoder automatisch auf das entsprechende Wiedergabe-Layout gerechnet. Bei “Dolby Atmos” wird nach letzten Informationen zwischen DD+JOC und AC-4 im Rendering unterschieden. “Dolby Atmos” Music greift beispielsweise bei der Kopfhörerwiedergabe auf AC-4 IMS (immersive Stereo) zurück, bei der Lautsprecherwiedergabe wird eine DD+JOC Datei übertragen.
Alle Länder, die bisher NGA standardisiert haben – außer Südkorea und Brasilien – haben sich für AC-4 entschieden. Außerdem gewinnt Dolby natürlich das Rennen der Verfügbarkeit in Endgeräten – das “Dolby Atmos” Label findet sich wie gesagt auf unzähligen Hardware-Geräten.
Allerdings gilt es anzumerken, dass durch die Verwendung des Begriffes “Dolby Atmos” für Konsumenten oft nicht ersichtlich ist, welcher Codec sich denn tatsächlich dahinter befindet – der “alte” Codec E-AC-3, oder der neue Codec AC-4?
Lange war eine oft gestellte Frage “aber dieses MPEG-H Audio, ist das denn außer in Südkorea irgendwo schon mit all seinen Features zu hören?”. Nun gibt es hierfür eine Antwort – ja, bald! Nach einem jahrelangen Wettbewerb hat MPEG-H Audio kürzlich die Standardisierung für den zukünftigen TV 3.0 Fernsehstandard in Brasilien gewonnen.
Wer noch mehr wissen möchte, findet hier die genutzten Quellen:
Hier ist die Rede von Technologie Gruppen. A: AC-4, B: AVSA, und C: MPEG-H. Es kommt der klare Gewinner C heraus.
In diesem Fall hat das brasilianische SBTVD-Forum eine technische Evaluierungsphase durchgeführt. In dieser Phase wurden mehrere vorgeschlagenen Technologien miteinander verglichen.
Angefangen hat dieser Prozess im Juli 2020 mit einer Ausschreibung für die nächste Generation des digitalen Fernsehstandards (TV 3.0). Die Ausschreibung umfasste alle Komponenten eines modernen TV-Systems und beinhaltete einen Anforderungskatalog, der nur von den neuesten Technologien dieser Bereiche erfüllt werden konnte.
Im Bereich der Audiocodierung wurden drei Next Generation Audio (NGA) Codecs vorgeschlagen: MPEG-H Audio (Fraunhofer IIS, DiBEG, Ateme, ATSC), Dolby AC-4 (Dolby, ATSC) und AVSA (DTNEL).
Die technische Evaluierung wurde von einem unabhängigen Testlabor durchgeführt, das vom SBTVD-Forum beauftragt und vom brasilianischen Kommunikationsministerium finanziert wurde.
Für die Tests mussten für alle Codecs komplette und funktionierende Produktions- und Sendeketten zur Verfügung gestellt werden. Auf Basis davon wurden verschiedene vorher festgelegte Test-Cases geprüft, um herauszufinden, welcher Codec welche Funktionalitäten erfüllen kann.
Bei diesen Tests konnte das MPEG-H Audio System 27/27 Punkten bei der Dokumentation und 25.5/26 Punkten bei den technischen Test-Cases erfüllen, und gewann somit die Standardisierung im Bereich Audiocodierung.
Die beiden anderen eingereichten Codecs (AC-4 und AVSA) erfüllten bei den Test-Cases 0/26 Punkten – dieses Ergebnis ist durchaus überraschend, da Dolby mit AC-4 somit im direkten Wettbewerb mit MPEG-H Audio sehr schlecht abgeschnitten hat.
Neben der technischen Bewertung der vorgeschlagenen Technologien wurden auch Aspekte wie die Verfügbarkeit im Markt und Lizenzbedingungen im Rahmen der Auswahl berücksichtigt.
Am Ende des Verfahrens entschied sich das SBTVD Forum für MPEG-H Audio als einziges verpflichtendes Audiosystem für terrestrische Ausstrahlung und Streamingdienste. Der Start des TV 3.0 Systems wird für das Jahr 2024 erwartet.
Hui, das war jetzt wirklich ein sehr langer Artikel – hoffentlich aber auch gespickt mit vielen Informationen, die etwas Licht in das ominöse MPEG-H Audio und “Dolby Atmos” Dunkel bringen konnte.
Wie sich gezeigt hat, handelt es sich bei beiden Systemen um objektbasierte, immersive Audio-Codecs. Während Dolby vor allem mit seiner hohen Marktverfügbarkeit punkten kann, dominiert MPEG-H Audio aus rein technischer Sicht.
Die Standardisierung in Brasilien hatte ein überraschendes Ergebnis im Kampf “David gegen Goliath” – einen haushohen Sieg von David. Die Frage ist nun, wird sich MPEG-H Audio weiter durchsetzen können? Es gibt schließlich noch einige Länder, die sich noch nicht für eine Seite entschieden haben… ganz weit vorn ist hier: Deutschland!
Wer also wissen will, wie die Reise weiter geht, kann sich gerne unverbindlich bei mir melden.
zurück zur HomepageVerwandte Blogartikel
360 Reality Audio - Was ist das Sony 360RA Erlebnis im Detail?
Dolby Atmos Music - Was ist dieses 3D Sound Erlebnis genau?
3D Audio vs Stereo: Objektbasiertes Audio Mischen und 3D Musik Produktion
Object Based Audio für 3D Musikproduktion: Stereo Workflow Vergleich
Eurovision Song Contest (ESC) trifft Next Generation Audio (NGA)