Das Thema High Dynamic Range beherrscht seit rund zwei Jahren die Branche. Die Unterhaltungselektronik-Industrie puscht das Thema recht heftig, die Broadcaster sind – mit wenigen Ausnahmen – eher zögerlich. Vor allem UHD-Blu-ray, Streaming-Dienste sowie 4K-Foto- und Videotechniken bringen die Angelegenheit voran.
Die TV-Industrie ist seit über 80 Jahren dabei, immer neue qualitätssteigernde Technologien zu entwickeln. Dabei steht die Bildauflösung oft im Brennpunkt des Interesses. Vor 80 Jahren freute man sich noch über 30 Zeilen, heute stehen 2160 oder gar 4320 auf der Tagesordnung. Das zeitigt Wirkungen, der Absatz von UHD-Geräten steigt kräftig. Allerdings fordert dies auch einen hohen Tribut, geht einher mit einem Preisverfall um 25 % in den letzten drei Jahren. So kostete ein UHD-Gerät 2015 durchschnittlich noch 1291 €, 2016 dann 1096 € und dieses Jahr, laut gfu, 965 €. Dem Geräteabsatz kommt das zugute. So nennt die gfk für 2015 noch 937 000 verkaufte UHD-TV-Geräte, für 2016 schon 1,976 Mill. und rechnet in diesem Jahr mit 2,6 Mill. Verkäufen in Deutschland, ein Plus von knapp 180 %. Also: 37 % aller in diesem Jahr gekauften Flat-Screens sind 4K UHD, kommen mit 3840 × 2160 Pixel daher. Doch das reicht nicht, die Hersteller müssen weiter aufrüsten – bessere Bild- und Tonqualität, immer mehr Features und nicht zuletzt immer ansprechendere Gerätedesigns sind gefragt.
UHD-Geräte ohne UHD-Inhalte?
Bei alledem ist so schnell nicht mit einem größeren regulären UHD-Broadcast-Angebot zu rechnen. Anke Schäferkordt, Geschäftsführerin der Mediengruppe RTL Deutschland sagte dazu zu rfe-Elektrohändler: „Bis UHD zum klassischen Broadcast- Signal wird, werden noch viele Jahre ins Land gehen. Und das auch vor dem Hintergrund, dass Deutschland noch nicht mal komplett mit HD ausgerüstet ist.“ Und sie ergänzt: „Wenn wir heute in unseren Broadcast-Zentren investieren, wird die Technik bereits UHD-fähig ausgestaltet.“ Ähnlich sieht es Ulrich Liebenow, Vorsitzender der Produktions- und Technikkommission der ARD und MDR-Betriebsdirektor: „Es gibt derzeit bei uns keine Planung, zeitnah auf Ultra-HD umzustellen. UHD bedeutet einen erheblichen Mehraufwand in der Produktion und ein Vielfaches der heutigen Datenraten, die man durch das gesamte System bringen muss.“ Selbst die EBU geht davon aus, dass es noch drei bis fünf Jahre dauern wird, ehe öffentlich-rechtliche Broadcaster auch in UHD produzieren und übertragen.
Doch es gibt zahlreiche andere UHD-Inhalte wie Sky Sport, Pearl.tv UHD, Fashion 4K, Insight, Testkanäle auf Astra (UHD1) und Eutelsat sowie UHD-Blu-ray-Scheiben (von 20th Century Fox, Sony Pictures, Warner Bros., Universal Pictures), Streaming-Inhalte (Netflix, Amazon, YouTube, Videoload, Chili) oder andere Zuspieler (Google Chromecast Ultra, Xbox One S & PS Pro) und dazu kommen noch selbstgemachte Fotos und Videos in 4K.
Nicht nur mehr Auflösung
Dieses mit UHD daherkommende „Mehr an Pixeln“ erhöht vor allem die räumliche Auflösung. Auch eine bessere zeitliche Auflösung, sprich höhere Bildwechselfrequenz, ist gefragt. Nicht mehr 50 oder 60, sondern 100 bzw. 120 oder gar 300 Bilder/s können es werden. So kommen mit Higher Frame Rate mehr Bilder zustande, gewissermaßen auch schnellere Pixel. Der Film „Billy Lynn‘s Long Halftime Walk“ ist bereits mit 120 Bilder/s produziert und wird so auch in den Kinos wiedergegeben. Auf UHD-Blu-ray erscheint er aber nur mit 60 Bilder/s. Selbst im Internet findet man bei Youtube & Co. schon zahlreiche Videos, die zwar in 120 Bilder/s produziert, dann aber nur mit 60 Bilder/s wiedergegeben werden. So kommt es zu interessanten Zeitlupen-Studien.
Mit HDR zu besseren Pixeln
Ein Ziel aller sind aber bessere Pixel und damit höhere Kontraste, mehr Helligkeit und eben tieferes Schwarz. Auch ein größerer, sprich erweiterter Farbraum mit mehr Farben gehört in dieses Spektrum. Da ist dann von HDR, High Dynamic Range, die Rede. Nun müssen nicht alle bildverbessernden Maßnahmen mit einem Mal aktiviert werden, ein stufenweises Vorgehen macht da für alle an der Wertschöpfungskette Beteiligten mehr Sinn. Sowohl die Europäische Broadcast Union als auch DVB haben sich für ein schrittweises Vorgehen ausgesprochen. So steht die jetzige UHD-1 Phase 1 nur für eine höhere räumliche Auflösung, sprich mehr Pixel. Erst mit UHD-1 Phase 2 wird das Gesamtpaket möglich, nämlich HDR, Wide Color Gamut (WCG), Higher Frame Rate (HFR) sowie Next-Generation Audio (NGA). Stephen McElholm von Rohde & Schwarz nannte während einer Fachveranstaltung im 3IT Berlin (Fraunhofer Heinrich-Hertz-Institut) für Standard Dynamic Range (SDR) einen Dynamikumfang (Kontrast) von 1000:1 (100 Nits bis 0,1 Nits) und für HDR immerhin 400 000:1 (2000 Nits bis 0,005 Nits). Der größte Sprung dürfte somit tatsächlich HDR sein, soll damit doch die Wirklichkeit weitest möglich auf dem Fernseher abgebildet werden. Derzeit ist die Wiedergabe-Kette eher mit einem Trichter zu vergleichen: Die Kamera bildet die (optische) Realität noch ganz gut ab, aber bereits die übrigen Produktionsschritte wie Grading & Postproduktion, Mastering & Encoding, Contribution & Distribution sowie Empfangs- und Wiedergabetechniken zu Hause reduzieren die Wiedergabequalität. Dabei unterscheiden sich auch die Übertragungswege – Broadcast, also Kabel, Satellit, IPTV oder UHD Blu-ray, jede Technik bedingt andere Verluste. Das bei den Zuschauern ankommende Bild – sei es Fernseher, Projektion oder Second Screen – ist in mancherlei Hinsicht beschädigt, weder sind alle Farben wie bei der Aufnahme versammelt noch ist der Kontrast vollumfänglich vorhanden. Dabei können die Displays heute wesentlich mehr liefern, es sind vor allem die Übertragungsstandards, die sich an der guten alten Röhre orientieren.
Dolby seit 10 Jahren dabei
Für bessere Bilder hat sich laut Arnd Paulsen, Senior Broadcast Systems Manager Dolby Research, schon vor über zehn Jahren mit den Eckwerten für ein neues TV-System beschäftigt. Das dazu gebaute Prototyp-Display mit einem Kinoprojektor als Hintergrundbeleuchtung brachte es auf einen Schwarzwert von 0,004 Candela pro Quadratmeter und einer Spitzenhelligkeit von bis zu 20 000 cd/m2. Doch den meisten Zuschauern reichten schon damals 10 000 Nits – und diese Werte gelten noch heute, auch wenn sie praktisch nicht umgesetzt werden. Dabei geht die gesamte natürliche Luminanzskala von 10-6 bis 109, eben von dunkelster Sternennacht bis zur direkten Sonnenstrahlung.
Mehr Farbvolumen
Das Thema HDR hat aber nicht nur mit Helligkeit, sondern auch mit Farbvolumen zu tun. Mit dem bisherigen Standard-HDTV-Farbdisplay nach ITU Rec.709 lässt sich das menschliche Farbempfinden nur teilweise beschreiben. Besser geht das mit den erweiterten Farbräumen (Gamuts) DCI P3 (Farbraum der Digital Cinema Initiatives für digitale Filmprojektion) sowie – perspektivisch – der ITU-Rec.2020 für UHD-TVs. Während bei Rec.709 der Farbraum durch die Röhren-Phosphore mit ihrer maximalen Helligkeit von 100 Nits vorgegeben ist und nur das kleine SDR-Farbvolumen darstellt, kommen HDR-Displays schon auf Spitzenhelligkeiten von 1000, 2000 oder 4000 Nits – perspektivisch gar bis 10 000 Nits, und das bei etwa 10 % der Fläche, während die Durchschnittsluminanz durchaus bei 100 Nits bleibt. Das aufgenommene Signal muss in Echtzeit auf die jeweiligen Endgeräte transformiert werden, auf ein UHD-Display, eine Kinoleinwand oder auch auf ein Röhrengerät. Und dieses Runtermappen ist ein recht komplizierter Vorgang.
Damit der Inhalt auf die Bildschirme zugeschnitten werden kann, kommen Metadaten zum Einsatz. Damit sollen einmal die neuen Endgeräte eine HDR-Signalisierung erfahren und der ankommende Inhalt so beschrieben werden, dass er optimal wiedergegeben werden kann. Dabei geht es um die Intensität des Farbvolumens ebenso wie um die Anpassung der Helligkeit. Bleiben diese Metadaten für den ganzen Film gleich, ist von statischen, bei Änderungen von Szene zu Szene oder gar von Bild zu Bild von dynamischen Metadaten die Rede.
HDR bedeutet nun nicht, dass das Bild superhell und Fernsehen auch bei Sonnenschein draußen möglich wird. „Wir wollen den Leuten keine Sonnenbrillen verordnen müssen, damit sie vor dem Fernseher sitzen können“, mahnt der Dolby-Mann. Die durchschnittliche Helligkeit soll in etwa so bleiben wie heute. Doch die Highlights – auch bei Gegenlichtsaufnahmen – sollen naturgetreu dargestellt werden. Ebenso die Schwarzwerte. Aufnahmen im Sternenpark Westhavelland sollen den Himmel so zeigen wie er ist – tiefschwarz und nicht grau. Damit sich das Display darauf einstellen kann, sind dynamische Metadaten sehr nützlich, die sich dann eben von Szene zu Szene ändern können – oder sogar pro Bildwechsel. Die Displays müssen dabei schon vorab „wissen“, was kommt und auf was sie sich einzustellen haben. Das gilt dann vor allem für die Hintergrundbeleuchtung, die sich während einer Szene nicht verändern darf. Diese Technik wird bei Dolby gerne als „Smarter Pixel“ bezeichnet, da sie noch eine Zusatzinformation mitführt, um sich optimal an die Wiedergabeumgebung anzupassen. Nach more, faster und better wäre smarter dann die vierte Pixeleigenschaft.
Mit Standards gegen das Chaos
Für das Zusammenspiel der verschiedenen Techniken sind Standards unbedingt erforderlich. So ist seit April 2002 durch ITU-R BT.709.5 der (HDTV)-Farbraum standardisiert. Neun Jahre später kam es mit BT.1886 zur Standardisierung der Gammakurve, die eine Electro-Optical-Transfer-Function (EOTF) für HDTV-Flachbildschirme beschreibt – aber eben auf Basis des Röhrenphosphors und einer Maximalhelligkeit von rund 100 cd/m2.
Der nächste Schritt ist dann der im Juli 2014 von der ITU-R definierte Farbraum BT.2020, der noch heute seiner Zeit voraus ist und derzeit nur näherungsweise erreicht wird. Trotzdem brauchen auch die entsprechenden Inhalte Standards, mit dem tiefstes Schwarz ebenso bedient wird wie Spitzenhelligkeiten von bis zu 10 000 Nits. Und das geht nicht ohne HDR. Der PQ-Standard 2084 – genau handelt es sich um SMPTE ST.2084 – definiert eine HDR-EOTF für ein Mastering Reference Display. Diese basiert nicht mehr auf der Gammakurve der Röhrenfernseher, sondern bedient direkt das Kontrast-Empfindlichkeits-Verhältnis des menschlichen Auges, kurz auch PQ – Perceptual Quantizer, genannt.
Dabei handelt es sich um eine Übertragungsfunktion, die von sehr tiefen Schwarzwerten bis extrem hohen Helligkeiten abbilden kann und sich am menschlichen Auge orientiert – und nicht an der Bildröhre. Da das Auge im Dunkeln empfindlicher ist, werden dort mehr Bits spendiert, im Hellen entsprechend weniger. Seit Juli 2016 gibt es von der ITU-R die BT.2100, in der die beiden Transfer- Charakteristiken PQ und HLG, also Hybrid Log-Gamma von NHK und BBC beschrieben sind. Fürs Mastering gibt es seit 2014 den Standard SMPTE ST.2086, der die Farbvolumen als statische Metadaten beschreibt. Die Übertragung mit dynamischen Metadaten wiederum ist in ST.2094 festgezurrt.
HDMI 2.0a unterstützt bereits PQ (HDR10, wegen 10bit Quantisierung) und die statischen Metadaten SMPTE ST.2086, wenn ein Blu-ray- oder UHD Blu-ray-Player HDR10, also auch statische Metadaten an den Fernseher abgibt. Aber die Evolution geht weiter, bereits jetzt steht HDMI 2.1 auf der Tagesordnung – für noch höhere Datenraten (bis 4K/120Hz und 8K/60Hz), dynamisches HDR für Tiefe, Details, Helligkeit, Kontrast und Wider Color Gamut – und zwar Szene für Szene oder gar Bild-für-Bild.
Ebenfalls hat DVB im November vergangenen Jahres mit dem Bluebook A157 Empfänger-Vorgaben festgeschrieben, wobei PQ10 und HLG10 ebenso adressiert werden wie HFR – und das Ganze auch für das 1080p-Format, wobei hier HEVC (H.265) eingesetzt wird. Auch die EBU hat entsprechende Anforderungen herausgegeben und spricht vom „Advanced 1080p Image Format“.
HDR macht bessere Bilder möglich
Gerade die Vergleiche zwischen SDR- und HDR-Bild machen es deutlich – flach und ausgewaschene Farben auf der einen und ein deutlich brillanteres Bild auf der anderen Seite sind offensichtlich. „HDR nimmt so etwas wie den Schleier vom Bild weg und mehr Details werden sichtbar“, erklärt Paulsen. „Und auch die Blauwerte sehen hell und strahlend aus.“ Im Fachhandel sind entsprechende Vergleiche daher recht beliebt.
Drei HDR-Formate haben sich bislang durchgesetzt:
- HLG (Single Layer, ohne Metadaten) für Broadcasting und kompatible SDR-Wiedergabe auf Legacy-Displays.
- PQ (Single Layer; PQ10 + statische Metadaten = HDR10) für UHD-Blu-ray usw. sowie
- Dolby Vision als Advanced HDR (Dual Layer SDR+Enhancement Layer) mit dynamischen Metadaten für Cinematik-Viewing, also auch UHD-Blu-ray- und Streaming-Angebote.
Daneben gibt es noch weitere Verfahren, die derzeit noch keine große Marktbedeutung haben, so Technicolor/Philips mit Advanced HDR. Mittlerweile unterstützen (fast) alle UE-Hersteller HDR10 und HLG, nur LG, Loewe und Sony haben bereits alle drei Systeme in ihren Portfolios. LG nennt dieses Dreierpack „Active HDR“.
Im Ultra HD Premium-Logo – herausgegeben von der UHD Alliance – sind die wichtigsten Parameter festgeschrieben – 3840 × 2160 Pixel und ein erweiterter Farbraum (10 bit BT.2020, allerdings noch nicht erreichbar, deshalb mindestens 90 % DCI P3), PQ (HDR10) sowie 0,05…1000 Nits für LCD-LEDs und 0,0005…540 Nits für OLEDs für die Distribution, aber 100 % P3 und 0,03-1000 Nits fürs Mastering. Bei Philips sind gleich drei HDRs geräteabhängig im Rennen: Plus für Edge-LED, Premium für LCD Local Dimming sowie HDR perfect für OLEDs mit Pixel-Dimming. Allerdings setzt Samsung mit HDR+ noch eins drauf, hat im Januar auf der CES eine Alternative zum lizenzpflichtigen Dolby Vision angekündigt – ebenfalls auf Basis von HDR10 und mit dynamischen Metadaten. Andererseits wird aber auch mit dem TV-Modus HDR+ geworben, wenn aus Nicht-HDR-Quellen ein Quasi-HDR-Bild wird. Das erinnert an Techniken, die einst 2D-Aufnahmen dreidimensional erscheinen ließen. Oder die Anfang der 90er Jahre aus normalen PAL-Signalen Quasi-PALplus-Bilder machten. Damals wollten ebenfalls diverse Hersteller die hohen PALplus-Lizenzen nicht zahlen und bauten Umgehungstechniken ein. Zumindest die Geschäftspraktiken sprechen für Kontinuität.
Autor: R. Bücken aus rfe-Elektrohändler 5/17 (mit freundlicher Genehmigung)