Burosch-Homebutton

TV-Features: Ultra HD, Full HD, 4K, 8K, HDR, Rec.2020, OLED, HbbTV, IPTV

Features der TV-Technik sind hier für Sie ausführlich erläutert

Ultra HD, Full HD, 4K, 8K, 3D, HDR, Rec.2020, OLED, Quantum Dots, HbbTV, IPTV, SAT<IP, Kabelfernsehen oder Satellitenempfang … alle neuen Features der TV-Technik sind hier für Sie ausführlich erläutert … 


BT.2020: Der lange Weg zum erweiterten Farbraum

BT.2020: Der lange Weg zum erweiterten Farbraum

Kaum hat man sich an UHD, Ultra HD, 4K gewöhnt und sogar festgestellt, dass es sich im Grunde um dasselbe handelt, schwirren die nächsten Abkürzungen durch die technische Gemeinde. Neben High Dynamic Range (HDR) ist es vor allem die Bezeichnung BT.2020, die derzeit Verwirrung stiftet. Warum der HDTV-Standard gemäß BT.709 nach wie vor gültig ist, der erweiterte Farbraum in der Praxis noch wenig Sinn macht und zur ITU-Empfehlung BT.2020 weitaus mehr gehört, haben wir hier für Sie zusammengefasst. Neben Panasonic tritt nun insbesondere Samsung mit seinen SUHD-Modellen der 2016er Serie an den Start des Wettstreits um Detailreichtum und Farbvielfalt. Mit der neuen HDR-Technologie kommt wie durch Zauberhand dynamisches Licht in die aktuellen TV-Displays, das neben einer nie dagewesenen Bildtiefe auch eine gigantische Farbenpracht mit sich bringt. Hersteller werben mit „Wide Color Enhancer“ – also der Erweiterung des Farbraums. In aktuellen Geräten ist dieser bereits einstellbar und wird allgemeinhin als BT.2020 oder Rec.2020 bezeichnet. Wir von BUROSCH erhalten seit einigen Wochen zahlreiche E-Mails mit der Frage, warum wir denn nicht endlich unsere Referenz-/Testbilder an ebenjene BT.2020 anpassen.

 

Inhaltsverzeichnis:

1. Die aktuelle Videonorm heißt: BT.709
2. 4K + HDR ist erst die Hälfte des Weges von BT.2020
3. Phase 1 und 2: UHD-1 (4K)
4. Phase 3: UHD-2 (8K)
5. Istzustand im Jahre 2016
6. Wie sieht die Realität im Einzelnen aus:
7. Wie entstehen Farben?
8. Was ist ein Farbraum?
9. Folgende Farbraumodelle gibt / gab es
10. DCI: Farbdynamik-Standard für Kinoformate
11. Die Versprechen der Hersteller
12. Probleme zwischen Aufnahme und Wiedergabe
13. Die Zukunft ist noch nicht heute
14. BUROSCH TV Testbilder sind eine visuelle Referenz
15. Fazit:

 

1. Die aktuelle Videonorm heißt: BT.709

Die Frage ist grundsätzlich leicht zu beantworten: Weil die derzeit gültige Videonorm eben immer noch BT.709 heißt und der erweiterte Farbraum gemäß BT.2020 in der Display-Praxis noch längst nicht angekommen ist. Die Firma BUROSCH ist seit nunmehr siebzig Jahren am Markt und hat so einige Hypes und technische Revolutionen hautnah miterlebt. Einige davon haben sich durchgesetzt (Full HD), andere sind noch dabei (HDR) und wieder andere verschwinden so langsam wieder von der Bildfläche (3D). Insofern gehört es zu unserem Firmenprofil, die technischen Entwicklungen und Trends am Markt genau zu beobachten, im Labor daran teilzuhaben, darüber zu berichten und im richtigen Moment entsprechend zu handeln. Aufgrund unserer engen Zusammenarbeit mit diversen Herstellern sitzen wir quasi in der ersten Reihe, wenn es um die Geburt, die Kinderkrankheiten und die Etablierung eines neuen Features geht.

 

2. 4K + HDR ist erst die Hälfte des Weges von BT.2020

Insofern können wir behaupten: Ja, da tut sich was in punkto Farbraumerweiterung. Die Fernsehtechnik erlebt eine komplett neue Ära. Mit der Recommendation ITU-R BT.2020 vom 23. August 2012 wurde der Grundstein für farbgewaltige XXL-Displays mit beeindruckender Bildqualität gelegt. Aber eben nur der Grundstein und längst nicht die Spitze des gigantischen Wolkenkratzers. Vergleicht man die Entwicklung von High Definition mit einem Hausbau, so befinden wir uns heute vielleicht im mittleren Stockwerk. Denn die BT.2020 sieht insgesamt drei Phasen der Einführung von UHD vor und hat für ebendiese verschiedene Parameter festgelegt oder vielmehr als Mindeststandard empfohlen. Mit 4K und HDR befinden wir uns derzeit am Anfang von Phase 2. Das Ziel von Rec.2020 ist also noch längst nicht erreicht, denn das heißt: 8K.

 

3. Phase 1 und 2: UHD-1 (4K)

Auflösung: 3840 x 2160 Pixel (viermal so groß wie Full HD, deshalb auch 4K)

Seitenverhältnis: 16:9

Pixel: quadratisch, im Verhältnis von 1:1

Abtastverfahren: progressiv

Bildwiederholrate: 24, 25, 30, 50 oder 60 Hz

Farbunterabtastung: 4:2:0, 4:2:2 oder 4:4:4

Quantisierung: 10 Bit für Produktion (1024 Stufen pro Farb- und Helligkeitskanal)
                        8 Bit für Verteilung (256 Stufen pro Farb- und Helligkeitskanal)

Farbraum: identisch mit BT.709

  

4. Phase 3: UHD-2 (8K)

Auflösung: 7680 x 4320 Pixel (achtmal so hoch wie Full HD, deshalb auch 8K)

Seitenverhältnis: 16:9

Pixel: quadratisch, im Verhältnis von 1:1

Abtastverfahren: progressiv

Bildwiederholrate: 24, 25, 30, 50, 60, 100 oder 120 Hz

Farbunterabtastung: 4:2:0, 4:2:2 oder 4:4:4

Quantisierung: 10/12 Bit (pro Farb- und Helligkeitskanal)                

Farbraum: erweiterter Farbraum

  

5. Istzustand im Jahre 2016

Vier Jahre nach der Veröffentlichung der Rec.2020 befinden wir uns im Jahre 2016 am Anfang der Phase 2 von UHD-1. Das heißt, der Weg bis zur Vollendung der ITU-Empfehlung ist noch lang. Und auch wenn „lang“ im rasanten Tempo der technischen Fortschritts im 21. Jahrhundert quasi nur noch ein Wimpernschlag bedeutet, heißt das dennoch, dass zumindest einige Jahr vor uns liegen, bis HDR und auch der erweiterte Farbraum flächendeckend in den heimischen Wohnzimmern angekommen ist. Denn gerade mit dem schleppenden Breitbandausbau ist das Datenvolumen eines erstklassigen 4K-Streams inklusive HDR & Co. trotz bester Komprimierungsverfahren riesig und kann nach heutigem Stand kaum transportiert werden.

 

6. Wie sieht die Realität im Einzelnen aus:

Auflösung: Deutschland schafft gerade erst das analoge Kabelfernsehen ab. TV-Inhalte in Full HD sind noch längst nicht flächendeckend verfügbar. Lediglich Videoproduktionen in Ultra HD kommen langsam auf den Markt. Die Entwicklung der 4K-Blu-ray-Disk/-Player hinkt. Mit HDR und einem erweiterten Farbraum können ultrahochauflösende Videoinhalte derzeit praktisch nur per Onlinestream geschaut werden – jedoch in voller Qualität nur von dem, der über Highspeed-Internet verfügt. Bei schwachem Datentransfer (z.B. DSL) wird auf Full HD oder gar SD gedrosselt.

Abtastverfahren/Bildwiederholungsrate: die Öffentlich-Rechtlichen senden derzeit mit 720 Zeilen und 50 Vollbildern pro Sekunde (720p/50) im progressiven Vollbildverfahren. Das Interlaced-/Halbbildverfahren ist jedoch mit 1080i noch nicht vom Tisch der Programmanbieter. Die Zukunft heißt 1080p/50 und damit gerade einmal Full HD und 50 Hz. Das heißt, Ultra HD mit 100/120 Hz (High Frequency Rate: HFR) ist im Zusammenhang mit der TV-Übertragung reine Zukunftsmusik.

Quantisierung/Farbraum: Mit 8 Bit für die Übertragung bzw. Verteilung von TV- und Videoinhalten ist kein HDR möglich. Abgesehen davon sind alle Geräte, die bis 2015 hergestellt wurden, in der Lage, maximal mit 8 Bit zu arbeiten. Der erweiterte Farbraum wird in den Studios generell noch nicht angewendet, aktueller Standard bleibt nach wie vor der Farbraum nach BT.709.

 

7. Wie entstehen Farben?

Grundlage für alle Farbräume bieten die Graßmannschen Gesetze, welche die Farbvalenz als eine dreidimensionale Größe - die Grundfarbe (Spektralfarbe), die Farbintensität und die Weißintensität - definieren. Darauf aufbauend werden diese drei Grundgrößen heute im Zusammenhang mit dem HSV-Farbraum, den CIE-Primärvalenzen oder den Werten CMY und RGB verwendet. RGB ist die Abkürzung für Rot, Grün, Blau. Diese drei Farbwerte stellen die Primärvalenzen beziehungsweise Primärfarben dar, also jene drei spektral reinen Farben, die sich nicht aus den jeweils anderen herstellen (mischen) lassen.

Wer schon einmal mit einem Grafikprogramm gearbeitet hat, kennt diese Farben aus der Praxis und weiß, dass sie sich beliebig mischen lassen. Wird der Farbwert eines Objektes auf null gesetzt, färbt sich dieses schwarz. Werden alle drei Farbwerte (R = B = G) gleichmäßig um 50 Prozent erhöht, ergibt das die (unbunte) Farbe Grau. Setzt man zwei der drei Farbewerte auf 0 Prozent und die dritte auf 100 Prozent, ergibt sich daraus eine der drei Primärfarben. Werden zwei Farbwerte auf 100 Prozent gesetzt und der dritte bleibt bei null, können so die Farben Cyan (Grün und Blau), Gelb (Rot und Grün) und Magenta (Blau und Rot) additiv gemischt werden. Aus diesen drei sogenannten Sekundärfarben (Cyan, Magenta und Yellow) resultiert der technisch-physikalische Wert CMY. Stellt man alle drei RGB-Werte auf 100 Prozent, erhält man Weiß.

Der deutsche Naturwissenschaftler Hermann Ludwig Ferdinand von Helmholtz erkannte, dass die Farbvalenz durch Farbton, Sättigung und Helligkeit gekennzeichnet ist. So lässt sich die „Farbe“ nach ihrem Helligkeitsanteil (engl. luminance) und der Farbart unterscheiden. Diese setzt sich aus dem durch die Wellenlänge des Lichtes bestimmten Farbton (engl. hue) und der Farbsättigung (engl. saturation) zusammen, die durch den zugemischten Weißanteil entsteht. Insofern ist der Begriff „Farbe“ nicht korrekt. Es müsste vielmehr „Buntheit“ heißen, da die sogenannten Farbnuancen in erster Linie etwas mit der Helligkeit zu tun haben. Im Umkehrschluss verwendet man bei Grauwerten in der Fachsprache die Bezeichnung „unbunte Farben“.

Verschiedene Farbpaare gelten als komplementär. Dazu zählen Blau ↔ Gelb, Rot ↔ Cyan und Grün ↔ Magenta. Da diese aus den Farben RGB resultieren, stellen sie die Basis dar für das CIE-System und andere technische Systeme (z.B. RGB und CMY). Diese sogenannten Komplementärfarben werden auch synonym als Gegenfarben bezeichnet, da sie sich im sogenannten Farbkreis genau gegenüberstehen. Verändert man die Intensität eines Farbtons, ergeben sich pro Farbton etwa 500 unterscheidbare Helligkeiten.



 

In der modernen Wissenschaft wird das Spektrum als die Gesamtheit aller Linien und Banden bestimmter Frequenzen in einem energiegleichen Strahlungsereignis definiert. In der Physik besteht das sogenannte „weiße“ Licht aus Anteilen aller Wellenlängen des sichtbaren Spektralbereichs und ist somit ein energiegleich gemischtes Licht, das es in dieser perfekten Form allerdings nur in der Theorie gibt. In der Regel ist damit das Sonnenlicht oder Tageslicht gemeint beziehungsweise die Normlichtarten mit ihren unterschiedlichen Farbtemperaturen. Denn Weiß entsteht auch durch Hitze oder vielmehr verschiebt sich das Maximum des Farbspektrums mit steigender Temperatur hin zu kürzeren Wellenlängen. So nehmen wir beispielsweise das Wellenlängengemisch der Sonne als weiß oder zumindest sehr hell wahr, weil die Außentemperatur dieser Gaskugel ca. 6000 °C beträgt, was einer Farbtemperatur von etwa 5800 Kelvin entspricht. Bei bedecktem Himmel verschiebt sich diese Farbtemperatur der Sonne zu höheren Werten (7000 Kelvin), sodass für das sogenannte Norm- oder Referenzlicht D65 namensgebende 6504 Kelvin zugrunde gelegt wurden.

Als Basis dieser Untersuchungen diente von jeher die menschliche Wahrnehmung. Der Mensch kann etwa 200 Farbtöne und ungefähr 20 Millionen Farben unterscheiden. Grundsätzlich ist festzustellen, dass die Farbe als solche eine Empfindungsgröße darstellt und somit generell subjektiven Charakter besitzt. Letztendlich ist es das Licht, welches im menschlichen Auge in Nervenimpulse umgewandelt wird (ähnlich wie in einem Display). Während der Verarbeitung dieser Impulse in nachgeschalteten Hirnstrukturen entsteht eine Empfindung, die allgemeinhin als „Farbe“ bezeichnet wird. Die physikalischen Einheiten im Bereich der Wahrnehmung sind zwar generell messbar, dennoch ist das, was wir als Schärfe, Kontrast, Licht oder Farbe empfinden und einschätzen, vielmehr eine subjektive oder gar emotionale Größe, die parallel zur individuellen Beschaffenheit und Funktionalität des menschlichen Auges sowie Gehirns verläuft. Genau deshalb können Bildeinstellungen am Display oder Beamer immer nur mithilfe von Referenz-Testbildern perfekt optimiert werden – nicht mit starren Einstellwerten.

 

8. Was ist ein Farbraum?

Und gerade weil die menschliche Farbwahrnehmung rein subjektiver Natur ist, mussten mit der Entwicklung von Farbtechnologien bestimmte Farben als Referenzwerte festgelegt werden. Bereits im Jahre 1931 wurde eine Normfarbtafel entwickelt und von der Internationalen Beleuchtungskommission (Commission internationale de l’éclairage: CIE) in einem Farbbeschreibungssystem definiert: dem CIE 1931. Auch heute noch stellt das CIE 1931 eine international vereinbarte Methode der Farbkennzeichnung dar, um die menschliche Farbwahrnehmung und die physiologisch farbige Wirkung einer wahrgenommenen Strahlung (Farbvalenz) in Relation zu setzen. Sie basiert auf der additiven Farbmischung. Deshalb wird dieses wahrnehmungsbezogene System auch als CIE-Normvalenzsystem bezeichnet, das die Gesamtheit aller vom Menschen wahrnehmbaren Farben umfasst.

Doch wenn Farbe lediglich eine subjektive Wahrnehmung ist, wie wurde daraus eine allgemeingültige Norm? Um eine Vereinheitlichung der Farben zu bewirken, wurden bereits in den 1920er Jahren mehrere Beobachter für die Studien hinzugezogen. Dabei wurde den Probanden eine vorgegebene Farbfläche mit einem Sichtfeld von 2 Grad mittig zur Hauptblickrichtung relativ dicht vor die Augen gehalten. Abgeleitet wurde diese Methode aus der Erkenntnis, dass diese Zone in etwa der höchsten Dichte der farbempfindlichen Rezeptoren im Bereich der Netzhaut entspricht. Allerdings nimmt erst ab einem Winkel von 10 Grad die Zapfendichte im Areal der besten Farbsichtigkeit im Auge ab. Deshalb wurde im Jahre 1964 auf Grundlage des erweiterten Sichtfeldes (10 Grad) das CIE(1964)-Farbsystem entwickelt, wobei die Farbfläche nicht mehr die Größe einer 1-Euro-Münze hatte, sondern der eines A4-Blattes in normalem Betrachtungsabstand von etwa 30 Zentimetern entsprach.

Diese Farbfläche bestand in beiden Versuchsreihen aus einem geteilten Schirm, auf dessen A-Seite eine bestimmte Farbe und auf dessen B-Seite drei Strahler in den Primärfarben Rot, Grün und Blau projiziert wurden, die als Maß der auf der A-Seite vorgegebenen Lichtfarbe benutzt wurden. Dabei war zwar die Helligkeit variabel, aber nicht die definierte Farbe, deren Wellenlänge mithilfe von Farbfiltern festgelegt wurde. Die Beobachter sollten ihrem subjektiven Farbempfinden nach die verschiedenen Farben, die durch Veränderungen der Helligkeitswerte der drei Lichtquellen (B-Seite) entstanden, dem jeweils vorgegebenen Farbeindruck zuordnen.

In der Entwicklungsphase zum Ende der 1920er Jahre verwendeten W. David Wright und John Guild für die Erzeugung der Spektrallinien Quecksilberdampflampen und Interferenzfilter und legten mit deren Hilfe die Farbwerte 546,1 nm (grün) und 435,8 nm (blau) fest. Da sich bei der Farbe Rot (700 nm) kleine Abweichungen der Wellenlänge im Ergebnis weit weniger bemerkbar machten, konnte auf Glühlampen mit einem Farbfilter zurückgegriffen werden. Wobei es in diesem Zusammenhang zu einem anderen Problem kam: Im Bereich der Grün-Blau-Einstellungen konnten von den Beobachtern einige Testfarben nicht vollends übereinstimmend festgelegt werden. Deshalb musste auf der einen Seite rotes Licht zugeführt und auf der anderen Seite weggenommen werden, was im Protokoll als negativer Rot-Wert festgehalten wurde. Grundsätzlich ist allerdings kein Farbdisplay oder Projektor in der Lage, rote Farbe mit negativer Intensität zu erzeugen. Deshalb können Farben im Grün-Blau-Bereich bisweilen nur ungesättigt (zu blass) dargestellt werden.

 

 

 

Mithilfe der Dreifarbentheorie gelang somit die numerische Erfassung der vom Menschen wahrnehmbaren Farbreize. Auch wenn die Hufeisenform des CIE-Farbsegels vom Grunde her der nicht-linearen physiologischen Verarbeitung im menschlichen Auge entspricht, können mit den drei Primärfarben nur die Farbreize technisch wiedergegeben werden, die nach dem Gamut-Prinzip innerhalb des abgebildeten Dreiecks liegen. Insofern handelt es sich hierbei um ein theoretisches Dreieck mit einem mathematisch definierten Feld, in dem jeweils die Farben liegen, die von einem Bildgerät reproduziert werden können. Auch wenn sich dieses dreieckige Feld innerhalb des Gamuts im Laufe der Zeit erweiterte und damit heute einen weitaus größeren Farbraum gemäß Rec.2020 zulässt, gleicht es noch längst nicht dem Potenzial der menschlichen Wahrnehmung.

 

9. Folgende Farbraumodelle gibt / gab es:

  • CIE-XYZ Farbraum
  • CIE-RGB Farbraum
  • NTSC (US TV-Norm)
  • PAL (TV/DVD)
  • SECAM
  • sRGB (Computer/Monitor seit 1996 – aktuelle Alternative zu REC 709 im Bereich HDTV)
  • Adobe RGB (seit 1998 internationaler Standard in der Profi-Fotografie)
  • Wide-Gamut
  • DCI (aktuelle Kinonorm für „Digitalen Film“)
  • CMYK (Offsetdruck/Siebdruck/Digitaldruck)
  • Rec. 601 alter Standard für PAL, DVD, Video
  • Rec. 709 aktueller HDTV-Standard
  • Rec. 2020 neuer UHD-Standard

 

10. DCI: Farbdynamik-Standard für Kinoformate

Neben der Empfehlung der ITU für die Farbräume ist heute noch ein weiterer Farbdynamik-Standard zulässig, der bisher vorwiegend in der digitalen Kinoprojektion verwendet wurde. Es verblüfft insofern nicht, dass dieser Standard vom Dachverband der amerikanischen Filmstudios herausgegeben wurde – genauer gesagt der Digital Cinema Initiatives (DCI). Der entsprechend bezeichnete DCI-Farbraum ähnelt vom Umfang her in etwa dem Adobe-RGB-Farbraum und ist somit bedeutend größer als der Farbraum gemäß BT.709 aber kleiner als nach BT.2020. In diesem Zusammenhang sei darauf hingewiesen, dass sich die 4K-Auflösung ursprünglich auf die Kino-Auflösung (4096 × 2160 Pixel) bezog, jedoch ähnlich wie DCI nunmehr in abgewandelter Form auch im Heimkinobereich Anwendung findet.

Bei der Einführung von UHD-Fernsehern wurden noch 8-Bit-Displays verbaut und somit lediglich der Farbraum nach Rec.709 realisiert. Insofern sind hier die gravierenden Unterschiede in der Bilddarstellung begründet, weshalb die Pixelanzahl eben nicht allein über die Qualität entscheidet. So wurde der Farbraum gemäß der Empfehlung Rec.2020 für UHD-2 erweitert und umfasst 75,8 Prozent der Farben im Diagramm des Farbraumes CIE 1931 und damit Wellenlängen, die nach Rec.709 (35,9 Prozent) noch nicht darstellbar waren. Für die RGB-Grundfarben wurden die folgenden Wellenlängen in der BT.2020 festgesetzt: Rot (630 nm), Grün (532 nm), Blau (467 nm).

Aufgrund der höheren Abstände zwischen benachbarten Farbwerten erfordert die entsprechend höhere Farbpräzision ein zusätzliches Bit pro Abtastwert. Gemäß der ITU-R-Empfehlung BT.2020 wird bei 10 Bits pro Abtastwert eine Helligkeitswerteskala genutzt, bei der der Schwarzpunkt auf den Code 64 und der Weißpunkt auf den Code 940 festgesetzt sind. Für die Zeitreferenz dienen die Codes 0 bis 3 und 1.020 bis 1.023, während die Codes 4 bis 63 Helligkeitswerte unterhalb des Schwarzpunktes und die Codes von 941 bis 1.019 Helligkeitswerte oberhalb des Nennspitzenwertes bezeichnen. Bei 12 Bits pro Abtastwert ist der Schwarzpunkt auf dem Code 256 und der Weißpunkt auf dem Code 3.760 der Helligkeitswerteskala gemäß Rec.2020 festgelegt. Entsprechend verändern sich die übrigen Werte: Zeitreferenz (Codes 0 bis 15 und 4.080 bis 4.095), Helligkeitswerte unterhalb des Schwarzpunktes (Codes 16 bis 255), Helligkeitswerte oberhalb des Nennspitzenwertes (Codes von 3.761 bis 4.079).

 

11. Die Versprechen der Hersteller

Bei der Fülle dieser Werte ist schnell erkennbar, dass insbesondere bei der Farbreproduktion Schwierigkeiten auftreten können. Auch wenn Studiomonitore (z.B. BVM-L 230 von Sony) über präzise Farbkorrekturen verfügen, die nahezu alle Farbstandards emulieren können, heißt das noch lange nicht, dass auch Consumer-Geräte dazu in der Lage sind. Die Hersteller werben mit „Wide Color Enhancer“ und versprechen bessere und sogar mehr Farben, als die Fernsehtechnik jemals vermochte und die Konkurrenz hat. Tatsächlich ist aber die nicht Anzahl der Farben, sondern deren Darstellung eine andere. Und genau hier liegt der Hase im Pfeffer! Selbst wenn die aktuellen TV-Geräte einen erweiterten Farbraum darstellen können, entspricht dieser nicht immer dem festgelegten Farbstandard. Bei der Reproduktion des Farbraums werden somit Farben schlichtweg falsch dargestellt – also nicht so, wie bei der Aufnahme bzw. Filmproduktion vorgesehen.

 


Wide-Color-Enhancer-Technologie (Samsung)

 

12. Probleme zwischen Aufnahme und Wiedergabe

Schon mit der Einführung von HDTV und dem Farbstandard gemäß ITU-R BT.709 gab es Probleme zwischen der Filmaufnahme und der Filmwiedergabe. Während die Koordinaten für die Farborte exakt definiert sind, wurde ein verbindlicher Gammaverlauf nur für die Filmaufnahme festgelegt – nicht aber für die Wiedergabe! Doch die Basis für ein perfektes Bild ist die korrekte Umsetzung der Gammafunktion bzw. Gammakorrektur. Hierbei handelt es sich um das Leuchtverhältnis unterschiedlicher Grau- und Farbstufen, das dazu dient, aus einer linearen Größe (Aufnahme) eine nicht-lineare Übertragungsfunktion (Wiedergabe) zu machen, die der menschlichen Wahrnehmung entspricht.

Im Allgemeinen hat sich der Gammawert von 2,2 bis 2,4 als Standardgröße etabliert, weshalb Displays zwischen 10 und 90 IRE exakt auf ein Gamma von 2,2 kalibriert werden. Bei der Verarbeitung des Eingangs- und Ausgangssignals im TV-Display kann es nun zu Fehlern kommen, die vor allem die Leuchtkraft und damit den Kontrast und natürlich auch die Farbstufen betreffen. Denn der spezifizierte Gammaverlauf von BT.709 für die Aufnahme weicht massiv von einem realen Gamma 2,2 ab. So muss ein 10%-Pegel im Eingangssignal noch längst keine 10 % der maximalen Leuchtkraft bei der Wiedergabe ergeben. Bisweilen bleibt nicht mehr als 1 % Lichtstärke im Ausgangssignal übrig. Dies ändert sich nun insbesondere mit der neuen HDR-Technologie. Denn hier wurde die nicht-lineare Übertragungsfunktion (klassische Gammakurve) durch die weitaus komplexere elektrooptische Transferfunktion (EOTF) ersetzt.

Jedoch definiert die ITU mit BT.2020 weiterhin eine nichtlineare Übertragungsfunktion zur Gammakorrektur bei RGB und YCbCr. Wobei RGB für beste Qualität und YCbCr für die Gewährleistung der Kompatibilität zu SDTV/HDTV eingesetzt werden kann. Darüber hinaus ist in BT.2020 ebenfalls eine linear kodierte Version von YCbCr (YcCbcCrc) definiert, welche Anwendung findet, wenn eine möglichst originalgetreue Reproduktion der Helligkeitsinformationen gefordert wird.

Hinzu kommt, dass neben der Gammakorrektur gemäß BT.2020 bei der Filmproduktion bzw. dem Mastering weitere Übertragungsfunktionen verwendet werden (z.B. nach BT.1886, BT.2035 oder Dolby Perceptual Quantizer: PQ). Außerdem kann im Nachhinein kaum eine eindeutige Aussage darüber getroffen werden, welcher Film wie gemastert wurde.

Kurzum: Fernsehtechnik bedeutet heute nicht mehr nur schlichte Amplitudenmodulation. Die digitale Technik ist mittlerweile so komplex geworden, dass selbst beste Prozessoren ihre Schwierigkeiten bei der Signalverarbeitung haben. Genau deshalb klafft zwischen der Theorie und der Praxis noch eine riesige Lücke, die erst nach und nach gestopft werden kann. 

 

13. Die Zukunft ist noch nicht heute …

Erinnern Sie sich an das Desaster seinerzeit bei der Umstellung auf 16:9? Selbst als die Fernseher technisch dazu in der Lage waren, das Seitenverhältnis automatisch anzupassen, waren nervige Verzerrungen die Folge. Die Darsteller in älteren Filmen oder TV-Produktionen im 4:3-Format hatten plötzlich breite Gesichter oder aber ihnen fehlte der halbe Kopf. Ganz ähnlich verhält es sich bei der Darstellung der beiden Farbräume. Denn es ist nicht so einfach, aus 75,8 Prozent des Farbraums 35,9 Prozent zu zaubern – oder umgekehrt. Vor allem dann, wenn nicht bekannt ist, wie diese Farben produziert wurden. Anders als beim Upscaling/Downscaling – also der Anpassung von Full HD auf Ultra HD oder umgekehrt - gibt es in punkto Farbraum kaum keine geeignete Technologien, die es ermöglichen, die Farben bzw. Farbstandards automatisch anpassen zu können. Die ersten Geräte bieten bereits in den Bildeinstellungen die Auswahlmöglichkeit zwischen BT.709 und BT.2020. Nur hilft uns dieser Modus zurzeit noch keinen Millimeter weiter. Denn auch mit dem teuersten Fernseher bleiben die massiven Probleme in der Abwärtskompatibilität sowie der Linearität der Wiedergabekette bei den verschiedenen Zuspielungen. Warum? Produziert und gesendet wird derzeit noch im Farbraum gemäß BT.709. Stellt man das Display mit BT.2020 ein, wirken die Bilder zu knallig. Und selbst wenn Videomaterial mit dem erweiterten Farbraum zugespielt wird, können die Geräte heute noch nicht automatisch zwischen den Farbräumen wechseln und die Bildmodi entsprechend anpassen. Insofern ist es wohl für den Übergang besser, weniger Farben einzustellen, auch wenn man mehr Farben zur Verfügung hat.

Gerade in den letzten Wochen erreichten uns zahlreiche E-Mails von stolzen Besitzern eines 2016er UHD-Fernsehers. Alle Anfragen hatten eines gemeinsam: „Warum gibt es noch keine Testbilder für HDR und BT.2020? Solange es keine Testbilder für den erweiterten Farbraum gibt, warte ich lieber noch mit dem Kauf.“ Kann man machen. Muss man aber nicht! Also, abwarten und Tee trinken. Denn die Frage ist: Warum fällt es manchen Menschen einerseits so verdammt leicht 4.000 oder auch „nur“ 2.000 Euro für ein Premium-TV-Modell auszugeben und andererseits so verdammt schwer, noch weitere 20 Euro in die Bildoptimierung zu investieren? Natürlich kann es sein, dass sich in einem Jahr der Markt bereits so weit entwickelt hat, dass HDR und der erweiterte Farbraum nach BT.2020 keine Utopie mehr darstellen.

 

14. BUROSCH TV Testbilder sind eine visuelle Referenz

Unsere Testbilder sind eine visuelle Referenz – ähnlich wie das Urmeter oder die Atomuhr zur richtigen Zeiteinstellung. Mithilfe unserer Referenz Testbilder regeln Sie also die Werte in den Grundeinstellungen soweit, bis alle Testbereiche richtig angezeigt werden. Das heißt also, werden unsere Testbilder perfekt dargestellt, gelingt auch die korrekte Wiedergabe des Videomaterials. Zudem werden derzeit und in naher Zukunft Videoinhalte ausschließlich mit dem aktuellen Farbraum (BT.709) produziert, übertragen, empfangen, verarbeitet und wiedergegeben.

Natürlich versprechen die aktuellen TV-Modelle den erweiterten Farbraum. Die ITU-Empfehlung BT.2020 bezieht sich jedoch nicht auf die Bildeinstellungen, sondern grundsätzlich auf die Display-Technik für ultrahochauflösende Geräte. Es geht also primär um Bit, Hertz und die technischen Voraussetzungen für die Zukunft von UHD-2 (8K). Deshalb ist vieles davon noch längst nicht Realität. Bis sich die Display-Technik gemäß BT.2020 umfassend auf dem Markt durchsetzt, wird es noch eine Weile dauern. In enger Zusammenarbeit mit diversen Herstellern testen wir erst seit einigen Monaten in der Produktionsphase die Displays auf den aktuellen Farbraum gemäß Rec.2020 - so beispielsweise das UltraHD-Premium-Modell TX-58DXW904 von Panasonic, welches als erstes Gerät überhaupt das Premium-Siegel der UHD-Alliance erhielt und tatsächlich den erweiterten Farbraum darstellen kann und darüber hinaus HDR-fähig ist.

Insofern berücksichtigen wir von BUROSCH selbstredend die aktuellen Empfehlungen der ITU, richten uns bei unseren Testbildern für Privatkunden jedoch nach der aktuellen HD-Videonorm gemäß ITU-R BT.709 (Farbraum RGB 16 bis 235), welche für die Grundeinstellungen eines jeden TV-Gerätes nach wie vor optimal sind. Kurzum: Selbstverständlich sind unsere UHD-Testbilder für die Optimierung der Bildeinstellungen Ihres TV-Gerätes zu gebrauchen, sonst würden wir uns nicht Marktführer nennen und dieses Produkt für Ultra HD/4K anbieten.

 

15. Fazit:

Selbstverständlich ist ein möglichst großer Farbraum ein wesentliches Qualitätsmerkmal sowohl bei der Aufnahme als auch bei der Wiedergabe. Denn nur ein umfassender Einstell-Spielraum macht eine automatische Farbkorrektur möglich, die dafür sorgt, dass die Farbreproduktion an die unterschiedlichen Farbstandards angepasst werden kann und somit neutrale Farben liefert. Die Frage ist nur, ob sich Hersteller und vor allem Verkäufer hierbei in die Karten schauen lassen bzw. über das nötige Wissen verfügen, um dem aufgeklärten Käufer die nötigen Auskünfte zu geben. Denn auch wenn es noch eine Weile dauern wird, bis Hollywood seine Blockbuster im erweiterte Farbraum produziert, kann es nicht schaden, schon heute einen Fernseher zu besitzen, der nicht nur den aktuellen HDTV-Standard BT.709 korrekt darstellt, sondern darüber hinaus den erweiterten Farbraum gemäß BT.2020 realisieren könnte.

Versüßen Sie sich die Wartezeit bis dahin mit einer perfekten Bildoptimierung nach BT.709 und holen Sie mit BUROSCH das Beste aus Ihrem TV.

 

Weitere Artikel zum Thema:

Recommendation ITU-R BT.2020
Der Farbraum in der Theorie

HDR – Das Geheimnis ist das Licht

Ultra HD ist schon längst in unseren Wohnzimmern angekommen. Nun tauchen neue Schlagwörter auf, die Anwendern einiges Kopfzerbrechen bereiten. Nicht selten werden technische Begriffe wie 4K, HDR und der erweiterte Farbraum in einen Topf geworfen. Fakt ist jedoch, dass jedes dieser technischen Features eine Klasse für sich darstellt. Was bedeutet nun HDR, warum hinkt die Umsetzung und welche Potenziale stecken drin?

Ausstrahlung in HD erst mit der Umstellung auf DVB-T2 bzw. DVB-S2

Nachdem nun das Satellitenfernsehen längst digital und genau wie der TV-Empfang via Antenne mit DVB-S2 und DVB-T2 bereits die zweite Ära eingeläutet hat, ist es um den Nachfolgestandard DVB-C2 leise geworden. Ein Schritt in die richtige Richtung könnte nun mit der Abschaltung des analogen Kabelempfangs getan werden. Wie der Betreiber Unitymedia auf seiner Website schreibt, wird die Digitalisierung zumindest im Unitymedia-Netz bis zum Sommer 2017 abgeschlossen sein. Was bringt der neue Standard? Lohnt sich ein Kabelanschluss überhaupt noch? Wie sieht die Zukunft aus?

Alle Programme via Antenne werden in HD-Qualität ausgestrahlt

Die Einführung des terrestrischen Nachfolgestandards in Deutschland wird nun endlich Realität. Drei Jahre früher als geplant soll der Regelbetrieb für DVB-T2 im 1. Quartal 2017 starten, die offizielle Testphase beginnt bereits am 31. Mai 2016. Die gute Nachricht: Alle Programme via Antenne werden in HD-Qualität ausgestrahlt. Kostenlos gibt es dann allerdings nur noch das Angebot der Öffentlich-Rechtlichen. Die Privatsender (z.B. Sat.1, RTL oder ProSieben) werden verschlüsselt angeboten, der Preis soll sich aber in Grenzen halten. Wann geht’s los, was steckt drin, wie und wo kann DVB-T2 empfangen werden?

Gütesiegel für 4K/Ultra HD

Endlich kommen die ersten Ultra-HD-Premium-Modelle mit einem richtigen Gütesiegel der UHD Alliance auf den Markt – und schon gibt es wieder was zu meckern. Was man wissen sollte: Bei der Zertifikate-Verteilung geht es lediglich um die Einhaltung von Mindeststandards. Aber selbst diese sind nicht immer spezifiziert! Was sind die Hintergründe und was zählt wirklich?

HbbTV - Hybrid Broadcasting Broadband TV

Als kleine TV-Revolution wird bereits seit einiger Zeit das Hybrid Broadcasting Broadband TV gefeiert, das im Allgemeinen unter der Abkürzung HbbTV das mobile Fernsehen erobert. Hierbei handelt es sich um keine Hardware, keinen Vertrag eines Providers, sondern lediglich um einen Standard, der ohne zusätzlichen Receiver und monatliche Kosten direkt auf HbbTV-fähigen Fernsehgeräten empfangen werden kann.

Hintergründe der schlechten TV-Einstellungen ab Werk

Manchmal glänzt nicht alles, was Gold ist: Für viel Geld haben Sie sich einen neuen Fernseher gekauft … und schauen nun praktisch in die Röhre. Im Laden wirkte das Display noch großartig – zu Hause ist davon nichts mehr zu spüren. Im Internet oder einschlägigen Fachzeitschriften lesen Sie, dass Werkseinstellungen nicht das Gelbe der Banane sind. Konkrete Werte für Grundeinstellungen sind kaum zu finden. Testbilder sollen nun die Lösung sein. Aber warum ist das eigentlich so?

BUROSCH Praxishandbuch der Medientechnik

Auch in 2016 werden wir wieder mit der neuesten Technik-Werbung bombardiert. Der Sohn wünscht sich Virtual Reality, die Tochter will endlich ihre Lieblingsserien streamen und Papa kann sich nicht entscheiden zwischen einem Curved-TV und der XXL-Variante mit Ambilight …

Wer sich nicht täglich mit der Materie befasst, ist hier bisweilen überfordert. Im Internet steht viel, nicht alles davon ist glaubwürdig. Vom TV-Spezialisten gibt es deshalb nun die geballte Ladung Wissen im handlichen PDF-Format. Und auch für alle, die schon heute die modernen und mobilen Vorzüge der aktuellen Medientechnik genießen, hält unser Ratgeber so einiges parat.

 

 

Quantum Dots. Was hat es mit dieser LED-Technologie auf sich?

Im Chaos des Technik-Vokabulars punktet im wahrsten Sinne des Wortes ein weiterer Begriff: Quantum Dots. Was hat es mit dieser LED-Technologie auf sich? Sind Samsung mit SUHD und Sony mit Triluminos die einzigen im QD-Fieber? Wer hat es erfunden und worum geht es im Einzelnen? Gibt es überhaupt einen Unterschied zu OLED? Und was hat das Ganze mit Rec. 2020, Color-Gamut-Farbraum und Farbreinheit der Unterpixel zu tun?

OLED im Vergleich zu LED / LCD

Bereits 2007 stellte Sony den ersten OLED-Fernseher vor. Sieben Jahre später werden die guten Stücke nun endlich von diversen Herstellern angeboten. Alle reden von perfekten Schwarzwerten und brillanten Farben. Aber was steckt hinter der neuen Technologie und wo liegen die Vorteile gegenüber Backlight und herkömmlichen LED-Geräten?

 

Wer schon heute Games in Ultra HD-Auflösung spielen möchte, stößt schnell auf Hürden, die es zunächst zu überwinden gilt. Nicht nur, dass sich die Preise für die dafür notwendigen UHD-Monitore noch in teilweise schwindelerregenden Höhen befinden, liegen doch zugleich auch die Anforderungen an die Leistungsfähigkeit des PCs oder an die Spielkonsole ungleich höher gegenüber Full-HD. Was derzeit möglich ist und was sie an Hardware brauchen, zeigt unser nachfolgender Praxisratgeber.  

Wie Sie zukunftssichere UHD-TVs erkennen

Wenn man sich heute für den Kauf eines UHD-Fernsehers entscheidet, möchte man natürlich kein Gerät erwerben, das bereits morgen schon so veraltet ist, dass kommende Standards gar nicht mehr unterstützt werden und man buchstäblich in die Röhre guckt. Das ist durchaus eine Herausforderung, denn es lauern einige Fallen, vor allem was die Ausstattung der HDMI-Eingänge betrifft und was diese für Standards unterstützen sollten.  Mit HDMI 2.0 wurde bereits 2013 eine Spezifikation des Standards verabschiedet, an die sich die TV-Hersteller in Zukunft bei UHD-Geräten halten sollten - die genaue HDMI 2.0 Spezifikation finden Sie, wenn Sie auf diesen Link hier klicken. Ebenfalls erneuert wurde der HDCP-Kopierschutz, der nun in der Version 2.2 vorliegt und wohl zunächst nur bei den kommenden UHD Blu-ray Filmen zum Einsatz kommen wird. Ebenfalls sehr wichtig, dass der UHD-TV den neuen H.265/HEVC Codec unterstützt. Die verbauten Tuner sollten zudem die UHD-Auflösung mit 50 und 60Hz verarbeiten können - das wären die wichtigsten Eckdaten, die ein UHD-TV erfüllen sollte. Eine Erklärung zu HDCP 2.2 finden Sie unter diesem Link und über den H.265/HEVC Codec unter nachfolgendem Link.

 

 

Inhaltsverzeichnis: 

1. Die wichtigsten Ausstattungsmerkmale im Detail
2. Erweiterte Information: Was bedeutet Deep Color überhaupt? 
3. Die eingebauten Tuner/Empfänger, was müssen diese können?
4. Checkliste für den Kauf: Was muss ein UHD-TV können, damit er zukunftssicher ist:

 

1. Die wichtigsten Ausstattungsmerkmale im Detail

Fast alle UHD-Fernseher, die 2013 verkauft wurden, also quasi alle die Modelle, die 2013 erschienen sind, können eigentlich schon als veraltet deklariert werden, denn die meisten dieser Modelle unterstützen weder HDMI 2.0 noch HDCP 2.2, H.265/HEVC ist den Geräten ebenfalls meist ein Fremdwort. Bei manchen TVs, wie zum Beispiel von Samsung, siehe nachfolgendes Bild, die an ihren Geräten eine sogenannte One-Connect-Schnittstelle verbaut haben, können jedoch unter Umständen auch künftige TV-, Codec oder HDMI-Standards nachgerüstet werden. Sollten Sie also bereits ein UHD-Gerät aus dem Jahr 2013 besitzen, das keines der zuvor genannten Standards unterstützt, empfehlen wir, trotzdem mal den Hersteller zu kontaktieren, evtl. gibt es ja für ihr Gerät ein Update.

Die meisten der Ultra HD-Modelle hingegen sind mit HDCP 2.2 und HDMI 2.0 kompatiblen HDMI-Eingängen ausgestattet und so auch zu den zukünftigen echten UHD/4K Blu-ray Playern kompatibel, wenn diese schon Ende 2015, wie von den Herstellern angekündigt, dann evtl. erscheinen. Im Übrigen reden wir hier nicht von den derzeit kaufbaren normalen Full-HD Blu-ray Playern, die alle keine echten 4K-Player sind, auch wenn sie manchmal so beworben werden, weil sie das 1080p Full-HD Bild von einer Blu-ray hochskalieren können. Zu den kommenden echten Ultra HD Blu-ray Filmen sind diese Player ebenfalls nicht kompatibel, da die Ultra HD-Filme in Zukunft auf 66 GB (Dual Layer) oder 100 GB (Triple Layer) Medien gespeichert werden. Ob sich die neue Blu-ray Player Generation und Ultra HD Blu-ray Filme überhaupt als Medium noch werden durchsetzen können, das ist derzeit ebenfalls noch mehr als fraglich, geht doch schon der Verkauf von normalen Blu-ray Filmen stark zurück, das aber nur am Rande erwähnt – nun zurück zu den UHD-TVs.

Ist am Fernseher also zumindest ein HDMI-Eingang mit HDCP 2.2 gekennzeichnet, wird dieser TV über diesen Eingang in Zukunft also auch ohne Probleme Signale aus den neuen UHD/4K Blu-ray Playern verarbeiten können. Im Übrigen auch dann, wenn dieser HDMI-Eingang nur 8 Bit und eine Farbunterabtastung von YCbCr 4:2:0 unterstützt! Denn die kommenden UHD/4K Blu-ray Player werden die UHD-Bildausgabe ebenfalls mit 8 Bit unterstützen, auch wenn die Ultra HD Blu-ray Filme mit 10 Bit auf den neuen größeren Blu-ray Medien gespeichert sein werden – abwärtskompatibel zu Full-HD TVs werden sie ebenfalls sein. Eine Erklärung bzw. was der Fachbegriff "Farbunterabtastung" bedeutet, finden Sie hier bei uns, wenn Sie auf diesen Link klicken

Eine Auflösung von 3.840 x 2.160 Bildpunkten bei 24 Hz bis hoch zu 60 Hz, 8 Bit mit YCbCr 4:2:0 Farbunterabtastung und HDCP 2.2 ist also die unterste Mindestanforderung, die ein HDMI-Eingang an einem UHD-TV verarbeiten können muss, damit dieser als relativ Zukunftssicher bezeichnet werden kann. Auch braucht man sich keine großen Sorgen um die Bildqualität zu machen, wenn der HDMI-Eingang nur 8 Bit anstatt 10 Bit unterstützt, einen Unterschied im Bild zwischen 8 und 10 Bit sehen selbst bei UHD-Auflösung nur die wenigsten. Auf einer derzeitigen Blu-ray zum Beispiel ist der Film auch nur mit 8 Bit bei einer Farbunterabtastung von YCbCr 4:2:0 gespeichert, wofür sogar noch der uralte HMDI 1.0 Standard zum übertragen reichen würde!

Im nachfolgenden Bild sehen Sie die Rückansicht eines LG UHD-TVs. Was welcher HDMI-Eingang für Eingangssignale unterstützt, wird am jeweiligen Eingang beschrieben. Leider machen das nicht alle Hersteller so, oft steht auch nur einfach „HDMI 1“ oder ähnlich, bei der Bezeichnung der HDMI-Eingänge.

Ebenfalls finden Sie in den Einstellmenüs der neuen UHD-TVs einen Punkt, der mit „UHD Deep Color“ oder ähnlich bezeichnet wird, siehe die beiden nachfolgend Bilder von Samsung und LG. Bitte beachten Sie: Nur an den 10 Bit fähigen HDMI-Eingängen wird „UHD Deep Color“ unterstützt, was man im Menü des Fernsehers wahlweise an- und ausschalten kann. Bitte verwechseln Sie „UHD Deep Color“ aber nicht mit „Deep Color (x.v. Color)“ für Full-HD, also zum Beispiel das Deep Color, das man an manchen derzeitigen Blu-ray Playern aktivieren kann, dieses ältere Deep Color wird an allen HDMI-Eingängen der UHD-TVs unterstützt, weil es noch zu den älteren Full-HD HDMI-Standard 1.4/a bzw. 1.3 gehört.

 

2. Erweiterte Information: Was bedeutet Deep Color überhaupt? 

Zunächst müssen alle miteinander verbundenen Geräte in der gesamten Kette "Deep Color" über HDMI unterstützen, also zum Beispiel auch der A/V-Receiver. Im Gegensatz zu RGB bzw. YCbCr, bei denen 8 Bit (256 Abstufungen) pro Farbe genutzt werden, können, wenn Deep Color aktiviert ist, 10 Bit (1024 Abstufungen), 12 Bit (4096 Abstufungen) oder 16 Bit (65536 Abstufungen) genutzt werden, um Farben in höherer Auflösung zu erzeugen. "x.v.Color” hingeggen ist eine Marke von Sony, eine Erklärung finden Sie unter diesem Link. Für "UHD Deep Color" zählt im Grunde aber das Gleiche wie schon bei Deep Color für Full-HD, allerdings wurde Ultra HD auch nach neuen Normen spezifiziert, ITU Rec.2020 und 1886 (Gamma), wo vorgeschrieben ist, dass Ultra HD Filmmaterial als unterstes Limit immer mit 10 Bit erstellt werden muss. Erweiterte Informationen über die Normen finden Sie hier bei uns auf dieser Seite.   

 

3. Die eingebauten Tuner/Empfänger, was müssen diese können?

Wichtig sind zudem noch die im TV verbauten Empfangstuner für die eingehenden Sat- oder Kabelsignale. Fehlt dem Gerät die Fähigkeit, 50Hz und 60Hz H.265/HEVC codierte Signale über die eingebauten Sat- und Kabelempfänger zu verarbeiten, bei einer Auflösung von 3.840 x 2.160 Bildpunkten, ist der TV nicht zukunftssicher! Der Astra UHD-Demokanal, und auch zukünftige UHD-Kanäle, können mit einem solchen UHD TV-Gerät also nicht empfangen werden, das Bild bleibt dunkel und es ist nur der Ton zu hören – die Tuner müssen also zwingend 50Hz/60Hz unterstützen und zudem muss der UHD-TV mit dem H.265/HEVC Codec ausgestattet sein. Wenn der TV schon jetzt den zukünftigen HD-fähigen DVB-T2 Standard unterstützt wäre das zwar schön, zwingend ist dieses Ausstattungsmerkmal zum derzeitigen Zeitpunkt aber nicht.

Sender, die ihr Programm bereits heute in Ultra HD-Auflösung ausstrahlen (Stand: Januar 2015), die gibt es bis auf den "Astra Ultra HD Demokanal" leider noch keine. Panasonic ist mit ihrer aktuellen AXW UHD-Serie zumindest für die Zukunft bestens gerüstet, bietet Panasonic doch bei allen ihren Ultra HD-TV’s eine extra UHD-TV Kategorie an, wo alle UHD-Kanäle automatisch aufgelistet werden.

Mehr Infos und die Empfangsparameter zum "Astra Ultra HD Demokanal" finden Sie hier.


Bitte beachten:
Manche TV-Hersteller reichen auch durch spätere Updates zunächst fehlende Ausstattungsmerkmale nach, überprüfen Sie daher regelmäßig, ob für ihren TV evtl. ein Softwareupdate zur Verfügung steht. 

Achtung Falle: Viele kleinere UHD-Einstigesmodelle besitzen nur Tuner, die bis zu 30Hz verarbeiten können, mit diesen Geräten kann zum Beispiel der Astra UHD-Demokanal nicht empfangen werden.

Um Filme auch in UHD-Auflösung streamen zu können, wie im nachfolgenden Bild über den Streamingdienst „WuakiTV“, muss der UHD-TV den H.265/HEVC Codec auch über die App des jeweiligen Streaminganbieters unterstützen. Dies ist aber meist sowieso immer dann der Fall, wenn der UHD-TV mit den dementsprechenden SmartTV-Eigenschaften ausgestattet ist.

Beachten Sie bitte zusätzlich, die verschiedenen TV-Hersteller unterstützen nicht immer auch alle Streaming-Anbieter. So muss, wie beim nachfolgenden Bild ein Sony KD-65X9005B, die Netflix-App, je nach Softwarestand des TV bei Auslieferung, unter Umständen nach dem Kauf erst nachinstalliert werden, bevor man den Dienst nutzen kann. Fragen Sie daher bitte vor dem Kauf genau nach, ob ihr favorisierter Streaming-Anbieter auch über die SmartTV-Oberfläche angeboten wird.

 

4. Checkliste für den Kauf: Was muss ein UHD-TV können, damit er zukunftssicher ist:

1. Das Gerät muss als unterste Mindestausstattung über mindestens einen HDMI-Eingang verfügen, der den Kopierschutz HDCP 2.2 bei 8 Bit, mit Farbunterabtastung YCbCr 4:2:0, bei 50 und 60Hz verarbeiten kann, um für zukünftige UHD/4K Blu-ray Player gerüstet zu sein.

2. Zusätzlich sollte das Gerät über mindestens einen HDMI-Eingang verfügen, der die UHD-Auflösung bei 10 Bit / Deep Color mit einer Farbunterabtastung von YCbCr 4:2:0 bis hoch zu YCbCr 4:4:4 bei 50/60Hz verarbeiten kann.

3. Der TV muss über einen eingebauten Sat-/Kabelempfänger verfügen, der auch 50/60Hz H.265/HEVC codierte Sat- oder Kabelsignale verarbeiten kann, um zukünftige UHD-Sender empfangen zu können.

4. Um zum Beispiel UHD-Filme über Netflix, WuakiTV und Co. streamen zu können, muss der H.265/HEVC Codec auch über die App des jeweiligen Streaminganbieters unterstützt werden. HDCP 2.2 sollte zudem auch beim Streamen greifen, was aber bei allen UHD-TVs der Fall sein sollte, die das Streamen mit H.265/HEVC unterstützen.

5. Optional sollte das Abspielen H.265/HEVC codierten UHD und auch Full-HD Files über den USB-Anschluss möglich sein.

6. JPEG-Bilder oder Fotos im Allgemeinen sollten auch in nativer UHD-Auflösung dargestellt werden, ohne das Ränder beschnitten werden.

7. Quasi als letzte Empfehlung, aber nicht zwingend notwendig, sollte auch über DLNA oder Samba, also gestreamt über das Netzwerk zuhause, H.265/HEVC codierte UHD-Files abgespielt werden können.

Wir empfehlen Ihnen diese Checklist auszudrucken und ihrem Verkäufer vorzulegen bzw. ihn drauf hinzuweisen, dass der UHD-TV die zuvor aufgezählten Ausstattungsmerkmale nach Möglichkeit alle unterstützen soll.

 

Hinweis: Die absolute Zukunftssicherheit wäre aber erst dann gegeben, wenn der UHD-TV über zumindest einen HDMI-Eingang verfügt, der alle zuvor genannten Eingangseigenschaften an nur einem einzelnen HDMI-Eingang in sich vereint, also HDCP 2.2 bei 10/12 Bit/Deep Color mit 50/60Hz bis hoch zur Verarbeitung von Signalen mit einer Farbunterabtastung bis YCbCr 4:4:4 – dies wäre der zukunftssicherste HDMI-Eingang, egal ob er nun mit HDMI 2.0 bezeichnet wird oder nicht.

Bitte beachten Sie ebenfalls: Bei den meisten Firmen, wie wir in Stichproben feststellen konnten, wird auf den jeweiligen Internetseiten des jeweiligen UHD-TVs HDMI 2.0 bzw. die HDMI-Version entweder gar nicht beschrieben oder nur wage umschrieben, ohne sich genau festzulegen. Daher unser Tipp, laden sie sich von dem Gerät, das Sie interessiert, vor dem Kauf die jeweilige Bedienungsanleitung im Supportbereich des Herstellers herunter, in dieser wird in den meisten Fällen beschrieben, was die einzelnen HDMI-Eingänge für Standards verarbeiten können. Siehe die beiden nachfolgenden Bilder, die aus der Bedienungsanleitung eines aktuellen LG-UHD Modells stammen. Hier wird eindeutig beschrieben, was das Gerät, an welchem HDMI-Eingang unterstützt.

Abschließend möchten wir noch bemerken; derzeit können wir nur zum Kauf von UHD-TVs von Markenherstellern raten, die zumindest ab den 2014er/2015er Modellen Zukunftssicherheit bieten. Bei Geräten der sogenannten Billighersteller, die derzeit einfach auf der UHD-Welle mit schwimmen und wo die Geräte oft nur eine höhere Auflösung bieten, müssen Sie jedoch ganz genau hinschauen, was die Ausstattung betrifft. Manchmal unterscheidet sich die Ausstattung sogar bei identischer Gerätebezeichnung, wenn zum Beispiel im Laufer der Zeit, also quasi in der laufenden Produktion, technische Änderungen einfließen! Das gilt im Übrigen für alle Hersteller, egal ob günstig oder teuer.        


Um aus ihrem neuen oder zukünftigen UHD-TV auch das beste Bild raus zu holen, empfehlen wir Ihnen abschließend, sich unsere aktuellen und sehr beliebten UHD-Testbilder anzuschauen, die Sie hier bei uns im Shop günstig erwerben können. So gut wie alle Kunden, die unsere UHD-Testbilder einsetzen sind begeistert, wie sie das Bild ihres Ultra HD-Fernsehers mit Hilfe unserer Testbilder visuell deutlich sichtbar verbessern konnten. So freuen wir uns immer sehr, wenn wir über uns unabhängige positive Meinungen lesen können, wie zum Beispiel an dieser Stelle im Hifi-Forum ab Beitrag Nummer #1102 (zweiter Beitrag von oben), wo sich Kunden äußerst zufrieden über unsere Produkte äußern.

Link: Die digitale TV Baustelle


Abbildungen: Sony, Panasonic, Samsung, LG
Copyright: BUROSCH

Derzeit schießt eine neue Produktgruppe wie die Pilze aus dem Boden. Sogenannte Android-TV Media-Boxen, die mit HDMI 2.0 Ausgang und HEVC (H.265) ausgestattet von sich reden machen und so bereits jetzt die 4K/UHD-Wiedergabe bis zu 60Hz ermöglichen sollen. Wir haben uns eine dieser neuen Boxen einmal etwas genauer angeschaut und zeigen, was man derzeit davon erwarten kann.

Ultrahoch auflösend, aber warum? Im folgenden Fachartikel der Zeitschrift "rfe-Elektrohändler" erfahren Sie Wissenswertes rund um das Thema Bildauflösung, Ultra HD und Rec.2020. 

Mittlerweile sind Begriffe wie UHD oder 4K in den allgemeinen Wortschatz aufgenommen, in den Elektrofachmärkten stehen entsprechende Geräte zum Kauf bereit. Doch was verbirgt sich hinter der vierfachen Full-HD Auflösung? In dem folgenden Bericht der Zeitschrift "FKT" (Ausgabe 12/2013) erläutert Prof. Hedtke von der Hochschule Rhein-Main ausführlich alle technischen Aspekte zu dieser neuen Fernsehtechnik.

Jahrelang wurde darüber geredet, Ende 2013 war es soweit: Mit den organischen Leuchtdioden kam eine dritte Bildschirm-Technologie auf den Markt, die so hell ist wie LCD und so reaktionsschnell, kontrastreich wie Plasma, dazu sparsam, dünn und leicht wie noch nie – zumindest theoretisch. Zudem ist OLED eine „Investition in die Zukunft“, so Samsung-Manager Michael Zöller. Denn mit dieser Technik ist „alles möglich“, selbst ein transparenter oder biegsamer Schirm. Die wichtigsten Fragen bzw. Antworten zu den neuen OLED Displays finden Sie hier ...

Sky ist der größte Anbieter von Pay-TV in Deutschland. Neben zahlreichen Film- und Seriensendern werden erstklassige Dokumentationen und Live-Übertragungen vieler Sportarten geboten. Auch in Sachen hochauflösendes Fernsehen ist Sky ein Wegbereiter und es kommen ständig neue HD-Sender hinzu. Mit dem mobilen „Sky Go" und „Sky Anytime" für Fernsehen auf Abruf sowie dem Bestellservice „Sky Select" wird das Angebot des Pay-TV-Riesen abgerundet. Wir informieren in zehn Fragen und zehn Antworten darüber, was beim Empfang von Sky in Bezug auf Verschlüsselung, Aufnahmen und entstehende Kosten wissenswert ist und was Kabelkunden beachten müssen.

MPO Multi Picture Object - das 3D-Bildformat

Die ersten für den Endkunden erschwinglichen 3D-fähigen TV-Geräte kamen Anfang 2010 auf den Markt. Mit dem Einzug dieser Geräte in die Wohnzimmer gewann auch der Wunsch danach, dreidimensionales Bildmaterial selbst erzeugen und anzeigen zu können an Bedeutung. Im Jahre 2011 wurde dieser Wunsch von der Home Entertainment Industrie erhört, und es sind erste an den Massenmarkt gerichtete 3D-fähige Geräte zur Aufnahme statischer und bewegter stereoskopischer Bilder verfügbar. Hier erfahren Sie Hintergründe zum 3D-Bildformat: MPO.

 

Inhaltsverzeichnis:

1. MPO Problem
2. MPO in der Theorie
3. Die Wurzeln des Formats: JFIF
4. MPO als Erweiterung von JFIF
5. Möglichkeiten des MPO Formates
6. JPS als Alternative zu MPO
7. MPO in der Praxis
8. MPO in modernen Endgeräten
9. Darstellung von MPO auf 3D Displays
10. Darstellung von MPO auf 2D Displays
11. Literaturempfehlungen & Quellen

 

1. MPO Problem

Für die dreidimensionale Photographie, im Gegensatz zur klassischen, zweidimensionalen Photographie ergibt sich ein grundsätzliches Problem: Klassische und etablierte Bildformate wie JPEG, JPEG-2000 oder PNG sind nicht zur Speicherung stereoskopischer Bilder geeignet – in den Dateien findet jeweils nur eine Photographie Platz, es werden aber zumindest zwei Photographien, eine für das rechte, eine für das linke Auge benötigt. Zwar wäre es möglich, beide Photographien in jeweils separaten Dateien in einem der genannten Formate zu speichern, für den Endkunden wäre diese Lösung jedoch unpraktisch: Was geschieht wenn eine der beiden Dateien versehentlich gelöscht wird, oder irrtümlicherweise an einem anderen Ort gespeichert wird und für die Betrachtersoftware nicht mehr auffindbar ist? Grundsätzlich sollten, um dem Nutzer den Umgang mit dem Bildmaterial zu erleichtern, alle zur Anzeige notwendigen Daten innerhalb einer einzigen Datei gespeichert sein, welche zwischen Datenträgern oder innerhalb eines Datenträgers einfach verschoben und kopiert werden kann.

Thema dieses Berichtes ist das MPO (Multi Picture Object) Format, welches eine Lösung für das Problem der Speicherung stereoskopischer Bilder bereitstellt und es ermöglicht mehrere Bilder innerhalb einer einzigen Datei zu speichern. Der erste Teil des Berichtes behandelt die theoretischen Aspekte des Formates: seine Herkunft, seinen grundsätzlichen Aufbau und seine Möglichkeiten. Der zweite Teil behandelt die praktischen Aspekte des Formates: Geräte zur Erstellung und Anzeige von MPO Dateien und die praktische Handhabung des Formates.

 

2. MPO in der Theorie

Das MPO Format wurde im Jahre 2009 von der CIPA (Camera & Imaging Products Association) standardisiert und ist heute das Standardausgabe- und Eingabeformat für dreidimensionale Photographien in den Geräten mehrerer Hersteller. Die typische Dateiendung einer MPO Datei ist '.MPO'. Der MPO Standard basiert auf dem JFIF Standard (JPEG File Interchange Format), welcher wiederum ein Containerformat für JPEG Dateien beschreibt.

Nicht nur die Struktur einer MPO Datei basiert auf Altbekanntem: Zur komprimierten Speicherung der Bilder innerhalb einer MPO Datei kommt das JPEG Verfahren zum Einsatz, tatsächlich besteht eine MPO Datei im Prinzip aus nichts anderem als einer Reihe aneinandergehängter JPEG Bilder und einigen für die dreidimensionale Darstellung notwendigen Zusatzinformationen.

Dieser Bericht behandelt ausschließlich die Struktur der Dateiformate, nicht aber das JPEG Verfahren, welches die Grundlage zur komprimierten Speicherung der Bilddaten im JFIF und MPO Format bildet. Der interessierte Leser sei an dieser Stelle auf den Bericht zum Thema JPEG mit dem Namen 'JPEG – Das Bildformat'  hingewiesen, welcher das Verfahren detailliert und in einer auch für den Laien verständlichen Weise beschreibt. Der Bericht ist frei zugänglich auf den Seiten der Firma Burosch unter http://www.burosch.de/technische-informationen.html.

 

3. Die Wurzeln des Formats: JFIF

Das JFIF Format wurde von Eric Hamilton im Jahre 1992, kurz nach der Standardisierung des JPEG Verfahrens als Ergänzung des JPEG Standards entwickelt. Da der JPEG Standard zwar ein leistungsstarkes Verfahren zur Komprimierung von Bilddaten, nicht aber ein Dateiformat zur Speicherung und Weitergabe von mit dem Verfahren komprimierten Bildern beschreibt, wird diese Lücke durch den JFIF Standard ausgefüllt.

Auch wenn JFIF als Begriff nur wenigen bekannt ist, so ist doch praktisch jeder, der im Besitz einer Digitalkamera oder eines Heimcomputers ist, schon mit Dateien im JFIF Format in Berührung gekommen, denn JFIF ist heute der De-Facto Standard für die Speicherung von JPEG Daten und was gemeinhin als 'JPEG Datei' bezeichnet wird, müsste eigentlich 'JFIF Datei' genannt werden. Die typische Dateiendung einer JFIF Datei ist '.JPG'.

 

JFIF HEX Editor

Abbildung 1: JFIF Marker innerhalb einer typischen JPEG Datei, visualisiert durch einen Hex-Editor. Der markierte Bereich ist ein APP0-Marker und enthält Informationen zur JFIF Version.

 

Innerhalb einer JFIF Datei sind verschiedene für die Dekodierung der Datei notwendige Parameter in kurzen Informationssegmenten, sogenannten JFIF Markern, gespeichert. JFIF Marker bestehen jeweils aus einigen Bytes an Information und werden durch eine zwei Byte lange Zeichenfolge der Form 0xFFXX (XX: Identifikation des Markes), gefolgt von einer Längenangabe für den Marker eingeleitet (siehe Abbildung 1).

SOI Marker (0xFFD8)
APP0 Marker (0xFFE0)
DQT Marker (0xFFDB)
DHT Marker (0xFFC4)
SOF Marker (0xFFC0)
SOS Marker (0xFFDA)

 

Komprimierte Bilddaten

 

EOI Marker (0xFFD9)

Abbildung 2: Typischer Aufbau einer JFIF Datei.

Zwei spezielle  JFIF Marker, welche auf einen Längenangabe verzichten und nur aus der zwei Byte langen Kennung bestehen, der SOI (Start-Of-Image) und der EOI (End-Of-Image) Marker markieren den Beginn und das Ende der Datei, zwischen diesen beiden Markern enthält die Datei weitere JFIF Marker sowie komprimierte Bilddaten (siehe Abbildung 2). Jede JFIF Datei enthält die für die Dekodierung der Bilddaten zwingend notwendigen Marker mit den Namen DQT (Define-Quantization-Tables), DHT (Define-Huffman-Tables), SOF (Start-Of-Frame) und SOS (Start-Of-Scan), sowie, üblicherweise direkt nach dem SOI Marker, einen Marker mit dem Namen APP0 (Application-0), welcher Informationen über die Version des JFIF Containers enthält.

Als einziger der genannten Marker ist der APP0 Marker für die Anzeige und Dekodierung des Bildes nicht zwingend notwendig, er erfüllt einen rein informativen Zweck. Außer dem APP0 Marker sind noch 14 weitere APPx Marker mit Namen APP1...APP14 im JFIF Standard beschrieben. Diese Marker werden von Anzeigeprogrammen im Zweifelsfall nicht ausgewertet und können daher für Metadaten, Erweiterungen oder sonstige beliebige Informationen genutzt werden.

Nur für zwei der APP1...APP14 Marker hat sich bislang ein Verwendungszweck etabliert: Der APP1 Marker wird üblicherweise für EXIF (Exchangable Image File Format) Daten genutzt, der APP13 Marker üblicherweise für IPTC (International Press Telecommunications Council) Daten. EXIF und IPTC sind internationale Standards für Metadaten, sie speichern Informationen zum Bild wie Zeitpunkt und Ort der Aufnahme, verwendetes Kameramodell, genutzte Kamereinstellungen, den Namen des Autors, eine Beschreibung des Bildinhaltes oder eine Miniaturansicht des Bildes. Um Fehlinterpretationen zu vermeiden, werden die APP0, APP1 und APP13 Marker üblicherweise nicht für andere Informationen genutzt, die Verwendung aller übrigen Marker steht jedoch bislang frei.  

 

4. MPO als Erweiterung von JFIF

Die Erweiterungsmöglichkeit, welche der JFIF Standard über die APPx Marker bereitstellt, wird vom MPO Format genutzt, um die organisierte Speicherung mehrerer Bilder innerhalb einer einzigen Datei zu ermöglichen. Um Konflikte mit den häufig genutzten EXIF und IPTC Markern APP1 und APP13 zu vermeiden, werden die Daten der MPO Erweiterung im APP2 Marker gespeichert.

Wie durch Abbildung 3 dargestellt, besteht eine MPO Datei aus einer einfachen Verkettung von zwei oder mehreren JPEG Dateien in JFIF Containern (nicht gezeigt in der Abbildung: JFIF Marker DQT, DHT, SOF, SOS). Die Bilder sind aneinandergehängt in einer einzelnen Datei gespeichert. Der einzige Unterschied zwischen einem einzelnen Bild in dieser Verkettung und einer herkömmlichen JPEG Datei liegt im Fehlen des APP0 Markers mit den JFIF Versionsinformationen und im Vorhandensein des APP2 Markers und den darin enthaltenen Informationen zur Darstellung der verketteten Bilder. Für gewöhnlich enthalten die Bilder in einer MPO Datei auch den APP1 Marker mit EXIF Metadaten und einer Miniaturansicht des Bildes.

Der APP2 Marker enthält einige Bytes zur Identifikation des Markers als MPO Erweiterung, Versionsinformationen zur verwendeten MPO Spezifikation, etliche Parameter, die den Blickwinkel und die genaue Position der Aufnahme beschreiben, sowie eine Typ-Zuweisung für das jeweilige Bild. Der Typ beschreibt, zu einem gewissen Grad, den Inhalt des jeweiligen Bildes und bestimmt, wie es angezeigt werden soll. Gültige Typen sind:

  • A:) Baseline MP Primary Image (Primäres Bild), ...
  • B:) Large Thumbnail  (Version in anderer Auflösung), ...
  • C:) Multi-Frame Image (andere Ansicht der Szene) und ...
  • D:) Undefined  (undefinierter Typ).

Das jeweils erste Bild in der Verkettung enthält im APP2 Marker zusätzlich einen Index aller in der MPO Datei enthaltenen Bilder, jeweils mit individuellen Kennungen, Bilddimensionen (Höhe x Breite), genauer Position in der Datei und Größe des jeweiligen Bildes innerhalb der Datei in Byte. Dieser Index wird genutzt, um auf alle Bilder innerhalb der Datei einzeln zugreifen zu können.

 

SOI Marker
APP1: EXIF Informationen
APP2: MPO Informationen

Bild #1

MPO Index-Tabelle

EOI Marker
SOI Marker
APP1: EXIF Informationen
APP2: MPO Informationen

Bild #2

MPO Index-Tabelle

EOI Marker

SOI Marker
APP1: EXIF Informationen
APP2: MPO Informationen

Bild #n

MPO Index-Tabelle

EOI Marker

Abbildung 3: Aufbau einer typischen MPO Datei (Bilder bereitgestellt durch Fa. Burosch Audio-Video-Technik, burosch.de).

 

5. Möglichkeiten des MPO Formates

Die Speicherung und die Darstellung stereoskopischer Bilder ist zwar der übliche Nutzungszweck für das MPO Format, MPO kann jedoch mehr. Es ist möglich, mehr als nur zwei individuelle Bilder innerhalb der Datei zu speichern und diese Bilder müssen auch nicht zwingend unterschiedliche Ansichten derselben Szene zum selben Zeitpunkt darstellen.

Die Darstellung einer Szene aus unterschiedlichen Blickwinkeln zu einem gegebenen Zeitpunkt bietet sich durch die Struktur der MPO Erweiterungen im APP2 Marker zwar an, tatsächlich war aber einer der ursprünglichen Nutzungszwecke des Formates die Speicherung zweier Varianten ein und desselben Bildes: Eine Variante in der ursprünglichen Auflösung, eine Variante in einer für die Darstellung auf HD-TVs optimierten Auflösung. Man nennt diese Form der Nutzung auch den 'Baseline' MPO Modus, sie erlaubt als einzige gültige Typen A ('Primäres Bild') und B ('Version in anderer Auflösung').

Weit häufiger als der 'Baseline' MPO Modus kommt in der Praxis der 'Extended' MPO Modus zum Einsatz. Dieser erlaubt alle Typen, und lässt durch den 'undefinierten Typ' dem Ersteller praktisch alle Freiheiten bei der Zusammenstellung der verketteten Bilder. Obwohl so praktisch eine komplette Dia-Schau (man denke an einen Satz Urlaubsbilder) innerhalb einer einzigen Datei möglich wäre, ist diese Nutzung eher selten. Im herkömmlichen Gebrauch enthält eine MPO Datei mehrere Ansichten derselben Szene, also Bilder des Typs C ('andere Ansicht der Szene'). Für den Typ C sind im MPO Standard drei Untertypen definiert: 'Panorama', 'Disparity' und 'Multi-Angle'.

Der 'Panorama' Untertypus ist weitgehend selbsterklärend und leicht von den anderen Untertypen abzugrenzen: Alle Bilder dieses Untertypus innerhalb einer MPO Datei ergebenen gemeinsam eine umfassende Ansicht einer Szenerie (z.B. Innenansicht eines historischen Gebäudes) von einem bestimmten Standort aus. Die Bilder wurden jeweils so photographiert, dass sie an den Rändern nahtlos zusammengesetzt werden können, und so für den Betrachter die Illusion einer tatsächlichen Rundumsicht schaffen können. Beispiele solcher Panorama-Bilder, wenn auch nicht im MPO Format gespeichert, sind unter anderem im WWW zu finden auf http://www.360cities.net/.

Weniger leicht fällt die Abgrenzung zwischen den Untertypen 'Disparity' und 'Multi-Angle'. Beide Typen werden für Bilder verwendet, die eine bestimmte Szene von unterschiedlichen Standorten aus und gegebenenfalls leicht oder stark unterschiedlichen Blickwinkeln zeigen. Der Unterschied zwischen den Typen liegt im vorgesehenen Anzeigemodus: Bei Bildern des Typus 'Disparity' weichen die Standorte der einzelnen Bilder untereinander nur gering ab, so gering wie etwa der typische Abstand zwischen zwei menschlichen Augen. Der 'Disparity' Typ wird bei Bildern verwendetet, die zur gleichzeitigen, dreidimensionalen Ansicht auf 3D-fähigen Geräten vorgesehen sind. Es ist möglich mehr als nur zwei Bilder des Typus 'Disparity' in der Verkettung zu speichern, und so mehrere dreidimensionale Ansichten einer Szene in einer einzigen Datei zu speichern.

Bilder des Typus 'Multi-Angle' hingegen sind üblicherweise nicht zur gleichzeitigen, dreidimensionalen Ansicht geeignet. Die einzelnen Bilder dieses Typen zeigen verschiedene, teilweise stark abweichende Ansichten einer Szene und sind zur Einzelansicht vorgesehen. Denkbar ist bei Bildern dieses Typen etwa die Ansicht eines historischen Gebäudes von der Nord-, Ost-, Süd-, Westseite oder gar aus der Vogelperspektive.

Trotz der vielfältigen Möglichkeiten des MPO Formates hat in der Praxis bislang nur ein einzelner Einsatzzweck Bedeutung: Die Speicherung und Darstellung stereoskopischer Bilder. Zu diesem Zweck beinhaltet eine MPO Datei üblicherweise zwei Bilder des Typs C ('andere Ansicht der Szene') und des Untertyps 'Disparity', die jeweils die Ansicht aus dem linken und aus dem rechten menschlichen Auge repräsentieren.

 

6. JPS als Alternative zu MPO

JPS (JPEG Stereoscopic) ist ein weiteres Bildformat, welches zur Speicherung und Darstellung stereoskopischer Bilder geeignet ist. Wie das MPO Format basiert es auf dem JPEG Verfahren und auf dem JFIF Container, bietet jedoch weit weniger Möglichkeiten als MPO und ist in der Praxis weniger verbreitet.

 

FPS Alternative MPO

Abbildung 4: Darstellung eines .JPS Bildes innerhalb eines gewöhnlichen (2D) Bildbetrachtungsprogramms. Man beachte die Unterschiede zwischen dem linken und dem rechten Bild, besonder deutlich erkennbar an den Bildrändern.

 

Eine JPS Datei besteht, im Gegensatz zu einer MPO Datei, aus einer einzigen JPEG/JFIF Datei. Die Erweiterungen für die dreidimensionale Anzeige sowie die Identifizierung als JPS Datei werden dabei im bislang nicht genutzten APP3 Marker gespeichert. Die zwei Ansichten des Bildes für die stereoskopische Darstellung sind innerhalb eines einzigen Bildes, Seite an Seite gespeichert (siehe Abbildung 4). JPS Dateien enthalten außerdem wie gewöhnliche JPG Dateien, anders als die verketteten Bilder innerhalb einer MPO Datei, üblicherweise den APP0 Marker mit den JFIF Versionsinformationen.

Die spezielle Art der Speicherung innerhalb einer JPS Datei hat einen großen Vorteil gegenüber der Speicherung innerhalb einer MPO Datei: Der einzige Unterschied zu einer herkömmlichen JPEG Datei ist der APP3 Marker, welcher von mit JPS nicht kompatiblen Anzeigeprogrammen ignoriert wird. Daher können beide Ansichten innerhalb jedem beliebigem zur Darstellung von gewöhnlichem JPEG fähigen Anzeigeprogramm dargestellt werden. Auch MPO bietet eine solche Möglichkeit zur Darstellung auf nicht kompatiblen Plattformen, jedoch nur für das erste Bild in der Verkettung – dazu später mehr.

 

7. MPO in der Praxis

Nachdem die theoretischen Aspekte des Formates im vorigen Kapiteln behandelt wurden, sollen nun die praktischen Aspekte in den Vordergrund gestellt werden. Dieses Kapitel stellt einige derzeit (Stand Juli 2011) auf dem Markt erhältlichen MPO-fähigen Geräte vor und erläutert wie MPO Dateien auf den Displays digitaler Anzeigegeräte dargestellt werden. Der Fokus liegt dabei, aufgrund der großen Bedeutung für den Einsatz in der Praxis, auf der Nutzung von MPO als 3D Bildformat.

 

8. MPO in modernen Endgeräten

Bereits heute sind Geräte auf dem Markt mittels derer der Endkunde MPO Dateien selbst erstellen kann. Die Liste dieser Geräte ist zum jetzigen Zeitpunkt noch kurz, wächst jedoch beständig. Folgende Geräte sind auf dem Markt erhältlich (Stand Juli 2011) und können dreidimensionale Photographien erzeugen und in MPO Dateien speichern:

  • von FujiFilm: die Digitalkameras FinePix Real 3D W1 (Abbildung 6) und FinePix Real 3D W3
  • von Panasonic: die Digitalkamere Lumix DMC-TZ20
  • von Sony: die Digitalkamera DSC-HX7V
  • von HTC: das Mobiltelephon EVO 3D (Abbildung 5)
  • von JVC: der digitale Camcorder JVC GY-HMZ1U
  • von Nintendo: die portable Spielkonsole Nintendo 3DS

MPO-faehiges Mobiltelephon

Abbildung 5: MPO-fähiges Mobiltelephon EVO 3D von HTC (Quelle: Wikimedia Commons).

 

Digitalkameras, welche dreidimensionale Photographien im MPO Format erzeugen, verfügen üblicherweise, im Gegensatz zu traditionellen Digitalkameras, über zwei Objektive statt nur einem (siehe Abbildung 6). Die beiden Objektive repräsentieren dabei die beiden menschlichen Augen und sind in typischem Augenabstand auf den Geräten angebracht. Wird der Auslöser der Kamera betätigt, so wird durch beide Objektive gleichzeitig jeweils ein digitales Bild erzeugt, welche dann im Inneren der Kamera zu einer einzelnen MPO Datei kombiniert werden und im internen Speicher oder auf einer Speicherkarte als solche gespeichert werden.

 

FujiFilm FinePix Real 3D

Abbildung 6: FujiFilm FinePix Real 3D W1: Zwei Objektive statt nur einem einzelnen (Quelle: fujifilm.com).

 

Die Geräte der Hersteller FujiFilm, HTC und Nintendo verfügen über ein spezielles Display, welches es ermöglicht, die Photographien ohne weitere Hilfsmittel in dreidimensionaler Form direkt auf dem Gerät zu betrachten (siehe hierzu auch das folgende Unterkapitel). Außer den Geräten, welche die Dateien erzeugen, sind mittlerweile verschiedene Geräte, auch solche die nicht über ein spezielles Display verfügen, fähig, MPO Dateien anzuzeigen. Zur Liste derer Geräte, welche MPO Dateien ohne zusätzliche Hardware in dreidimensionaler Form anzeigen können, zählen unter anderem die aktuellen 3D HD-TV Geräte der großen Hersteller Panasonic (siehe Abbildung 7), Sony, LG und Samsung.

 

MPO Full HD TV

Abbildung 7: MPO-kompatibles HD TV Gerät TX-P50GT30E (Quelle: panasonic.de / burosch.de)

 

Die MPO Dateien werden über USB Sticks, über Speicherkarten oder durch eine Kabelverbindung mit der Digitalkamera in die TV Geräte eingespeist und über den internen Medien-Player auf dem Bildschirm wiedergegeben (siehe Abbildung 8). Viele Geräte, unter anderem die aktuellen Panasonic TV Geräte der 'Viera' Reihe (siehe Abbildung 7) ermöglichen mittlerweile auch eine kabellose Übertragung der Daten direkt vom Aufnahmegerät oder von einem Heimserver über WLAN.

MPO Medienplayer

Abbildung 8: Typischer Weg einer MPO Datei: Die Digitalkamera (links-oben) erzeugt eine MPO Datei (rechts-oben) und spechert diese auf einer Speicherkarte (rechts-unten). Die Speicherkarte wird in einen 3D fähigen HD Fernseher (links-unten) gesteckt, dort das Bild mittels des internen Medienplayers abgespielt.

 

9. Darstellung von MPO auf 3D Displays

3D TVs verfügen über spezielle Displays, welche die Wiedergabe von MPO und anderen stereoskopischen Inhalten in einer Form ermöglichen, die beim Betrachter einen tatsächlichen dreidimensionalen Eindruck schafft. Außer bei TV Geräten kommen solche speziellen Displays auch bei anderen Geräten der Unterhaltungselektronik zum Einsatz, etwa Computer-Monitoren, Handydisplays, auf portablen Konsolen und den Displays von Digitalkameras. Bilder im MPO Format und andere stereoskopische Inhalte können nur durch ein 3D Display in ihrer vollen Farbvielfalt dreidimensional dargestellt und wahrgenommen werden.

Von Bedeutung sind im Bereich der 3D Displays heute hauptsächlich drei unterschiedliche Technologien: Shutterbrillen, Polarisationsfilter und autostereoskopische Displays. Gemeinsam ist diesen drei Technologien nur eines: Die beiden Ansichten eines stereoskopischen Bildes werden zwar (annähernd) gleichzeitig auf dem Display angezeigt, jedoch wird das Bild so gefiltert, dass die Ansicht des rechten Auges vor dem linken Auge und die Ansicht des linken Auges vor dem rechten Auge verborgen bleibt. Die Shutterbrillen- und die Polarisationsfilter-Technik kommt auch auf Leinwänden zum Einsatz.

Die Shutterbrillen-Technik nutzt die Trägheit des menschlichen Auges bei der Wahrnehmung einzelner Bilder. Die an das linke und das rechte Auge gerichteten Bilder werden nicht gleichzeitig, sondern abwechselnd in schneller Reihenfolge auf dem Display oder der Leinwand dargestellt. Die Betrachter tragen Shutterbrillen, die eine Stromversorgung enthalten und deren Gläser aus zwei Flüssigkristallflächen bestehen. Die Flüssigkristallflächen werden abwechselnd zwischen durchlässig und undurchlässig umgeschaltet. So wird entweder das linke oder das rechte Auge abgedeckt und das jeweils angezeigte Bild ist nur durch ein Auge wahrnehmbar. Damit dies synchron mit dem dargestellten Bild auf dem Display oder der Leinwand geschieht, jedes Auge also nur das ihm zugeordnete Bild wahrnimmt, muss eine Verbindung zwischen dem darstellenden Gerät (i.d.R. TV oder Projektor) und der Shutterbrille bestehen. Diese wurde früher durch ein Kabel realisiert, heute hauptsächlich durch ein Infrarot-Signal (siehe Abbildung 9). Der menschliche Betrachter bemerkt von den Vorgängen hinter der Technik nichts und nimmt nur das dreidimensionale Bild war.

Bei der Shutterbrillen-Technik können sogenannte 'Crosstalk'-Effekte auftreten, wenn die Brille das jeweilige Auge nicht völlig synchron mit dem angezeigten Bild abdunkelt. In diesem Fall wird z.B. die für das rechte Auge bestimmte Ansicht minimal zu lange angezeigt, während die Shutterbrille bereits für das linke Auge öffnet – das linke Auge nimmt dann noch kurz die für das rechte Auge bestimmte Ansicht wahr und es entstehen störende Doppelkonturen. Ob und wie stark ein Gerät von Crosstalk betroffen ist kann mit geeigneten Testbildern, überprüft werden. Entsprechende Testbilder sind verfügbar auf den Seiten der Firma Burosch unter

http://www.burosch.de/store/index.php?route=product/product&path=4&product_id=8.

 

Shutterbrille

Abbildung 9: Panasonic Shutterbrille TY-EW3D10E: Synchronisation durch Infrarot-Signal (Quelle: panasonic.de)

 

Im Home Entertainment Bereich kommt die Shutterbrillen-Technik bereits längere Zeit zum Einsatz. Diverse Shutterbrillen und entsprechende Grafikkarten für PCs, welche die dreidimensionale Darstellung von Spielen erlaubten, waren bereits um das Jahr 2000 auf dem Markt. Heute ist die Shutterbrillen-Technik die dominierende Technik bei 3D TVs im Heimbereich. Allgemein hat sie den Vorteil, dass sie praktisch auf jedem Gerät realisierbar ist, dessen Display eine genügend hohe Bildwiederholfrequenz aufweist und das über einen geeigneten Weg zur Synchronisation mit den Shutterbrillen verfügt. Shutterbrillen-Kompatibilität erhöht dementsprechend die Produktionskosten der Anzeigegeräte nur in geringem Maße. Die Brillen selbst sind, aufgrund der Flüssigkristallflächen und der notwendigen Komponenten zur Synchronisation nicht billig herstellbar. Für ein größeres Publikum wie z.B. im Kino ist die Shutterbrillen-Technik nur bedingt geeignet, da Beschädigung und Diebstahl ein finanzielles Risiko darstellen. Auch für portable Geräte ist die Technik aufgrund der Notwendigkeit des Mitführens und Tragens der zugehörigen Brillen nur wenig geeignet.

Im Bereich der Leinwand-Projektion, insbesondere in 3D Kinos, ist die Polarisationsfilter-Technik die am weitesten verbreitete Technik. Bei dieser Technik werden die beiden Ansichten des stereoskopischen Bildes gleichzeitig mittels unterschiedlichen polarisierten Licht dargestellt. Die Gläser der zugehörigen Brillen bestehen aus Polarisationsfiltern, welche jeweils nur für das polarisierte Licht einer Ansicht durchlässig sind und die andere Ansicht blockieren (siehe Abbildung 10). Diese Technik kam bereits lange vor dem 3D Boom im Jahre 2009 in IMAX 3D Kinos zum Einsatz.

Die Polarisationsfilter-Technik stellt eine Herausforderung für Anzeigegeräte dar: Projektionsgeräte müssen polarisiertes Licht erzeugen, herkömmliche Leinwände auf Textilbasis können aufgrund der Zerstreuung des Lichts nicht verwendet werden, entsprechende Displays müssen - ohne Verlust von Schärfe oder Kontrast - aus zwei Schichten (eine für jede Polarisation) aufgebaut sein. Die Polarisationsfilter-Technik ist aus diesen Gründen allgemein im Bereich des Home Entertainment, bei 3D TVs und bei portablen Geräten heute (Stand 2011) noch eher selten. Ihr klarer Vorteil liegt in der Einfachheit der notwendigen Brillen. Diese enthalten keine komplizierten Komponenten und sind daher als Wegwerfprodukte herstellbar. Verlust und/oder Diebstahl sind im Gegensatz zur Shutterbrillen-Technik keine finanzielle Gefahr.

Polarisationsfilterbrille

Abbildung 10: 'Real D' Polarisationsfilterbrille: wird eingesetzt unter anderem in Cinemaxx Kinos (Quelle: Wikimedia Commons)

Autostereoskopische Displays schließlich ermöglichen als einzige Technologie die dreidimensionale Darstellung von Bildern ohne weitere Hilfsmittel – Brillen wie bei der Shutterbrillen- und Polarisationsfilter-Technik sind nicht notwendig. Über der Darstellungsfläche enthalten diese Displays ein Linsenraster oder eine Streifenmaske, welche sicherstellen dass die dargestellten Pixel immer nur das jeweils passende Auge erreichen.  Die dreidimensionale Darstellungsqualität autostereoskopischer Displays ist stark von der Kopfposition des Betrachters abhängig: Bereits eine kleine Änderung dieser Position kann zu einer merklichen Verschlechterung oder Verbesserung der wahrgenommenen Qualität führen. Manche Geräte können diese Effekte teilweise ausgleichen, indem sie mittels Head Tracking oder Eye Tracking die Kopfbewegungen des/der Betrachter verfolgen und entsprechend das Linsenraster oder die Streifenmaske anpassen.
Die Technik lässt sich nicht auf Leinwände übertragen, für ein größeres Publikum wie z.B. im Kino sind autostereoskopische Displays aus den genannten Gründen ohnehin ungeeignet. Auch im Home Entertainment Bereich hat die Technik bislang praktisch keine Bedeutung. Sehr gut geeignet ist die Technik hingegen für portable Geräte, da dort von nur einem einzelnen Betrachter ausgegangen werden kann und das Mitführen und Tragen von 3D Brillen unterwegs eher unpraktisch ist. Autostereoskopische Displays sind heute im Einsatz unter anderem in den 3D Digitalkameras FujiFilm Real 3D W1 und FujiFilm Real 3D W3, in Nintendos portabler Spielekonsole Nintendo 3DS und im 3D Mobiltelephon HTC EVO 3D (Stand 2011).

 

10. Darstellung von MPO auf 2D Displays

Stereoskopische Bilder im MPO Format können auch auf klassischen zweidimensionalen Displays betrachtet werden. Eine Reihe unterschiedlicher Darstellungsmodi bietet sich dazu an:

  • JPEG Komaptibilitätsmodus (nur eine Ansicht)
  • Anzeige in zeitlicher Abfolge (Diashow)
  • Anzeige neben- oder übereinander (Side-by-Side, Top-and-Bottom)
  • Anzeige als Grau- oder Farb-Anaglyphen-Bild

Der einfachste der genannten Darstellungsmodi ist der JPEG-Kompatibilitätsmodus. Dieser kann auf Geräten und mit Anzeigeprogrammen genutzt werden, die zwar nicht mit MPO, aber dafür mit JPEG kompatibel sind. Aufgrund des speziellen Aufbaus einer MPO Datei (der Verkettung mehrerer JFIF/JPEG Dateien innerhalb einer einzelnen Datei) ist es mit Einschränkungen möglich, die Bilder auch auf solchen inkompatiblen Plattformen wiederzugeben. Im JPEG-Kompatibilitätsmodus wird nur die das erste Bild in der Verkettung angezeigt, der Rest der Datei ignoriert. Üblicherweise ist das erste Bild in der Datei die linke Ansicht des stereoskopischen Bildes (siehe Abbildung 11).

JPEG-Kompatibilitätsmodus

Abbildung 11: Darstellung einer MPO Datei im JPEG-Kompatibilitätsmodus

 

Theoretisch kann jede JPEG kompatible Plattform MPO Dateien im Kompatibilitätsmodus anzeigen. Da Medien-Player und Betrachtersoftware jedoch häufig auch von der Dateierweiterung der anzuzeigenden Dateien abhängig sind, MPO Dateien aber statt .JPG die (in diesem Fall unbekannte) Erweiterung .MPO haben, funktioniert diese Art der Anzeige in vielen Fällen nicht ohne ein manuelles Ändern der Dateierweiterung seitens des Nutzers.

 

MPO Datei im Bildbetrachtungsprogramm

Abbildung 12: Anzeige einer MPO Datei im Bildbetrachtungsprogramm Irfanview: Umschalten zwischen den Ansichten / Seiten

 

Viele Betrachterprogramme für Heimcomputer sind mittlerweile MPO-kompatibel, verfügen aber über keinen geeigneten Modus zur gleichzeitigen Anzeige der beiden Ansichten. Eine Behelfslösung ist daher die Anzeige in zeitlicher Abfolge, auch bekannt als Diashow. Der Nutzer kann bei dieser Lösung zwischen den Anzeigen hin- und herschalten (siehe Abbildung 11). Bildbetrachtungs- und Bearbeitungsprogramme, die auf stereoskopische Bilder spezialisiert sind, bieten zumeist verschiedene Modi für die gleichzeitige zweidimensionale Darstellung von MPO Dateien an. Zwei einfache Fälle sind der Side-by-Side (Abbildung 13) und der Top-and-Bottom (Abbildung 14) Modus für die Darstellung der beiden Ansichten neben- bzw. übereinander.

 

Side-by-Side

Abbildung 13: Side-by-Side Ansicht eines in einer MPO Datei gespeicherten stereoskopischen Bildes. Man beachte die Unterschiede zwischen den beiden Ansichten, besonders gut erkennbar an den Bildrändern.

Top-and-Bottom

Abbildung 14: Top-and-Bottom Ansicht eines in einer MPO Datei gespeicherten stereoskopischen Bildes. Man beachte die Unterschiede zwischen den beiden Ansichten, besonders gut erkennbar an den Bildrändern.

 

Die beiden Darstellungsmodi machen insbesondere dann Sinn, wenn das stereoskopische Bild bearbeitet werden soll, also etwa Manipulation von Bildschärfe, Kontrast, Helligkeit oder Zuschneidung vorgenommen wird. Durch gleichzeitige Darstellung behält der Nutzer die Übersicht über beide Ansichten und sieht die Auswirkungen etwaiger Veränderungen sofort. Die letzten beiden Darstellungsmodi in der Liste, die Anzeige als Grau- oder Farb-Anaglyphen-Bild, ermöglichen mit Hilfe einer entsprechenden Brille die dreidimensionale Darstellung auf eigentlich ungeeigneten Displays, Projektoren und Leinwänden. Bei der Anaglyphen-Technik werden die beiden Ansichten eines stereoskopischen Bildes jeweils mit Rot- und Cyan-Filtern eingefärbt und übereinandergelegt.  Der Betrachter trägt eine spezielle Anaglyphenbrille, deren Gläser wiederum jeweils aus einem Rot- und einem Cyan-Filter bestehen (siehe Abbildung 15). Die Filter in der Brille sind jeweils nur für die in einer Farbe eingefärbte Ansicht durchlässig und es entsteht ein dreidimensionaler Eindruck. Die Anaglyphen-Technik war auch die dominierende Technik während des ersten 3D Booms in den Kinos ab der Mitte der 50er Jahre des letzten Jahrhunderts und wurde seither immer wieder im Kino, im Fernsehen und in der frühen 3D Photographie eingesetzt.

 

Anaglyphenbrille

Abbildung 15: Typische Anaglyphenbrille: Rot- (links) und Cyan-Filter in den Gläsern (Quelle: Wikimedia Commons)

 

Aufgrund der zu verwendenden Farbfilter reduziert die Anaglyphen-Technik die Farbvielfalt des ursprünglichen Bildes. Da die Farben Rot und Cyan verwendet werden um die Tiefeninformation im Bild zu kodieren kann die ursprüngliche Farbtreue nicht beibehalten werden. Der bestmögliche 3D Effekt wird tatsächlich nur dann erreicht, wenn auf Farbe gänzlich verzichtet wird und zunächst in Graustufen konvertiert wird (siehe Abbildung 16).

Einen Kompromiss stellt das Farb-Anaglyphen-Bild dar: Bei dieser Form der Darstellung  werden die beiden Ansichten ebenfalls mit Rot- und Cyan-Filtern eingefärbt, es wird jedoch ein Teil der ursprünglichen Farben beibehalten (siehe Abbildung 17). Der dreidimensionale Eindruck eines Farb-Anaglyphen-Bildes ist in der Regel etwas schwächer als bei einem enstsprechenden Grau-Anaglyphen-Bild.

Die Anaglyphen-Technik stellt kaum Anforderungen an das darstellende Medium und ist heute auf allen Arten von Farbdisplays, Leinwänden und Projektoren möglich, so lang eine ausreichende Farbtiefe gewährleistet ist. Anaglyphen-Brillen sind billig als Wegwerfartikel herstellbar. Dennoch kann der Anaglyphen-3D-Effekt die Darstellung auf echten 3D Displays, insbesondere für das Shutterbrillen- oder Polaristionsfilter-verwöhnte Auge, kaum ersetzen – zu störend sind die Abstriche im 3D Effekt, der Verlust an Farbtreue und der durch die unterschiedlich gefärbten (Rot und Cyan) Ansichten verwirrende Effekt auf die menschliche Wahrnehmung.

 

Grau-Anaglyphen-Bild

Abbildung 16: Ein aus einer MPO Datei mittels Rot- und Cyan Filtern erzeugtes Grau-Anaglyphen-Bild

 

Farb-Anaglyphen-Bild

Abbildung 17: Ein aus einer MPO Datei mittels Rot- und Cyan Filtern erzeugtes Farb-Anaglyphen-Bild

 

 

''JPEG – Das Bildformat'' von Matthias Stirner: Eine detailierte Kurzübersicht über das JPEG Format, welche auch für den Laien verständlich die inneren Vorgänge und die praktische Nutzung des Formats beschreibt. Frei zugänglich und zu finden auf den Seiten der Firma Burosch unter http://www.burosch.de/technische-informationen.html.

 

11. Literaturempfehlungen & Quellen

Die verwendeten Bilder wurden dort wo nicht anders beschrieben von der Firma Burosch Audio-Video-Technik bereitgestellt. Die Firma ist im WWW zu finden unter: www.burosch.de. Dem interessierten Leser seien zur weiterführenden Recherche folgende Werke empfohlen:

''JPEG – Das Bildformat'' von Matthias Stirner: Eine detailierte Kurzübersicht über das JPEG Format, welche auch für den Laien verständlich die inneren Vorgänge und die praktische Nutzung des Formats beschreibt. Frei zugänglich und zu finden auf den Seiten der Firma Burosch unter

JPEG - Das Bildformat Teil 1: Theorie und Grundlagen

JPEG - Das Bildformat Teil 2: Praxis

''JFIF Spezifikation v1.02'' von Eric Hamilton: Die Spezifikation des JFIF Formats, auf dem MPO basiert. Frei erhältlich unter http://www.jpeg.org/public/jfif.pdf.

''Multi Picture Format'' von verschiedenen Autoren: Die Spezifikation des MPO Formates. Enthält Illustrationen für die verschiedenen Einsatzmöglichkeiten des Formates. Zu beziehen unter: www.cipa.jp/english/hyoujunka/kikaku/pdf/DC-007_E.pdf.

Falls Sie durch diesen Bericht auf den Geschmack gekommen sind, und nun selbst MPO Dateien erzeugen, bearbeiten oder konvertieren möchten, empfehlen wir Ihnen dieses Programm:

''Stereo Photo Maker'' für MS Windows, ein Programm speziell zur Manipulation stereoskopischer Bilder: Das Programm ermöglicht das Konvertieren von MPO Dateien in eine Reihe anderer Formate, etwa das JPS Format oder, als Anaglyphen-Bild, das JPEG Format. Einige Basis-Manipulationen wie Änderung von Kontrast, Helligkeit, Bildschärfe oder Zuschneiden des Bildes sind ebenfalls möglich. Wenn Sie momentan (noch) kein MPO-fähiges Aufnahmegerät besitzen, dann können Sie die beiden Ansichten mit einer herkömmlichen Digitalkamera einzeln aufnehmen und mit Stereo Photo Maker zu einer MPO Datei kombinieren. Das Programm ist kostenfrei erhältlich auf der Seite der Autors unter http://stereo.jpn.org/ger/stphmkr/index.html.

 

Impressum

Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.
Technischer Redakteur:
Matthias Stirner
Copyright 2011 – All rights reserved

Media Streaming mit DLNA und UPnP. Viele machen es, weniger wissen etwas darüber. In der folgenden Seminararbeit der Hochschule Aalen (Fakultät Elektronik und Informatik) wird dieses Thema näher beleuchtet. 

Der Startschuss für die Übertragung hochaufgelöster Bilder fiel in Deutschland bereits am 27. Oktober 2005, zum damaligen Zeitpunkt aber mit nur sehr wenigen Zuschauern. Die beiden HD-Kanäle Pro 7 HD und Sat.1 HD der ProSiebenSat.1 Media AG nahmen ihren Regelbetrieb auf, und strahlten als erste deutsche Fernsehsender ihr Vollprogramm im sogenannten Simulcastbetrieb parallel zu SD auch in HDTV aus. Erfahren Sie hier alles über die Anfänge und technische Hintergründe.