Burosch-Homebutton

Wissenswertes

Wer sich über die aktuellen Features hinaus schlau machen möchte, der ist in dieser Rubrik richtig. Hier finden Sie alles Wissenswerte … ausführlich erklärte Grundlagen, Seminare und interessante Literatur-Tipps rund um das Thema Audio- und Video-Technik.  


Die Samsung TV Modelle

Die folgenden Daten geben Ihnen eine erste Hilfe für die optimale Bildeinstellung. Bitte wählen Sie Ihren Fernseher.

 

Inhaltsverzeichnis

1. PS64F8590
2. UE46F6500
3. UE46F6510
4. UE65F8090
5. UE75F8090
6. UE55F6470
7. UE60F7090
8. UE40C7700
9. PS51D6900
10. UE37D6200

 

1. PS64F8590

Bildmodus: Film

Zellhelligkeit: 20

Kontrast: 100

Helligkeit: 45

Schärfe: 10

Farbe: 50

Farbton: G50 / R50

Bildformat: 16 : 9

Optimalkontrast: Aus

Schwarzton: Aus

Hautton: 0

Nur RGB Modus: Aus

Farbraum: Auto

Weißabgleich: R-Offset 25, G-Offset 24, B-Offset 16, R-Gain 22, G-Gain 18, B-Gain 18

Gamma: 0

Farbton: Warm 1

MPEG-Rauschfilter: Aus

HDMI-Schwarzpegel: Gering

Motion Juder: Standard

Schwarz Optimierung: Aus

 

2. UE46F6500

Bildmodus: Film

Kontrast: 100

Helligkeit: 45

Schärfe: 0

Farbe: 50

Farbton: G50 / R50

Bildformat: Bildanpassung

Optimalkontrast: Aus

Schwarzoptimierung: Hoch

Hautton: 0

Farbraum: Auto

Nur RGB Modus: Aus

Farbraum: Auto

Gamma: 0

Farbton: Warm 1

MPEG-Rauschfilter: Aus

 

 

3. UE46F6510

Bildmodus: Film

Hintergrundbeleuchtung: 20

Kontrast: 100

Helligkeit: 45

Schärfe: 0

Farbe: 50

Farbton: G50 / R50

Bildformat: Bildanpassung

Optimalkontrast: Aus

Schwarzoptimierung: Hoch

Hautton: 0

Farbraum: Auto

Nur RGB Modus: Aus

Farbraum: Auto

Gamma: 0

Farbton: Warm 2

MPEG-Rauschfilter: Aus

 

4. UE65F8090

Bildmodus: Film

Hintergrundbeleuchtung: 20

Kontrast: 65

Helligkeit: 45

Schärfe: 0

Farbe: 55

Farbton: G50 / R50

Bildformat: Bildanpassung

Optimalkontrast: Aus

Schwarzoptimierung: Hoch

Hautton: 0

Farbraum: Auto

Nur RGB Modus: Aus

Farbraum: Auto

Gamma: 0

Farbton: Warm 2

MPEG-Rauschfilter: Aus

  

5. UE75F8090

Bildmodus: Film

Hintergrundbeleuchtung: 20

Kontrast: 65

Helligkeit: 45

Schärfe: 0

Farbe: 55

Farbton: G50 / R50

Bildformat: Bildanpassung

Optimalkontrast: Aus

Schwarzoptimierung: Hoch

Hautton: 0

Farbraum: Auto

Nur RGB Modus: Aus

Farbraum: Auto

Gamma: 0

Farbton: Warm 2

MPEG-Rauschfilter: Aus

 

6. UE55F6470

Bildmodus: Film

Hintergrundbeleuchtung: 20

Kontrast: 95

Helligkeit: 45

Schärfe: 0

Farbe: 53

Bildformat: Bildanpassung

Optimalkontrast: Aus

Schwarzton: Aus

Farbraum: Auto

Farbraum: Auto

Gamma: 0

Farbton: Warm 2

MPEG-Rauschfilter: Aus

 

7. UE60F7090

Bildmodus: Film

Hintergrundbeleuchtung: 20

Kontrast: 100

Helligkeit: 45

Schärfe: 0

Farbe: 55

Farbton: G50 / R50

Bildformat: Bildanpassung

Optimalkontrast: Aus

Schwarzoptimierung: Hoch

Hautton: 0

Farbraum: Auto

Nur RGB Modus: Aus

Farbraum: Auto

Gamma: 0

Farbton: Warm 2

MPEG-Rauschfilter: Aus

 

8. UE40C7700

Modus: Film

Hintergrundbel.: 9

Helligkeit: 46

Kontrast: 87

Schärfe: 15

Farbe: 50

Farbton: Mitte

Scharzton: aus

Optimalkontrast: mittel

Schattendurchzeichng.: -2

Kantenglättung: ein

Farbtemp.: warm1

Blau: +8

Rauschfilter: aus

Motionplus: benutzerdefiniert

 

9. PS51D6900

Bildmodus: Film

Zellhelligkeit: 15

Kontrast: 100

Helligkeit: 57

Schärfe: 14

Farbe: 50

Farbtemp.: warm2

RGB-Offset: 28, 25, 23

RGB-Gain: 23, 35, 25

Rauschfilter: auto

Filmmodus: ein

 

10. UE37D6200

Bildmodus: Standard

Hintergrundbel.: 17

Kontrast: 90

Helligkeit: 45 

Schärfe: 50

Farbe: 52

Schwarzton: aus

Optimalkontrast: mittel

Schattendurchz.: -1

Gamma: 0

Farbraum: nativ

Kantenglättung: ein

LED Motion Plus: ein

 

end faq

Die Wellenzahl 'k'
In unseren aktuellen Testbildern wird zur Beschreibung der Intensität von Frequenzen in wellenförmige Signalverläufen die Einheit 'k' statt der geläufigeren Einheit 'Hz' bzw. 'MHz' genutzt. Wir erklären Ihnen in diesem Dokument warum wir uns für diese Einheit entschieden haben, die Herkunft und die Bedeutung der Wellenzahl k.
Wellenförmige Signalverläufe
Eine Angabe über die Frequenz eines Signalverlaufs kann überall dort getroffen werden, wo dieser Signalverlauf wellenförmig ist. Zutreffend ist dies bei einem auf der Sinus- oder Kosinus-Funktion basierende Wechsel von Helligkeitswerten im Testbild oder auch bei regelmäßig verlaufenden sonstigen Wechseln der Pixelwerte.

bild1

Ein solcher Signalverlauf liegt z.B. vor bei dem oben gezeigten Ausschnitt aus unserem 'Sweep Steps' Testbild. Die horizontal veränderlichen Helligkeitswerte des Ausschnitts basieren auf der Kosinusfunktion. Die Frequenz für die Horizontale kann mit der Wellenzahl k angegeben werden.

bild2

Auch die Helligkeitswerte unser 'Cosine Circles' Testbild basieren auf der Kosinus-Funktion, der Signalverlauf ist vom Zentrum ausgehend in alle Richtungen wellenförmig. Die Wellenzahl k kann nicht nur für die Horizontale, sondern für alle Richtungen zur Angabe der Frequenz genutzt werden.

bild3

Ein Schachbrettmuster besteht aus sich regelmäßig abwechselnden Schwarz-Weiß-Pixeln. Auch hierfür kann die Wellenzahl k zur Angabe der Frequenz genutzt wurden, es muss jedoch zuvor geklärt werden ob die Frequenz für die Horizontale, die Vertikale oder die 45° Diagonale angegeben wird.
Definition der Wellenzahl 'k'
Die Wellenzahl 'k' stammt ursprünglich aus der Signaltheorie und wird zur Beschreibung wellenförmiger Signalverläufe in pixelbasierten Daten verwendet. Sie ist verwandt mit der Einheit 'Hertz' ('Hz'), basiert jedoch auf dem Pixel als Basiseinheit anstatt der Zeit.
Die Wellenzahl k ist der Kehrwert der Wellenlänge λ (gesprochen 'lambda'). Die Wellenlänge λ wiederum beschreibt die Länge einer Periode (also einer vollständig abgeschlossenen Welle) in Pixeln.
Mathematisch ausgedrückt ist der Zusammenhang zwischen Wellenzahl k und Wellenlänge λ dieser: k = 1 / λ.
Einfacher lässt sich dieser Zusammenhang am Beispiel erklären. Schauen Sie sich hierzu diese Grafik an:

bild4

Sie sehen horizontal wechselnde weiße und schwarze Pixel. Das Muster wiederholt sich jeweils nach 2 Pixeln, die Periodenlänge ist also 2 Pixel:
λ = 2px
Während λ die Antwort auf die Frage 'Wie lang ist eine Welle?' liefert, liefert k die Antwort auf die Frage 'Wieviele Wellen gibt es pro Pixel?'. Entsprechend wird k aus dem Kehrwert von λ errechnet:
λ = 2px → freq = 1/λ = ½k = 0,5k
Wie Sie sehen entspricht eine Periodenlänge von 2 Pixeln einer Frequenz von 0,5k.

bild6

Die obige Grafik zeigt Ihnen verschiedene Signalverläufe mit Periodenlängen von 2/4/8/16/32px und die jeweils zugehörige mit k gemessene Frequenz.
Für nicht strikt horizontale bzw. vertikale periodische Signalverläufe muss zusätzlich beachtet werden, dass grundsätzlich der tatsächliche Pixelabstand der Frequenzangabe zugrunde gelegt werden muss.

bild7

In der obigen Grafik z.B. beträgt der Abstand zwischen den beiden weißen Pixeln exakt √2 ≈ 1,414px. Angenommen dieser Ausschnitt ist Teil eines wellenförmigen Signalverlaufs, so beträgt die Frequenz dieses Signalverlaufs im 45° Grad Winkel ca. 0,707k.
Warum k statt MHz?
Die Einheit MHz hat für unsere Zwecke den Nachteil, dass diese zeitbasiert und dadurch abhängig von der Bildwiederholfrequenz des Ausgabemediums ist. Zeigen Sie unser Full-HD-Testset auf einem Full-HD-fähigen TV-Gerät an, so wäre die Frequenz in MHz eine andere als bei der Ausgabe auf dem Computermonitor, obwohl die jeweilige Bilddatei exakt die gleiche wäre.
Das Problem der Abhängigkeit vom Ausgangsmedium wird durch die durchgängige Verwendung der Wellenzahl k zur Angabe von Frequenzen behoben, indem Frequenzen nun in Abhängigkeit von Pixeln beschrieben werden. Durch die Wellenzahl k haben Sie die Garantie dass – völlig unabhängig vom Ausgabemedium – Sie immer eine korrekte Angabe der Frequenz haben.

Quellen
Nischwitz A., Fischer M., Haberäcker P.; 'Computergrafik und Bildverarbeitung'; Erschienen im Vieweg+Teubner Verlag; ISBN-13: 978-3834801869
Verschiedene Autoren; 'Wikipedia: Wellenzahl'; http://de.wikipedia.org/wiki/Wellenzahl

Impressum

BUROSCH Audio-Video-Technik
Inhaber: Klaus Burosch
Sigmaringer Str. 20
70567 Stuttgart / Germany
www.burosch.de
Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein.

Technischer Redakteur
Matthias Stirner

Copyright 2013 – All rights reserved

"Brightness" and "Contrast" Controls (engl.)

This note introduces the two main user adjustments of a video monitor, BRIGHTNESS and CONTRAST. I explain the effect that these controls have on picture reproduction, and I explain how to set them. This note applies to computer monitors, studio video monitors, and television receivers.

Warum und wie nehmen wir unsere Umwelt wahr? Was hilft uns bei der Orientierung? Wie nutzt die Fernsehtechnik die menschliche Wahrnehmung? Diese und weitere Fragen werden im folgenden Artikel von Professor Karl R. Gegenfurtner, Universität Gießen/Abteilung Allgemeine Psychologie.

Was sind Farben ?

Was ist eigentlich Farbe? Was ist Reflexion? Was additive Farbmischung? Grundlagenwissen aus der Seminararbeit von Beate Bladowksi und Daniel Maus, Universität Mannheim. Farbe ist die individuelle visuelle Wahrnehmung, die durch Licht, das in dem für das menschliche Auge sichtbaren Bereich liegt, hervorgerufen wird. Die für den Menschen wahrnehmbaren Farbreize liegen im Bereich zwischen 380 nm und 780 nm des elektromagnetischen Spektrums. Die Farbwahrnehmung ist subjektiv durch die Beschaffenheit von Augen, Empfindlichkeit der Rezeptoren und dem folgenden Wahrnehmungsapparat unterschieden. Andere optische Wahrnehmungen wie Struktur (Licht-Schatten-Wirkungen), Glanz oder Rauheit, sowie psychische Effekte und Phänomene des Sehsinns, wie Umstimmung oder Adaption, sind vom Farbbegriff zu unterscheiden. „Farbe ist diejenige Gesichtsempfindung eines dem Auge des Menschen strukturlos erscheinenden Teiles des Gesichtsfeldes, durch die sich dieser Teil bei einäugiger Beobachtung mit unbewegtem Auge von einem gleichzeitig gesehenen, ebenfalls strukturlosen angrenzenden Bezirk allein unterscheiden kann.“ (Definition nach DIN 5033)

 

Inhaltsverzzeichnis:

1. Beschreibung von Farbeindrücken
1. 1 Unterscheidung von achromatischen und chromatischen Farben
1. 2 Wieviele Farben können wir unterscheiden?

2. Was sind Farben?
2.1 Physikalischer Ansatz
2. 1. 1. Was ist Reflektanz?
2. 1. 2. Durchsichtige Objekte
2. 2. Psychologischer Ansatz

3. Wie nehmen wir Farben wahr?
3. 1. Trichromatische Theorie
3. 2. Gegenfarbentheorie
3. 3. Farbmischung
3. 3. 1. Additive Farbmischung
3. 3. 2. Subtraktive Farbmischung
3. 3. 3. Die Grassmannschen Gesetze
3. 3. 4. Warum gibt es unendlich viele Möglichkeiten, aus monochromatischen Reizen weißes Licht zu erzeugen?
3. 4. Die Farbwahrnehmungstheorien unter physiologischen Gesichtspunkten
3. 4. 1. Die trichromatische Theorie und der Muster-Code
3. 4. 2. Die Gegenfarbentheorie und neuronale Verarbeitung von Farbreizen

 

1. Beschreibung von Farbeindrücken

1. 1 Unterscheidung von achromatischen und chromatischen Farben

 

Farben ohne jeden Farbton bezeichnet man als achromatische Farben. Hierzu zählen Weiß, Schwarz sowie Grautöne.

Grauverlauf

Die restlichen Farben werden chromatische Farben genannt, wie zum Beispiel Blau, Rot, Gelb etc.

Sichtbares Spektrum

 

1. 2 Wieviele Farben können wir unterscheiden?

Der Mensch kann etwa 200 Farbtöne unterscheiden. Wenn man nun die Intensität des jeweiligen Farbtons verändert, ergeben sich pro Farbton etwa 500 unterscheidbare Helligkeiten. Zuletzt variiert man den Weißanteil im Farbton und erhält circa 20 weitere Farben pro Farbton. Insgesamt kann der Mensch also ungefähr 20 Millionen Farben unterscheiden. Da diese Anzahl Farben zu groß ist, um sinnvoll damit umzugehen, beschränkt sich die Psychologie in der Regel auf vier Farben (blau, gelb, rot, grün). Diese Grundfarben und ihre Kombinationen reichen aus, um alle unterscheidbaren Farben zu beschreiben. Ordnet man diese Farben nun so in einem Kreis an , daß sie der Reihe im Farbspektrum entsprechen, dann liegen die Grundfarben auf den Positionen 12, 3, 6 und 9 Uhr.

Farbkreis

 


2. Was sind Farben?

2.1 Physikalischer Ansatz

Die ersten Hinweise zur Erklärung der Farbwahrnehmung lieferte Isaac Newton bereits im Jahre 1704. Er plazierte ein Prisma so, daß Sonnenlicht durch ein Loch im abgedunkelten Fenster darauf fiel.

Prisma

Er beobachtete, daß das Sonnenlicht beim Durchgang durch das Prisma verändert wurde. Und zwar wurde es aufgespalten in ein Farbspektrum. Dieser Vorgang war reversibel. Durch Zusammenführung der Spektralfarben mit Hilfe einer Linse gelang es ihm, das urprüngliche Sonnenlicht wiederherzustellen.

Spätere Arbeiten zeigten, daß die Spektralfarben sich in der Wellenlänge unterscheiden. Licht mit der Wellenlänge von

  • ca. 400 - 450 nm sehen wir violett,
  • ca. 450 - 500 nm sehen wir blau,
  • ca. 500 - 570 nm sehen wir grün,
  • ca. 570 - 590 nm sehen wir gelb,
  • ca. 590 - 620 nm sehen wir orange,
  • ca. 620 - 700 nm sehen wir rot.

Meistens sehen wir jedoch nicht das Licht direkt von der Quelle, sondern die Strahlen erreichen unsere Augen, nachdem sie von einer Oberfläche reflektiert wurden. Um nun zu verstehen, warum Objekte auch dann farbig erscheinen können, wenn sie von einer unbunten Lichtquelle beleuchtet werden, werfen wir einen Blick auf die Reflektanzkurven von Objekten.

 

2. 1. 1. Was ist Reflektanz?

Dieser Wert beschreibt den Prozentsatz an Licht, den ein Objekt vom einfallenden Licht (= 100%) wieder zurücksendet. Aus den Reflektanzplots wird ersichtlich, daß es erhebliche Unterschiede in den Reflektanzkurven zwischen chromatischen und achromatischen Objekten gibt. Während bei unbunten Objekten der Prozentsatz der Reflektanz über das sichtbare Spektrum nahezu gleichbleibt, variiert das zurückgeworfene Licht bei farbigen Objekten im Spektralbereich enorm. Dies nennt man selektive Reflektion

Hieraus resultiert nun der Farbeindruck dieser Objekte. Fällt beispielsweise weißes Licht auf ein Objekt und es reflektiert lediglich den langwelligen Anteil des Lichts, so wird dieser Körper rot erscheinen.

 Reflektanzkurven

Reflektanzkurven für blaue Pigmente, grüne Pigmente, sowie für schwarze (-), graue (---) und weiße (...) Oberflächen.

2. 1. 2. Durchsichtige Objekte

Bislang war nur von Objekten die Rede, die das auftreffende Licht entweder verschlucken oder zum Teil wieder abstrahlen. Gelten die Regeln der farbigen Objekte aber auch für transparente Dinge? Ja, der einzige Unterschied ist, daß das wieder abgestrahlte Licht durch das Objekt hindurch geht und nicht (oder nur zum Teil) an dessen Oberfläche reflektiert wird. Preiselbeersaft zum Beispiel läßt nur das langwellige Licht passieren und erscheint dadurch rot.

 

2. 2. Psychologischer Ansatz

Farbe ist eine Sinnesempfindung.

Außerhalb des Auges gibt es keine Farben, sondern lediglich Strahlungen; gelangen diese auf die Netzhaut des Auges, werden sie von den spezifischen Sinneszellen in Nervenimpulse umgewandelt. Diese Impulse werden ans Gehirn weitergeleitet und lösen dort eine Farbempfindung aus.

Die Voraussetzungen für eine solche Farbempfindung sind zum einen physikalische Ursachen (Strahlung), die den Farbreiz auslösen, zum anderen funktions- und empfindungsfähige Sinneszellen (Netzhaut), die einem lebenden Organismus angehören. Ohne diese physikalischen und biologischen Voraussetzungen existiert der Begriff "Farbe" überhaupt nicht.

Demnach wird Farbe wie folgt definiert:

"Farbe ist diejenige Gesichtsempfindung eines dem Auge strukturlos erscheinenden Gesichtsfeldes, durch die sich dieser Teil bei einäugiger Beobachtung mit unbewegtem Auge von einem gleichzeitig gesehenen, ebenfalls strukturlosen angrenzenden Bezirk allein unterscheiden kann." (nach DIN 5033, Teil 1 - 9: Farbmessung (1964 - 1978))

Nach dieser Definition ist Farbe eine Gesichtsempfindung. Da jedoch beim Sehen noch anderes wahrgenommen wird als Farbe, muß der Begriff der Gesichtsempfindung eingegrenzt werden:

"Strukturlos" bezieht sich darauf, daß zwei Objekte, die miteinander verglichen werden, sich nicht durch eine Textur wie zum Beispiel Rillen, unterscheiden sollten.

"Einäugige Beobachtung mit unbewegtem Auge" bezieht sich auf die Wahrnehmung von Glanz. Glanz ist nämlich ein Helligkeits-Kontrast-Phänomen, das entsteht, wenn dieselbe Gesichtsfeldstelle gleichzeitig für beide Augen (bzw. für ein Auge kurz nacheinander) eine merklich verschiedene Helligkeit hat. Solange wir auf eine unbewegte Fläche mit unbewegtem Auge blicken, nehmen wir keinen Glanz wahr.

Der psychologische Ansatz der Farbempfindung zeigt, daß Farbe ein subjektives Sinneserlebnis ist.

 


3. Wie nehmen wir Farben wahr?

3. 1. Trichromatische Theorie

Diese Theorie von Young und Helmholtz besagt, daß die Farbwahrnehmung auf drei Rezeptortypen basiert, wovon jeder eine unterschiedliche spektrale Sensibilität aufweist. Licht mit einer bestimmten Wellenlänge stimuliert die drei Rezeptorarten unterschiedlich stark, und das Aktivitätsmuster löst im Gehirn eine Farbempfindung aus.

Young und Helmholtz stützten ihre Theorie auf eine Reihe von Versuchen, die "Color matching" genannt werden. Bei diesen Experimenten soll die Vpn die Proportionen dreier Wellenlängen derart einstellen, daß die Farbe der Mischung und die Vergleichsfarbe, bestehend aus einer einzigen Wellenlänge, identisch aussehen.

Beispielsweise soll ein Licht von 500 nm durch eine Mischung der Wellenlängen 420 nm, 560 nm und 640 nm erzeugt werden.

(0.5 * 420 nm + 0.375 * 560 nm + 0.125 * 640 nm = 500)

Auf diese Weise kann jede Wellenlänge und somit jede Farbe erzeugt werden. Zum Mischen können drei beliebige Wellenlängen verwendet werden, sofern sie unabhängig voneinander sind; d. h. wenn keine der drei Wellenlängen durch Mischung der anderen beiden erzeugt werden kann.

 

3. 2. Gegenfarbentheorie

Obwohl die Trichromatische Theorie eine Vielzahl von Phänomenen erklärt, die bei der Farbwahrnehmung auftreten, wie z. B. die Farbmischung, gibt es ein paar Farbwahrnehmungen, die dadurch nicht zu erklären sind. Diese hat Hering (1878) mit Hilfe seiner Gegenfarbentheorie erläutert. Er fand heraus, daß die Farbenpaare rot und grün bzw. blau und gelb zusammengehören. Er stützte seine Theorie auf eine Reihe von Experimenten, sowie die Tatsache, daß Leute, die die Farbe Rot nicht sehen können, ebenso nicht imstande sind, Grün wahrzunehmen (mit Blau und Gelb verhält es sich ebenso). Die Grundidee der Theorie sind drei Mechanismen, die gegensätzlich auf verschiedene Lichtintensitäten reagieren:

  1. Der Schwarz (+)-Weiß (-)-Mechanismus reagiert negativ auf Dunkelheit und positiv auf weißes Licht.
  2. Der Rot (+)-Grün(-)-Mechanismus reagiert positiv auf Rot und negativ auf Grün.
  3. Der Gelb(+)-Blau(-)-Mechanismus reagiert positiv auf Gelb und negativ auf Blau.

 

3. 3. Farbmischung

3. 3. 1. Additive Farbmischung

Zwei oder mehrere Farbreize werden gemischt (addiert), so daß sie einen einheitlichen, neuen (homogenen) Farbeindruck, nämlich die Mischfarbe, erzeugen. Dafür gibt es drei Möglichkeiten:

  • Dieselbe Netzhautstelle im Auge wird gleichzeitig von zwei oder mehreren Strahlungen getroffen.
  • Dieselbe Netzhautstelle im Auge wird in raschem periodischen Wechsel (f > 25 Hz) von 2 oder mehreren Strahlungen getroffen. Hierzu kann man eine in verschiedenen Farbflächen unterteilte Scheibe rotieren lassen.
  • Nicht dieselbe Stelle auf der Netzhaut, sondern eng benachbarte Teile darauf werden gleichzeitig von verschiedenen Strahlungen getroffen. Für diese Art der Farbmischung werden dem Auge verschiedene, nebeneinanderliegende Farbpunkte geboten, die so klein und eng benachbart sind, daß sie das Auge nicht mehr auflösen kann.

Diese drei Verfahren werden unter dem Begriff der additiven Farbmischung zusammengefaßt, weil die Mischfarbe sich aus der Summe der spektralen Verteilungen der Ausgangsfarben zusammensetzt.

 

Additive Farbmischung

 

3. 3. 2. Subtraktive Farbmischung

Zwei oder mehrere Filter werden hintereinandergeschaltet bzw. zwei oder mehrere Farbstoffe werden gemischt, so daß sich eine neue homogene Farbe ergibt. Die dabei entstandene Mischfarbe ergibt sich aus dem Produkt der spektralen Verteilungen, Reflektanzen oder Transmissionsfunktionen der Ausgagsfarben.

Im Beispiel ergeben Blau und Gelb in der subtraktiven Farbmischung bei unbunter (weißer) Beleuchtung Grün, während sie in der additiven Mischung weiß ergeben würden.

Der Ausdruck "subtraktive Farbmischung" ist allerdings etwas irreführend, da hier zum einen nicht Farben gemischt werden, sondern eine gegenseitige spektrale Beeinflussung stattfindet, und zum anderen diese Beeinflussung nicht subtraktiv, sondern multiplikativ ist.

Subtraktive Farbmischung

 

3. 3. 3. Die Grassmannschen Gesetze

Bei der additiven Farbmischung gelten folgende Gesetzmäßigkeiten:

  1. Mit drei geeigneten relativen spektralen Verteilungen kann man jeden Farbreiz durch additive Mischung dieser drei "Eichreize" (auch Grundfarben genannt) vollkommen nachahmen. Die jeweils gewünschte Mischfarbe ist immer durch ein bestimmtes Verhältnis zu erreichen. Die Voraussetzung hierfür ist, daß die Eichreize so gewählt werden, daß keiner durch Mischung der beiden anderen dargestellt werden kann. B (Farbreiz K) = (Grundfarbe 1) * B1 + (Grundfarbe 2) * B2 + (Grundfarbe 3) * B3, wobei "Grundfarbe" der Farbton im Farbdreieck ist und "B" die Leuchtdichte bzw. Helligkeit der Eichreize ist.
  2. Wenn zwei Lichter mit unterschiedlichen spektralen Verteilungen denselben Farbeindruck hervorrufen, dann tun sie das auch, man die Leuchtdichte (= objektive Helligkeit) bei beiden um denselben Faktor ändert. n * K = (Grundfarbe 1) * B1 * n + (Grundfarbe 2) * B2 * n + (Grundfarbe 3) * B3 * n, wobei "n" der Faktor ist, um den die Leuchtdichte "B" geändert wird.
  3. Zwei Lichter, die nebeneinander betrachtet dieselbe Farbempfindung hervorrufen, zeigen auch bei weiteren Mischprozessen das gleiche Verhalten; daher kann in jeder Mischung die eine durch die andere ersetzt werden. Ist nun K = (Grundfarbe 1) * B1 + (Grundfarbe 2) * B2 + (Grundfarbe 3) * B3 undK' = (Grundfarbe 1) * B1' + (Grundfarbe 2) * B2' + (Grundfarbe 3) * B3' dann kann man die beiden Farbreize in ihrer Mischung K + K' durch ihre gleichaussehenden Eichreizkombinationen ersetzen: K + K' = (Grundfarbe 1) * (B1 + B1') + (Grundfarbe 2) * (B2 + B2') + (Grundfarbe 3) * (B3 + B3')

3. 3. 4. Warum gibt es unendlich viele Möglichkeiten, aus monochromatischen Reizen weißes Licht zu erzeugen?

Hat man zwei beliebige Punkte im Farbendreieck, so kann man durch Veränderung des Mischungsverhältnisses jede Farbe, die sich auf einer Geraden zwischen diesen beiden Punkten befindet, erzeugen.

Sucht man sich nun einen festen Punkt im Farbendreieck, und zieht eine Gerade durch diesen und den Weißpunkt, so kann man durch Mischung der Ausgangsfarbe mit einer beliebigen anderen Farbe, die sich auf der gegenüberliegende Seite des Weißpunkts befindet, weißes Licht erzeugen (sofern man die Helligkeit entsprechend ändert). Hat man nun drei oder mehrere Reize, müssen diese lediglich so gewählt sein, daß der Weißpunkt innerhalb des jeweiligen Polygons ist, damit dieser durch Mischung erzeugt werden kann.

 

3. 4. Die Farbwahrnehmungstheorien unter physiologischen Gesichtspunkten

Physiologische Forschungen haben ergeben, daß sowohl die Annahmen der trichromatischen Theorie als auch die der Gegenfarbentheorie zutreffen. Die Mechanismen der Trichromatischen Theorie arbeiten auf Rezeptorebene, die der Gegenfarbentheorie auf neuronaler Ebene.

Farbsegel

 

3. 4. 1. Die trichromatische Theorie und der Muster-Code

1983 gelang es, drei unterschiedliche Farbpigmente in den Zapfen zu finden, die ihre Absorptionsmaxima im Kurz- (419 nm), Mittel- (531 nm) und Langwellenbereich (558 nm) des sichtbaren Spektrums haben. Die Farbwahrnehmung basiert auf den Aktivitätsmustern dieser drei Rezeptortypen.

Die Abbildung zeigt die Beziehung zwischen den Rezeptoraktivitäten und unserer Farbwahrnehmung. Die Stärke der Reaktionen in den S-, M- und L-Rezeptoren ist durch die Pfeilgröße symbolisiert.

Reaktionsstärke

Anhand dieser Reaktionsmuster erklärt sich auch die additive Farbmischung: Addiert man z. B. die Aktivitätsmuster des blauen und des gelben Farbeindruckes, so erhält man eine etwa gleich starke Reaktion bei den S-, M- und L-Rezeptoren, die mit dem Aktivitätsmuster des weißen Farbeindrucks übereinstimmt.

 

3. 4. 2. Die Gegenfarbentheorie und die neuronale Verarbeitung von Farbreizen

In den letzten Jahren hat die Gegenfarbentheorie an Bedeutung gewonnen, da es gelungen ist, Neuronen in der Retina ausfindig zu machen, die mit elektrischen Signalen gegenläufig auf Reize verschiedener Wellenlänge reagieren. Die Neuronen reagieren positiv auf das Licht am einen Ende des Spektrums und negativ auf das Licht am anderen Ende. Es gibt vier verschiedene Arten solcher Neuronen in der Retina:

Die Blau(+)-Gelb(-)-Zelle reagiert auf Licht mit der Wellenlänge von 450 nm mit verstärkter Aktivität und feuert bei 580 nm Licht überhaupt nicht. Die Grün(+)-Rot(-)-Zelle zeigt ebenfalls gegensätzliches Verhalten, jedoch sind sie bei kurzen Wellenlängen gehemmt und bei langen Wellenlängen erregt. Die Gelb(+)-Blau(-) und die Rot(+)-Grün(-)-Zellen zeigen ebenso gegensätzliche Reaktionen, allerdings werden sie durch kurze Wellenlängen gehemmt und von langen Wellenlängen erregt.

Eine andere Art von Neuronen, die nach dem gegenläufigen Prinzip funktionieren, sind die Bipolarzellen. In der Mitte der Zelle verhält sie sich wie ein R(+)-G(-)-Neuron, im Umfeld jedoch wie ein R(-)-G(+)-Neuron. Die Art der Reaktion wird dadurch bestimmt, welcher Teil der Zelle stimuliert wird.

Doppelfarbzelle

 

Quelle: Seminararbeit an der Uni Mannheim von Beate Bladowksi und Daniel Maus

A/V Delay

Mit der Burosch A/V Delay Testsequenz kann die Audio/Video Snychronität optimal überprüft werden. 

 

Burosch A/V Delay Testsequenz

Das Burosch A/V Dlay Testbild. Genauso perfekt wie hier abgebildet sollte dieses Testbild auf Ihrem Display dargestellt werden, um die korrekte Audio und Video Synchronität zu kontrollieren und gegebenfalls mit diesem Testbild zu korregieren.
Immer wenn der rote Punkt sich auf der 12 Uhr Position befindet ist gleichzeitig der Signalton zu hören.

Audio Informationen zu diesem Testbild: {play}mp3/av_delay.mp3{/play}

Ein alt bekanntes Problem: Der Ton stimmt nicht zeitlich richtig mit den entsprechenden Lippenbewegungen der Schauspieler überein. Um sicher zu gehen, ob Bild und Ton auch wirklich synchron übertragen werden, bietet die A/V Delay Testsequenz Abhilfe.

 

Ziel:

Bei einer absolut snychronen und paralell zueinander laufenden Wiedergabe von Bild und Ton ist grundsätzlich zu dem Zeitpunkt, wenn sich der rote Punkt auf der 12 Uhr Position befindet, der Signalton zu hören. Erst jetzt ist sichergestellt, dass z.B. Stimmen entsprechend der Lippenbewegungen synchron zu hören sind.
Sollte dies nicht der Fall sein, sollten Sie die Paramter wie "Lip-Sync" (AV Delay) Funktionen an Ihren Surround Receiver entsprechend korrigieren.

 

Funktionsweise:

Das Testbild zeigt eine Kreislinie ähnlich einer Uhr. In der definierten Zeitdauer von 1000 Millisekunden überstreicht der konstant wandernde Punkt alle Markierungen der Kreislinie. Aufgebaut in 24 Vollbildern pro Sekunde (24p) läuft der rote Kreis durch die einzelnen Millisekundenpositionen, immer wenn sich der Punkt auf der 12 Uhr Position befindet, färbt sich dieser vollflächig rot, ein großer roter Kreis in der Mitte erscheint zusätzlich und der Signalton ist zeitgleich hörbar.  

 

Burosch A/V Delay Testsequenz

Eventuelle Abweichungen in der Audio vs. Video Synchronität können sehr deutlich definiert werden. Hier in diesen Beispiel können klar eine Abweichung von 292ms und 792ms festgestellt werden. ( weißer Punkt bei der entsprechenden Markierung)

 

Burosch A/V Delay Testsequenz

Im linken Bildbeispiel zeigen wir Ihnen eine fast perfekte Audio und Video Synchronität. Im rechten Bildbeispiel wird die absolut perfekte Sychnronität dargestellt: Der rote Punkt ist ganz oben auf der Kreislinie und der innere Bereich des Testbilds erscheint kurzfristig vollflächig ganz in roter Farbe und ergänzend ist genauso kurz ein Signalton hörbar.

 

Informationen Medientechnik und Produkte

Erfahren Sie mehr über unsere Leistungen und Produkte. 

 

Inhaltsverzeichnis

1. Allgemeines

2. Unsere Kunden / Unsere Empfehlungen

3. Das Archiv der nicht mehr lieferbaren Produkte unserer Firma

4. So downloaden, entpacken, brennen und speichern Sie unsere Testbilder

 

1. Allgemeines

Burosch Praxishandbuch „MedientechnikGeschichte. Grundlagen. Gegenwart".

Der Ablauf meiner Bestellung - Kunden Login - Mein Download - Meine Rechnung

FAQ über unseren Shop

So wählen Sie das richtige Produkt in unserem Shop

Die Burosch UltraHD TV Kaufberatung II

Der neue Burosch FullHD Testbildgenerator

Alle Infos zum digitalen Sat.-Empfang

HDMI 2.0: Auf das richtige Kabel kommt es an

Die neuen UltraHD Spezifikationen

Wichtige Videos zu unseren Burosch Testbildern

Welche Burosch Testbilder soll ich kaufen?

Die Burosch Basic Testbilder

Wichtige Infos für die korrekte Anwendung der Burosch Testbilder

Die richtige Zuspielung der Testbilder

Western Digital HD Player - Die perfekte Lösung zur korrekten Wiedergabe unserer Testbilder vom USB-Stick

FAQ für die richtige Auswahl der Burosch Testbilder

Was ist eine Testzone im Testbild

Die wichtigsten technischen Dokumentationen zu unseren Testbildern   PDFs

Hier finden Sie viele Presseberichte zu der TV Bildoptimierung mit den Burosch Testbildern

Die digitale TV Baustelle

Workshops

 

2. Unsere Kunden / Unsere Empfehlungen

Unsere Kunden

SONY - Der Weg zur perfekten Bildqualität

MEDIMAX - Elektrofachmärkte

 

3. Das Archiv der nicht mehr lieferbaren Produkte unserer Firma

Burosch Produkte

Referenz-DVD

Discovery-DVD: TV Bildoptimierung 1

Discovery-DVD: TV Bildoptimierung 2

Medion Test DVD

AVEC-DVD

Home Vision Workshop DVD

Data Becker - NANO Versiegelungs-Kit    

Data Becker - Digitales Heimkino (Buch)

Silver Crest Test-DVDs

For Senses 1 (Blu-ray)

For Senses 2 (Blu-ray)

Sharp - Time To View Blu Vol.3

On Screen Display Adjustment Tape

Video Alignment Test Tape  VAT-60

Video Television Test Tape  VFT-31

VHS Video Mechanik Testkassette

Völkner - Video Fernseher Testkassette

Focus-CD

Video Service Test Tape  VST-30

Display Response Time Analyzer  DRTA

IR Tester  IRT-1

Test Pattern Generator TPG-1

Universal Video Converter CON-2

IR Remote Control Tester FT-4 und FT-8

Audiotester NF-50

Audiotester NF-100

Panasonic Viera Sales and Service Academy Blu-ray

Sharp Professional Display Tuning Blu-ray Disk

Philips Test-DVD

Sat-Checker 

 

4. So downloaden, entpacken, brennen und speichern Sie unsere Testbilder

Brennen einer Daten-CD mit den Testbildern aus dem "Display Expert Tuning" Download mit Nero 11 / 12

Brennen einer Daten-CD mit den Testbildern aus dem "Display Expert Tuning" Download mit ImgBurn

Abspeichern unserer Referenz Testbilder aus "Display Expert Tuning" auf USB-Stick / SD-Karte

Download und Brennen der HDTV Display Tuning mit Nero 11 (Windows)

Download und Brennen des HDTV Display Tuning mit Image Burn (Windows)

Download und Brennen des HDTV Display Tuning mit LiquidCD (Apple - Mac)

Mit CDBurnerXP die "Display Tuning Test Suite" eine DVD erstellen

 Offener Leserbrief an Frau Braune Stiftung Warentest

 E-Mail an Frau Braune / Stiftung Warentest

 

Auf unserer Internetseite www.nflabor.de finden Sie Infos zu NF Technik.

Auf unserer Internetseite www.tvtechnik.de finden Sie Infos zu Geschichte der TV Technik.

Auf unserer Internetseite www.radiotechnik.de finden Sie Infos zur Geschichte der Radiotechnik.

 


Die Klangqualität ist jetzt messbar! & Vortrag von Peter Schüller

 

Entsprechen die Messwerte von Verstärkern wirklich der Klangqualität? Mit der großen Erfahrung in der messtechnischen Analyse von Audiokomponenten haben Peter Schüller/Laborleiter der bekannten Testzeitschrift Stereoplay und Johannes Maier ein innovatives Verfahren entwickelt, um den Zusammenhang zwischen den Messwerten und der eigentlichen Klangqualität klar zu bestimmen.

 

schller maier 1
Johannes Maier und Peter Schüller im Stereoplay Labor

 

Burosch Phono Verstärker

Klaus Burosch, Peter Schüller und Burkhard Vogel

Komplette Dokumentation als PDF Datei

 

Burosch Stereoplay Schüller 
Peter Schüller im Stereoplay Labor, Analyse des Klirrspektrums eines Accuphase Verstärkers

 

 

Vortrag von Peter Schüller / Laborleiter der Testzeitschrift "Stereoplay" auf der HighEnd Messe 2012 in München:

Ich darf Sie ganz herzlich auf der High End 2012 im M,O,C, in München willkommen heißen und freue mich, dass Sie den Weg zur Technology Stage, dem Experten-Forum auf der High End gefunden haben. Ich darf mich kurz vorstellen: Ich heiße Peter Schüller und bin Leiter der TESTfactory, dem einzigen zertifizierten Messlabor einer Verlagsgruppe, tätig für die Zeitschriften der WEKA Media Publishing. Bereits vor 25 Jahren begann bei stereoplay meine Laufbahn. Zuvor hatte ich über 10 Jahre lang bei Kirksaeter in Düsseldorf – einem der Mitbegründer des Deutschen High Fidelity Instituts (dhfi) - HiFi-Geräte entwickelt und gebaut.

 

Folie1 neu

Wir erstellen hauptsächlich die Messungen für die Titel aus dem Unterhaltungselektronikbereich, also für Audio, Autohifi, Connect, stereoplay und Video-HomeVision.

 

Folie2

Als zertifiziertes Labor führen wir auch Tests externer Auftraggeber durch (z.B. für den TÜV oder dem VDE), wobei wir uns auf einen großen Erfahrungsschatz aus dem UE-Bereich berufen können. Bei entsprechendem Prüfergebnis erteilen wir auf Wunsch dann unser eigenes Prüfsiegel. Auch von Ihnen nehmen wir gerne Aufträge entgegenJ

 

Folie3

Ist Verstärkerklang messbar? So lautet das Thema meines Vortrags, und mit dieser Frage beschäftigt sich stereoplay schon seit Anbeginn. Heute kann ich diese Frage glatt mit „Ja!“ beantworten, denn ein wichtiges Argument ist nun gefunden: Das Abhängigkeitsverhältnis zwischen Verstärker und Lautsprecher. Was sich aus heutiger Sicht als verblüffend einfach herausstellte, hat aber eine lange Vorgeschichte.

 

Folie4

Sie begann bereits in den 1980er Jahren. Damals stellte meine Kollege Johannes Maier die Klirrtheorie auf, nach der ein Verstärker nur gut klang, wenn sein Verzerrungsverhalten – oder genauer: sein Klirrspektrum bestimmten Gesetzmäßigkeiten folgte. Gut war stets - und das gilt noch bis heute - ein gleichmäßig, harmonisch abfallendes Klirrspektrum.

 

Folie5

Möglich wurde dies erst durch moderne Spektrum-Analysatoren, die es in Verbindung mit einer Klirrfaktor-Messbrücke erlaubte, tief in das Verzerrungsverhalten eines Verstärkers zu schauen. Hier der Hewlett-Packard HP 3561 mit einem Dynamikbereich von immerhin mehr als 80dB.

 

Folie6

Heute und schon eine Weile lang benutzen wir mit dem AP 2722 einen Audio-Analysator, der nach wie vor „State of the Art“ ist und mit seinen programmgestützten Analyse-Tools die enorme Fortschritte in der Messtechnik ermöglicht.

 

Folie7

Hier einen Blick ins HiFi-Messlabor auf den Verstärker-Messplatz. Neben Umschalteinheiten und Lastwiderständen ist unten links auch das eigene „Kraftwerk“ zu erkennen, dass eine saubere, stabile 230 Volt Wechselspannung zur Verfügung stellt – ganz wichtig für die Reproduzierbarkeit von Messergebnissen. Vor allem die Leistungsmessung hängt überproportional von der Höhe der Netzspannung ab.

 

Folie8

Hier erkennt man neben den Programm-gesteuerten Umschalteinheiten auch die ohmschen Lastwiderstände für Verstärkerleistungen bis zu 8 mal 2000 Watt sowie die jetzt verstärkt zum Einsatz kommenden komplexen Lautsprecher-Nachbildungen.

 

Folie9

Welche Punkte auf den Verstärkerklang Einfluss nehmen, zeigt diese Folie in umgekehrter Reihenfolge ihrer Bedeutung.

 

Folie10

 

Störkomponenten, also Rauschen und Brummen, beeinflussen den Klang unserer Erfahrung nach nur in geringem Maße, solange sie klein genug gegenüber dem Nutzsignal – der Musik - bleiben. Das Diagramm zeigt die Spektralanalyse eines 1-Kilohertz-Sinussignals bei unterschiedlich hoher Gegenkopplung. In den sechziger Jahren hielten bei Verstärkern Transistoren Einzug und machten endlich große Ausgangsleistungen möglich. Sie hatten – und haben immer noch einen großen Nachteil: Ihre Kennlinien verlaufen nicht ideal, was zu unerwünschte Verzerrungen führt. Deshalb „erfand“ man die Gegenkopplung. Sie führt einen Teil der Ausgangsspannung zum Eingang des Verstärkers zurück und vergleicht es mit dem Eingangssignal. Jede Abweichung erzeugt ein Korrektur-Signal, dass Verzerrungen, aber auch Rausch- und Brummkomponenten deutlich reduziert, wie man an der roten Kurve sieht – dies umso stärker, je höher die sogenannte Leerlaufverstärkung ist. Mithin eine gute Sache, sollte man meinen. Doch es gibt auch eine Kehrseite, auf die ich später noch zurückkomme..

 

Folie12

 

Damit kommen wir schon zu Punkt 2: Lineare Verzerrungen – nicht zu verwechseln mit dem Klirrfaktor! Am deutlichsten treten sie bei Lautsprechern auf, deren Frequenzverlauf oft alles Andere als völlig ebenmäßig ist. Obwohl das hier gezeigte Beispiel schon ein sehr ausgewogenes Exemplar seiner Gattung ist, gibt es doch deutliche Abweichungen von der ideal geraden, waagerechten Linie – vor allem im Tiefbassbereich. Bei unterschiedlichen Abstrahlrichtungen treten im Hochtonbereich zusätzliche Abweichungen der Linearität auf.

 

Folie13

Verstärker haben es da sehr viel leichter dem Ideal der waagerechten Linie nahezukommen. Allerdings nur im direkt hörbaren Bereich. Doch oberhalb 20 kHz fällt auch bei ihnen üblicherweise früher oder später der Frequenzgang ab. Das hängt wiederum vom Maß der Gegenkopplung ab, die nicht nur Verzerrungen , Rauschen und Brummen reduziert, sondern auch den Frequenzgang erweitern und linearisieren kann, wie an den 2 Beispielen hier zu sehen ist. Gegenkopplung scheint also nur Gutes zu tun, oder? Doch hier ist auch schon ein 1. Nachteil zu erkennen: Die Kurven zeigen Messungen bei Belastung mit 8, 4 und 2 Ohm. Zu erkennen ist, dass an 2 Ohm die Kurven deutlich früher abfallen. Dieser Verstärker verändert also sein Verhalten an unterschiedlicher Last je nach Stärke der Gegenkopplung unterschiedlich stark – ein erster Hinweis, dass Gegenkopplung nicht nur Gutes tut.

 

Folie14

Jeder Abweichung vom ebenen Frequenzgang zieht auch eine Veränderung der Phase nach sich. Bevor überhaupt eine Änderung der Amplitude sichtbar wird, hat sich die Phase bereits bewegt, wie in dieser Simulation leicht zu erkennen ist. Obwohl eine Phasenabweichung nicht unmittelbar hörbar ist, reagiert die Gegenkopplung darauf aber prompt.

 

Folie15

 

Zu den linearen Verzerrungen kann auch ein nichtlinearen Verstärker-Ausgangswiderstand beitragen. Auf der Suche nach Messungen, die einen Bezug zum Hörergebnis zeigen, habe ich auch die Verstärker-Ausgangsimpedanz untersucht, die sich gemeinhin im sogenannten Dämpfungsfaktor ausdrückt. Von der Überlegung ausgehend , dass die Gegen-EMK eines Lautsprechers einen Strom zurück in den Verstärker schickt, habe ich in den Beispielen hier die Rückflussdämpfung mit gemessen. Nicht mit einem Sinussignal, sondern mit einem der Musik sehr viel ähnlicheren breitbandigem Rauschen (den Lautsprecher-Messtechnikern MLS-Signal bekannt), das über einen 8-Ohm-Widerstand in die Lautsprecherklemmen des Verstärkers eingespeist wird. Ein idealer Verstärker mit Null-Ohm Ausgangswiderstand würde das Signal vollständig unterdrücken. Reale Verstärker lassen davon noch etwas übrig, je nach Bauart und Stärke der Gegenkopplung unterschiedlich viel. Und das kann man leicht messen. Im linken Beispiel ein „normaler“ Verstärker mit relativ starker Gegenkopplung – sein Dämpfungsfaktor ist dadurch relativ hoch und das von hinten eingespeisten Signal wird stark „gedämpft“ , was ja durchaus erwünscht ist. Doch auch hier wird wieder ein negativer Einfluss der Gegenkopplung sichtbar: Die Rückflussdämpfung (grüne Kurve) wird zu hohen Frequenzen hin deutlich geringer, was der steigende Kurvenverlauf belegt. Das ganze statt mit einem ohmschen Widerstand mit einer komplexen Lautsprecher-Impedanz wiederholt (rote Kurve), zeigt schon deutlich den Einfluss des Lautsprechers auf den Verstärker.

 

schller maier 2
Peter Schüller testet den Brinkmann Vollverstärker

Das zweite Beispiel zeigt das Ergebnis des Brinkmann-Vollverstärkers. Warum der Brinkmann? Es war vor rund 3 Jahren, als mein Kollege Johannes Maier mit ihm ins Labor kam und sagt: „Der klingt so viel anders - nein besser, als alles Vergleichbare – da muss doch was zu messen sein“. Also habe ich mich hingesetzt und alles möglich untersucht. Eins fällt hier sofort auf: seine Rückflussdämpfung verhält sich mustergültig frequenzneutral – selbst in den obersten Höhen bleibt der Abstand zur (schwarzen) Referenzkurve weitgehend konstant, bei allerdings geringerer Dämpfung. In anderen Disziplinen hob er sich nicht sonderlich von der Konkurrenz ab. Was ist also anders an diesem Verstärker?

 

Folie16

Dieses Bild zeigt das Prinzip eines üblichen Verstärkers mit einer Spannungsverstärkerstufe vorn und einer Leistungsendstufe. Die übliche Gegenkopplung greift für den Soll-Ist-Vergleich das Signal direkt vom Ausgang ab und sorgt dafür, dass am Ausgang das verstärkte, ansonsten aber möglichst unveränderte Signal erscheint. So weit, so gut.

 

Folie17

Brinkmann macht es anders: Wie hier zu sehen greift er das Korrektursignal vor der Endstufe ab – ausgerechnet der verzerrungsträchtigste Teil des ganzen Verstärkers bleibt also außerhalb der Gegenkopplungs-Korrekturschleife - und handelt sich damit eine Menge Nachteile ein. Warum macht Brinkmann das?
Immerhin bleibt der Ausgangswiderstand Brinkmann Vollverstärkers frequenzneutral und verhält sich annähernd wie ein ohmscher Widerstand, womit sich der Einfluss des Lautsprechers auf das Verhalten des Verstärkers stark verringert. Ist das des Rätsels Lösung für guten Klang?
Doch so einfach ist es auch dann doch nicht!

 

Folie19

Bei Lautsprechern ist es gängige Praxis mittels Impulsantwort seine Übertragungseigenschaften zu untersuchen. Wie hier im Beispiel zu sehen ist sie mit zahlreichen kleinen Artefakten überlagert, die aus kleinen Resonanzen, Massenträgheiten oder anderen Unvollkommenheiten des Lautsprechers resultieren.

 

Folie20

Mittels Fourier-Transformation lässt sich aus dieser Impulsantwort zum Beispiel das Abklingspektrum – auf Grund seines Aussehens auch Wasserfalldarstellung genannt – errechnen. Es drückt aus, wie schnell der Lautsprecher bei welcher Frequenz nach Abschalten des Signals zur Ruhe kommt. Auch der Frequenzgang wird aus der Impulsantwort ermittelt – hier schon als erste (hintere) Kurve zu erkennen.

 

Folie21

Was beim Lautsprecher so gut funktioniert, könnte doch auch bei Verstärkern Hinweise für ihre Klangeigenschaften geben. Aufgrund des normalerweise sehr viel größeren Übertragungsbereichs bleibt die Impulsantwort nur eine schmale Nadel – im Gegensatz zu Lautsprechern ohne erkennbare Probleme. Trotzdem habe ich eine dem Wasserfall ähnliche Messung vorgenommen.

 

Folie22

Tatsächlich ergeben sich an komplexer Lautsprecherlast gemessen Unterschiede zwischen verschiedenen Verstärkern, wobei sich jener Brinkmann positiv hervorhob. Allerdings stößt man – wie sich im Nachhinein herausstellte – an die Grenzen des Messsystems. Zudem hatten der Übertragungsbereich des Verstärkers einen verfälschenden Einfluss auf das Ergebnis und bracht uns auf der Suche nach klangrelevanten Messungen nicht weiter.

 

Folie23

Schon eher Messungen mit einem Rechteck, das rückwärts eingespeist deutlich macht, welch negativen Einfluss die Gegenkopplung noch haben kann. Bevor sie erkennt, dass am Ausgang sich plötzlich der Zustand ändert, vergeht eine gewisse Zeit um gegenzusteuern – was an den hohen Überschwingern zu erkennen ist. Der Brinkmann Vollverstärker verhält sich hier zeitlich deutlich besser, allerdings ist die Dämpfung des Signals bei ihm geringer.

 

Folie25

Kommen wir nur zu den auf den Verstärkerklang bezogenen wichtigsten Punkten: Den nichtlinearen Verzerrungen.

Wie ich eingangs bereits sagte, hat sich in der jahrelanger Erfahrung die von meinem Kollegen Johannes Maier im Jahr 1985 aufgestellt Klirrtheorie immer aufs Neue bestätigt. Stets zeigten gutklingende Verstärker ein ähnliches, gleichmäßig zu den höheren Harmonischen hin abfallendes Klirrspektrum – wie hier beispielhaft gezeigt. Dabei kommt es nicht darauf an, wie hoch (in Prozent) die Verzerrungen sind, sondern welcher Art sie sind. Was zwar bekannt, aber nicht weiter beachtet wurde, ist die Last- und Frequenzabhängigkeit der Verzerrungen. Trotzdem vermutete ich schon lange, dass dies nicht bedeutungslos sein kann und habe Verstärker stets an 8 und 4 Ohm (teilweise auch an 2 Ohm) gemessen. Dass der Klirr bei stärkerer Belastung durch den 4-Ohm-Widerstand (siehe grüne Kurve) steigt, ist ja eigentlich völlig normal.

 

Folie26

Gemessen habe ich nicht nur bei 1 kHz, sondern zusätzlich auch bei einer tieferen und höheren Frequenz. Dass der Klirr zu höheren hin Frequenzen mehr oder weniger stark steigt, ist auch meist zu beobachten. Doch wie wirkt sich dies auf den Klang aus, wo doch die höheren Harmonischen schnell oberhalb des Hörbereichs liegen? Bei einer Messfrequenz von 3150 Hertz sind es gerade noch 4 Oberwellen (k2 bis k5), die in den Bereich bis 20 kHz fallen.

 

Folie27

Hinzu kommt noch die Abhängigkeit von der Leistung an sich. Das Audio Precision AP 2722 erlaubt mit einem speziellen Programm, die Amplituden dieser einzelnen Harmonischen bei steigender oder fallender Leistung zu verfolgen und als Diagramm darzustellen. Das Beispiel hier eines AV-Receivers zeigt, wie es sein soll: Die Amplituden der betrachteten 4 Oberwellen steigen schön gleichmäßig an und sind günstig abgestuft, das heißt, die höheren Harmonische k4 (grün) und k5 (blau) sind stets niedriger als die klanglich bedeutendsten Komponenten k2 (schwarz) und k3 (rot). Dieser dynamische Klirrverlauf war ein großer Fortschritt zur messtechnischen Beurteilung von Verstärkern. Zumal durch Messung bei steigender und fallender Leistung auch thermische Effekte oder Arbeitspunktverschiebungen sichtbar werden, die das Verzerrungsverhalten negativ beeinflussen und klanglich zu Irritationen führen. Davon ist hier jedoch nichts zu erkennen weil die Kurven bei steigender und fallender Leistung übereinanderliegen – so, wie es stets sein sollte.

 

Folie28

Im nächsten Beispiel eines Röhrenverstärkers ist dies nicht so perfekt gelungen. Nur bis rund 1 Watt verhält er sich mustergültig. Doch bei weiter steigender Leistung (bis zu für Röhrenverstärker beachtlichen 50 Watt an 4 Ohm) wechseln k2 (schwarz) und k3 (rot) ihre Dominanz. Bei großer Lautstärke wird dieser Verstärker also anders klingen, als in leisen Passagen. Erkennbar ist auch, dass sich k2 bei fallender Leistung anders verhält, hier allerding vernachlässigbar wenig - da gibt es ganz andere Beispiel.

 

Folie30

Kommen wir nun zur Frequenz- und Lastabhängigkeit der nichtlinearen Verzerrungen. Dazu habe ich bei einen Verstärker das Klirrspektrum bei unterschiedlichsten Frequenzen gemessen. Auf den ersten Blick scheint er sich frequenzneutral zu verhalten, denn die dominante Komponente bleibt stets auf gleicher Höhe. Und in der Tat würde eine übliche Klirrfaktormessung bei tiefen und hohen Frequenzen nahezu den gleichen Wert (in Prozent) anzeigen. Bei genauer Betrachtung fällt allerding auf, dass höhere Harmonische bei den hohen Frequenzen stärker vertreten sind, als bei tieferen Tönen.

 

Folie31

Das hat mich veranlasst, den „Harmonic Analyzer“ des AP 2722 umzuprogrammieren: Nun soll er die Amplituden der wichtigen 4 Oberwellen nicht über die Leistung, sondern über die Frequenz darstellen. Heraus kann erstaunliches. Wie hier an 2 Transistor-Amps gezeigt, verlaufen die einzelnen Oberwellen sehr unterschiedlich und zudem unterschiedlich bei niedrigen und hohen Impedanzen. Hier dargestellt an 2 Ohm und an 32 Ohm. Idealerweise sollten die Harmonischen bei jeder Last und Frequenz auf gleicher Höhe verharren, solche höherer Ordnungszahl (k3, k4, usw.) entsprechend mit abgestufter Amplitude.

 

Folie32

Warum auch an 32 Ohm? Normalerweise ist doch der niedrigste Impedanzwert der kritische. Schaut man sich den Impedanzverlauf verschiedener Boxen an, schwankt er oft extrem stark: zwischen 1 Ohm und 100 Ohm ist alles möglich. Im Beispiel hier zwischen 2,8 und 50 Ohm und mit Phasenschwankungen zwischen -70 und +50 Grad (grüne Kurve).

 

Folie33

Zunächst mit einer „normalen“, gegengekoppelten Röhre (hier links im Bild) gemessen zeitigte ein eher mäßiges Ergebis: Die Unterschiede am niedrigem und hohem Lastwiderstand waren sehr groß. Erstaunlich dass gerade an 2 Ohm gemessen (Röhre und 2 Ohm – das funktioniert doch nicht!) bis auf den unerwünschten Klirranstieg zu hohen Frequenzen die Welt noch in Ordnung war. Doch bei hoher Impedanz sackte k2 (schwarze Kurve) ab in den Keller. Schaute man sich aber auch die bei 4, 8 und 16 Ohm gemessen Kurven an, blieb immerhin die Abstufung im klanglich wichtigen mittleren Frequenzbereich erhalten. Der Unison Simply Italy, ein relativ leistungsschwacher, bezaubernd schön klingender Trioden-Röhrenverstärker zeigte dann in aller Klarheit, worauf es wirklich ankommt: Bei ihm bleibt unter allen Umständen die Klirrabstufung erhalten, wie hier rechts zusehen ist.

 

Folie34

Wer es noch ausführlicher studieren will: Im Aprilheft 2012 von stereoplay haben wir auf den Seiten 44 und 45 alles ausführlich erklärt und mit verschiedenen Beispielen aufgezeigt, worauf es dabei ankommt.

 

Folie35

Am Beispiel der Simply Italy-Triode haben wir auf Seite 46 diese Messung auch an verschieden realen Lautsprechern aufgezeigt. Doch Vorsicht: Hier hat der Druckteufel zugeschlagen, Diagramme vertauscht und falsche eingebaut. Wie es richtig ist, zeigt die folgende Folie.

 

Folie36

Hier die Korrektur der vertauschten und verwechselten Diagramme auf Seite 46 der April-Ausgabe von stereoplay. Gut zu erkennen ist, dass der Verlauf der einzelnen Harmonische über die Frequenz vom Impedanzverlauf umgekehrt proportional geprägt ist. Das ist zwar nicht Ideal, wichtiger scheint jedoch zu sein, dass die Ordnung, also die Abstufung der Harmonischen untereinander stets erhalten bleibt. Auch die Dominanz der Klirrkomponente k2, der sich alle höheren Harmonischen unterordnen, kann möglicherweise zum hervorragenden Klangergebnis dieses Ausnahmeverstärkers beigetragen haben.

 

Folie37

Wie soll also der Ideale Verstärker beschaffen sein? Er darf keine linearen Verzerrungen aufweisen, also extrem breitbandig sein, auch an niederohmiger Last, sein Ausgangswiderstand muss niedrig sein und sich wie ein ohmscher Widerstand verhalten, rückwärts eingespeiste Rechtecksignale dürfen keine Überschwinger hinterlassen und nichtlineare Verzerrungen dürfen möglichst erst gar nicht entstehen. Nicht möglich? Mit extremen Aufwand, wie hier beim High-End-Verstärker von Audia Flight, kann man dem Ideal schon sehr nahe kommen. Lediglich bei der Klirrkomponente k3 verläuft, wie hier zu sehen, noch nicht ganz perfekt.

 

Folie38

Und der Brinkmann? Hält er auch der neuen Klirr-Analyse stand? Wie hier zu sehen, schlägt er sich ganz wacker mit sehr frequenzneutralen Klirrkomponenten – zumindest an unterschiedlichen ohmschen Lasten bleibt die Harmonischen-Abstufung gut erhalten.

 

Folie39

An komplexen Lautsprechernachbildungen, die hier einen „schwierigen“ und einen problemlosen Lautsprecher darstellen, werden auch beim Brinkmann die Klirrverläufe von den Impedanzen beeinflusst.

 

Folie40

Wenn auch der Klirrverlauf impedanzgeprägt ist, bleibt die Feststellung wichtig, dass die Abstufungen erhalten bleiben. Die Einflussnahme ist, wie hier zu sehen, dann besonders gering, wenn ein Lautsprecher mit ausgewogenem Impedanzverlauf betrieben wird. Allgemein gilt es festzuhalten, dass das Verzerrungsverhalten eines Verstärker immer von der angeschlossenen Last verändert wird – bei komplexer Last durch die zusätzliche Phasenverschiebung zwischen Spannung und Strom noch stärker, als bei ohmscher Last.

Was lernen wir aus dem gesagten? Wenn schon Verzerrungen bezahlbarer Verstärker nicht gänzlich vermeidbar sind, sollten sie - zumindest an ohmschen Lasten – stets harmonisch abgestuft und frequenzneutral sein. Oder an die Lautsprecherentwickler gerichtet: Baut Lautsprechern, mit im wichtigen Hörbereich ausgewogenen Impedanzverläufen. Dann steht einer günstigen Liaison nichts im Wege.

 

Folie41

Und solche Lautsprecher gibt es tatsächlich auf dem Markt - beispielweise die Elise II von Progressive Audio!

 

Peter Schüller

Heinz Lemke, Peter Schüller / Laborleiter von Stereoplay und Klaus Burosch -  2012

 

3D - Das räumliche Sehen

Dem Traum der Menschen von einer naturgetreuen Übertragung und Wiedergabe  von Szenen und Ereignissen in die eigenen vier Wände kommen heutige Fernsehgeräte mit neuester Signalverarbeitung und Displaytechnologie schon sehr nahe. Der flache Bildschirm an der Wand ist Realität geworden. Wie funktioniert aber die räumliche Wahrnehmung? Lesen Sie hier physiologische und geometrische Grundlagen zu 3D % Co.

  

Burosch Maul

Beispiel für ein Stereobildpaar; Ansicht des linken und rechten Auges; am Galeriebrüstungsansatz ist die unterschiedliche Perspektive gut zu erkennen.

 

Inhaltsverzeichnis

1. Einführung
2. Physiologische Hintergründe / System Auge-Gehirn
3. Erste technische Umsetzungen
4. Ausblick

  

1. Einführung

Dem Traum der Menschen von einer naturgetreuen Übertragung und Wiedergabe  von Szenen und Ereignissen in die eigenen vier Wände kommen heutige Fernsehgeräte mit neuester Signalverarbeitung und Displaytechnologie schon sehr nahe. Der flache Bildschirm an der Wand ist Realität geworden. Die großformatige, detailgetreue Wiedergabe, angepasst an die Physiologie des menschlichen Gesichtssinnes durch 16:9 und HDTV ermöglicht eine bisher nicht gekannte Einbezogenheit in das Geschehen auf dem Bildschirm (Telepräsenz). Nun fehlt den hochauflösenden Bildern nur noch die dritte Dimension der realen Welt d.h. die räumliche Darstellung. In vielen Abhandlungen und Artikeln über das räumliche Sehen wird von einem naiven Verständnis dieses physiologischen Prozesses ausgegangen. Man bietet den Augen einen linken und rechten Bildauszug an und schon entsteht ein räumlicher Bildeindruck. Dies wird der Komplexität des Systems Auge-Gehirn in keiner Weise gerecht. Deswegen möchte ich den Versuch unternehmen zunächst die physiologischen Grundlagen etwas abzuklären.

 

2. Physiologische Hintergründe / System Auge-Gehirn

 

Das Auge
Ein horizontaler Querschnitt durch das menschliche Auge ist in Abb. 1 zu sehen.

Burosch Auge
Abb.1: Horizontaler Schnitt durch das rechte menschliche Auge. (Eigene Zeichnung nach The vertebrate visual system, by Polyak, 1957, University of Chicago Press; in Howard I.P. 2002 Seeing in Depth)

 

Das menschliche Auge ist annähernd kugelförmig mit einem Durchmesser von ca. 24 mm. Die Hornhaut (Cornea) hat einen Durchmesser von ungefähr 12 mm und einen Kurvenradius von ca. 8 mm. Es wird oft angenommen, dass die Linse dazu dient, die einfallenden Lichtstrahlen zu bündeln und das Bild auf der Netzhaut (Retina) zu erzeugen. Der Ort an dem beim menschlichen Auge die Lichtstrahlen am stärksten gebrochen werden ist aber die Vorderseite der Cornea. Dies ist darin begründet, dass die Brechkraft einer Linse grundsätzlich von dem Unterschied zwischen den Brechungskoeffizienten des umgebenden Mediums und dem des Linsenmaterials bestimmt wird. Der Brechungskoeffizient der Luft ist niedrig, während der des Kammerwassers hinter der Cornea annähernd so hoch wie der Brechungskoeffizient der Linse des Auges ist. Dadurch hat die Cornea mit ca. 42 Dioptrien ungefähr 70% der Brechungskraft des gesamten Auges. Die Linse besitzt einen Durchmesser von ca. 9 mm und ist ungefähr 4 mm dick. Die Brechkraft der Linse kann durch den Ziliarmuskel um ca. 10 Dioptrien verändert werden und sorgt durch Verstellung (Akkommodation) dafür, dass das Netzhautbild bei entfernten und nahen Objekten scharf gestellt werden kann.  Damit hat das Gesamtsystem Cornea-Linse eine Brechkraft die von ca. 60 bis zu 70 Dioptrien variiert werden kann. Als visuelle Achse (Mittelpunktstrahl) wird die Verbindungslinie zwischen einem Punkt eines fixierten Gegenstandes  und dem Zentrum der Sehgrube (Fovea centralis) bezeichnet. Als optische Achse wird der am besten passende Strahl durch die vier brechenden Oberflächen des Auges bezeichnet. Die optische Achse schneidet die Retina ca. 1,5 mm seitlich entfernt von der Sehgrube und ca. 0,5 mm über der Sehgrube. Sie bildet somit mit der visuellen Achse einen Winkel von ca. 5°. Beide Achsen müssen gemäß den optischen Gesetzen durch den resultierenden Knotenpunkt /Nodalpunkt (nodal point) des optischen Systems Auge gehen. Dieser liegt beim nicht akkommodierten Auge ca. 17 mm vor der Retina und durch ihn gehen alle Strahlen die eine eins zu eins Abbildung der Punkte des Sehfelds auf der Netzhaut reproduzieren. Die Iris (Regenbogenhaut) in Verbindung mit den Irismuskeln kontrolliert die Linsenöffnung des Auges (Apertur, Pupillengröße). Oft wird angenommen, dass die Veränderung der Pupillengröße dem Auge erlaubt, ein breites Spektrum von Lichtintensitäten auszunutzen. Da sich ihre Fläche aber nur in einem Verhältnis von 16:1 verändert, kann dies nicht ihre Hauptaufgabe sein, da das Auge einen Helligkeitsbereich von mehr als 1 000 000 : 1 zu nutzen imstande ist. Offensichtlich kontrahiert die Pupille, um die Lichtstrahlen auf den zentralen und optisch effektivsten Teil der Linse zu beschränken und damit Linsenfehler zu minimieren. Die maximale Öffnung wird nur dann eingestellt wenn maximale Empfindlichkeit benötigt wird.  

 

Jedes Auge wird von sechs Muskeln bewegt wie in Abb.2 dargestellt.

Augenmuskel Burosch
Abb.2: Augenmuskeln des linken menschlichen Auges. (Eigene Zeichnung nach Cogan 1956 Neurology of the ocular muscles, Charles C. Thomas, Publisher, Springfield, Illinois; in Howard I.P. 2002 Seeing in Depth)

 

Dies ist erforderlich, da der Mensch nur in der Sehgrube ein hohes Auflösungsvermögen der Netzhaut besitzt und dadurch die Augen bewegt werden müssen um auszuwählen was scharf gesehen werden soll. Wird ein Objekt betrachtet, so konvergieren beide Augen sodass die Abbildung unabhängig von der Entfernung des Objektes auf der Sehgrube zentriert wird. Die Augenmuskeln schwenken dabei die Augäpfel um den Rotationsmittelpunkt jeweils in Richtung der Nase hin (nasal). Wie wir noch sehen werden wird dieser Konvergenzwinkel auch als einer von vielen Parametern zur Ermittlung des Raumeindruckes vom Gehirn genutzt.

 

Bildsensor Netzhaut (Retina) - Außenstelle des Gehirns

Die Struktur der Netzhaut ist in Abb. 3 aufgezeigt.

Zapfen/Stäbchen Burosch
Abb. 3: Die Struktur der Netzhaut. (Eigene Zeichnung nach Dowling and Boycott 1966; in Howard I.P. 2002 Seeing in Depth)

 

Diese Struktur wurde zuerst von Ramón y Cajal ermittelt und in einer Serie von Abhandlungen zwischen 1888 und 1933 beschrieben. Die Netzhaut ist eine mehrlagige Membran mit einer Fläche von ungefähr 1000 mm². Sie weist in der Sehgrube eine Dicke von etwa 250 µm auf, die in der Peripherie auf ca. 100 µm abnimmt. Die Fotorezeptoren sind dicht gepackt in der äußeren Schicht, also der Schicht die am weitesten von der Lichtquelle entfernt ist. Das bedeutet, dass das Licht vor dem Erreichen der Rezeptoren durch die Blutgefäße und das feine Netzwerk der Nervenfasern, einschließlich dreier Schichten von Zellkörpern und einer Menge Stützgewebe, dringen muss. Es gibt zwei Arten von Fotorezeptoren. Die Stäbchen haben eine sehr hohe Lichtempfindlichkeit, breite spektrale Abstimmung und sind ausschließlich in der Peripherie, also außerhalb der Sehgrube, verteilt. Sie werden für die Wahrnehmung der Schwarz/Weiß-Helligkeitsempfindung genutzt.

Die Zapfen, die für die Farbwahrnehmung genutzt werden, haben eine niedrigere Lichtempfindlichkeit und eine hohe Dichte in der Sehgrube, die in der peripheren Netzhaut abnimmt. Es gibt drei Typen von Zapfen mit jeweils verschiedener spektraler Empfindlichkeit: S-Zapfen mit einer maximalen Empfindlichkeit bei ungefähr 450 nm Lichtwellenlänge (blau). M-Zapfen mit einer Spitzenempfindlichkeit von ca. 535 nm (grün). L-Zapfen mit einem Maximum bei 565 nm (gelb/rot). 5 bis 10% der Zapfen sind S-Zapfen. M- und L-Zapfen sind etwa gleich häufig verteilt. In dieser Struktur liegt auch die Basis, die unsere technischen Fernsehsysteme bei der Redundanz-Datenreduktion benutzen, bei der keine sichtbaren Verluste entstehen. So kann z.B. die Digitalisierung der Farbinformation mit einer geringeren Datenrate erfolgen als der für die Helligkeitswerte erforderliche Wert. Der normale Bereich der Lichtempfindlichkeit des menschlichen Auges erstreckt sich über drei logarithmische Einheiten von 0,0000007 cd/m² bis 0,0004 cd/m². Die Helligkeit von äußeren Stimuli variiert um ca. 10 logarithmische Einheiten (log). Spezielle Mechanismen kompensieren den begrenzten dynamischen Bereich des Auges.

Um einen Vergleich der örtlichen Auflösung (Wiedergabe von Details) des menschlichen Auges mit technischen Bildwiedergabesystemen ziehen zu können sind die folgenden Werte des menschlichen Auges wichtig. Die Retina des erwachsenen Menschen hat zwischen 4 und 6 Millionen Zapfen mit einer Spitzendichte von 100 000 bis 320 000 pro mm² in der Sehgrube. Diese nimmt in der Peripherie stark ab auf z.B. 6000 pro mm² bei 10° Exzentrität. Die Fovea ist eine Grube von ungefähr 1,5 mm Durchmesser, die ein regelmäßiges hexagonales Mosaik von Zapfen im Abstand von 2 bis 3 µm enthält. Die zentrale Sehgrube (Fovea centralis) hat einen Durchmesser von ca. 0,27 mm, was einem Öffnungswinkel (subtend) von ca. 1° entspricht, und enthält ca. 6000 Zapfen. Die menschliche Retina hat mehr als 100 Millionen Stäbchen, die in der Fovea nicht vorhanden sind.

Die Fotorezeptoren der Netzhaut bilden 70% der Rezeptoren des menschlichen Körpers. Wenn wir den Vergleich zu unserem modernen hochauflösenden Fernsehen ziehen (HDTV) dann besitzt das Display ca. 2 Millionen Bildpunkte, die jeweils aus einem roten, grünen und blauen Subpixel bestehen. D.h. insgesamt sind nur ca. 6 Millionen Bildpunkte vorhanden, die gleichmäßig über die gesamte Displayfläche verteilt sind. Beim menschlichen Auge sorgen dagegen die 100 Millionen Stäbchen, die insbesondere sehr empfindlich auf bewegte Objekte reagieren, dafür dass die Objekte denen unsere jeweilige Aufmerksamkeit gilt, durch die entsprechenden Augenbewegungen scharf auf der Fovea mit höchster Auflösung abgebildet werden können. Die Natur hat das, was wir heute in der Fernsehtechnik mit Telepräsenz bezeichnen schon in idealer Weise realisiert.

Man hat die Retina als eine Art Ausstülpung des Gehirns beschrieben. Entwicklungsgeschichtlich spezialisierte sich also ein Teil der Gehirnoberfläche, wurde nach außen verlagert und lichtempfindlich. Die Retina hat bei diesem Prozess typische Gehirnzellen beibehalten, die zwischen den Lichtrezeptoren und den Sehnervenfasern, also in den vorderen Schichten der Netzhaut liegen, und die elektrische Aktivität der Rezeptoren stark modifizieren. D.h. ein Teil der Wahrnehmungssignalverarbeitung findet bereits im Auge statt. Damit wird dieses auch funktional ein Bestandteil des Gehirns. Diese Vorverarbeitung führt die über 100 Millionen Rezeptorsignale auf ca. 1 Million Sehnervenfasern zusammen. Dadurch kann sich die Dicke des Sehnervs stark verringern, was Augenbewegungen erst ermöglicht.

 

Bilddatenübertragung (Chiasma opticum , primäre Sehrinde)

Das für das Sehen verantwortliche neuronale System beginnt, wie oben gezeigt, schon mit der unglaublich komplexen Struktur der Netzhäute. Jede Netzhaut ist senkrecht in zwei funktionale Hälften geteilt. Die Sehnervenfasern der inneren (nasalen) Hälfte wechseln am Sehnervenkreuz (Chiasma opticum) auf die andere Seite um zur gegenseitigen Hirnhemisphäre zu ziehen (Abb. 4).

 

System Auge/Gehirn Burosch
Abb. 4: System Auge/Gehirn von oben gesehen. Schema der Sehbahnen, das die linken und rechten Gesichtsfeldhälften mit den retinalen Bildern und der teilweisen Kreuzung im Sehnervenkreuz zeigt. (Eigene Zeichnung nach Eccles J.C. 1990 Die Psyche des Menschen)

 

Die Fasern der äußeren Netzhauthälfte gelangen zur gleichseitigen Hemisphäre. Am jeweiligen seitlichen Kniehöcker, quasi einer Relaisstation, sind die Sehnerven dann an die jeweilige Hemisphäre angeschlossen. Interessanterweise empfangen die Kniehöcker mehr „absteigende“ Bahnen von höheren Zentren des Gehirns als aufsteigende Bahnen von den Augen. Dies ist die anatomische Basis dafür, dass höhere Zentren des Gehirns die von den Netzhäuten kommenden Signale beeinflussen oder erweitern und damit die Netzhautbilder deuten.

 

Bildsignalverarbeitung im Gehirn (visuelle Merkmale in spezialisierten Modulen)

Zu einer der wichtigsten Entdeckungen bezüglich der visuellen Signalverarbeitung im Gehirn gehört die der beiden amerikanischen Physiologen David Hubel und Torsten Wiesel. Sie registrierten bei der Katze die Aktivität einzelner Zellen der Sehrinde, während den Katzenaugen einfache visuelle Formen, meist Lichtbalken, angeboten wurden. Dies geschah mittels eines Diaprojektors, der diese Muster auf einen Schirm vor der Katze projizierte. Hubel und Wiesel stellten fest, dass einige kortikale Zellen der ersten Verarbeitungsstufe nur dann aktiv waren (feuerten), wenn ein Balken in einem ganz bestimmten Winkel angeboten wurde (Abb. 5).

Hubels Wiesels Burosch
Abb. 5: Hubels und Wiesels Ableitungen von einzelnen Zellen im visuellen Cortex der Katze. (Eigene Zeichnung nach Gregory R.L. 2001 Auge und Gehirn; Psychologie des Sehens)

 

Bei anderen Winkeln blieb diese Zelle stumm. Die zur Aktivierung erforderliche Neigung des Balkens wechselte von Zelle zu Zelle. Weiterhin stellten Sie fest, dass manche Zellen sich nur durch Bewegung aktivieren ließen oder nur durch Bewegung in eine bestimmte Richtung. Der Professor für Neuropsychologie Richard L. Gregory schreibt: „Es wird immer deutlicher, dass das Gehirn visuelle Merkmale in spezialisierten „Modulen“ verarbeitet, wobei es unterschiedliche neuronale Kanäle für Form, Bewegung, Tiefenwahrnehmung, Farbe usw. gibt. Allmählich kristallisiert sich die Organisation der Sehrinde heraus, wenn auch noch immer unklar ist, wie sie mit dem Sehen komplexer Objektformen verknüpft ist. Vielleicht werden wir das visuelle Gehirn erst dann vollständig verstehen, wenn es uns gelingt, eine Maschine zu entwerfen und zu konstruieren, die über ein komplexes Sehvermögen verfügt.“   

 

Disparationsneuronen (David Hubel und Torsten Wiesel)

Die Tiefenwahrnehmung ist im Prinzip abhängig von Ungleichheiten (Disparität) der beiden Abbildungen auf den beiden Netzhäuten, die durch den 50 bis 70 mm betragenden Augenabstand entstehen. Sie kann auch als eine Täuschung betrachtet werden, weil es auf der Retina nur ein zweidimensionales Bild gibt. Dieses wird aber so interpretiert als ob es aus einem dreidimensionalen Objekt resultieren würde. Mit dem Entstehen dieser Täuschung befasst sich die psychologische und physiologische Forschung der visuellen Wahrnehmung. Raymòn y Cajal hatte schon 1911 die Theorie entwickelt, dass Eingangssignale von korrespondierenden Bereichen der beiden Netzhäute in den von ihm mit „isodynamic cells“ bezeichneten neuronalen Zellen zusammengeführt würden und damit die Basis für das binokulare Sehen gebildet würde. Diese Idee wurde von David Hubel und Torsten Wiesel (1959; 1962) experimentell verifiziert. Sie berichteten dass Paare von Sehnervenbahnen der Katze in „binokularen“ Zellen in dem Teil der Hirnrinde, der visuelle Signale verarbeitet (visueller Cortex), zusammenlaufen. Und dass die rezeptiven Felder jeder „binokularen“ Zelle korrespondierende Positionen in den beiden Augen besitzen. Wenn eine „binokulare“ Zelle identische rezeptive Felder hätte werden, die in jedem Auge identisch positioniert wären, würde diese optimal auf Netzhautbilder (Stimuli) mit null Disparität reagieren und keine Tiefeninformation könnte am Ausgang der Zelle gewonnen werden. Das war schon ein Argument das der Physiologe, Physiker und Psychologe Hermann von Helmholtz gegen die Idee von konvergenten visuellen Eingangssignalen angeführt hatte. Helmholtz neigte zu der Auffassung, dass die räumliche Wahrnehmung ein erlernter Prozess sei und sich in den „höheren“ Verarbeitungsschichten des Gehirns abspielen würde. Der Psychologe Ian P. Howard schreibt dazu in „Seeing in Depth“: „Das Problem würde gelöst werden können wenn es Zellen gäbe, die speziell darauf abgestimmt wären, auf ähnliche Bilder in leicht unterschiedlichen Positionen der beiden Retinae, zu reagieren. Unterschiedliche Zellen die optimal auf differente Disparitäten abgestimmt sind. Einfach wie diese Idee klingt wurde diese bis 1965 nicht vorgeschlagen. Wahrscheinlich weil die Idee einer auf spezifische Stimuli-Eigenschaften reagierenden kortikalen Zelle nicht „en vogue“ war, bis 1959 Hubel und Wiesel kortikale Zellen entdeckten, die abgestimmt waren auf Ausrichtung und Bewegung zu reagieren. Hubel und Wiesel gelang es nicht Zellen zu finden, die sensitiv auf Disparitäten reagierten. Jack Pettigrew lieferte den ersten Beweis von Disparitäts-Detektoren in einer frühen Stufe der visuellen Signalverarbeitung. Er machte diese Arbeit im Rahmen seiner „undergraduate thesis“, die er 1965 an der Universität von Sydney geschrieben hat.“ In vielen weiteren Arbeiten wurde diese Theorie der „Disparationsneuronen“ inzwischen bestätigt.“ Marr und Poggio haben 1979 basierend auf diesen neuronalen Fakten ein erstes nachrichtentechnisches Signalverarbeitungsmodell (A Computational Theory of Human Stereo Vision) entwickelt. Inwieweit solche Modelle die tatsächlichen Mechanismen der höheren Hirnprozesse abbilden, konnte aufgrund deren ungeheuren Komplexität bisher noch nicht gezeigt werden.     

 

Sehen in der Tiefe (Disparation, Konvergenz, monokulare Informationen)

Nachdem wir mit den Disperationsneuronen quasi die unterste Ebene des Tiefensehens kennengelernt haben wollen wir uns auf der Ebene der Wahrnehmungspsychologie mit dem Sehen in der Tiefe beschäftigen.

Das menschliche horizontale Blickfeld ist in Abb. 6 dargestellt.

Binokulares Sehen Burosch
Abb. 6: Das binokulare Gesichtsfeld des Menschen.

 

Das monokulare Gesichtsfeld des statischen Auges beträgt ungefähr 95° in Richtung der Schläfe (temporal) und ungefähr 56° in Richtung der Nase. Das gesamte Gesichtsfeld ist der volle Winkel der ausgehend von einem Punkt in der Mitte zwischen beiden Augen alle Punkte im Raum einschließt, die entweder einem Auge oder beiden Augen sichtbar sind. Beim Menschen beträgt dieses horizontale Gesichtsfeld (lateral) bei feststehenden Augen ca. 190° und erreicht 290° wenn die Augen seitlich bewegt werden können. Das binokulare Gesichtsfeld ist der Teil des gesamten Gesichtsfeldes innerhalb dessen ein Objekt liegen muss um für beide Augen sichtbar zu sein (bei fester Augenposition). Das binokulare Gesichtsfeld ist von den monokularen Sektoren des linken und rechten Auges flankiert. Jeder monokulare Sektor erstreckt sich ungefähr 37° seitlich (lateral) vom Schläfenring bis zur Grenze des binokularen Sektors. Die rechte und linke Grenze des binokularen Sehens wird durch die Nase geformt. Für binokulares Sehen ergibt sich daraus ein Winkel von ca. 112°, wenn die Augen symmetrisch konvergieren. Betrachten wir zunächst die geometrische Basis. Weil die beiden Augen horizontal um den Augenabstand voneinander getrennt sind, sehen diese dieselbe visuelle Szene von zwei unterschiedlichen Ausgangspunkten. Wenn wir einen speziellen Punkt im Raum, wie z.B. den schwarzen Punkt auf dem Pfeil in Abb. 7A fixieren, sorgen wir dafür dass das Abbild dieses Punktes in die Sehgrube (Fovea) des linken und des rechten Auges fällt, also in die Region der Netzhaut mit der höchsten Auflösung.

 

Horopter Burosch

 

Abb. 7A: Die Geometrie der Stereopsis. Horizontaler Schnitt durch das rechte (AR) und linke Auge (AL) von oben gesehen. Auf dem Horopter liegende Punkte produzieren Abbildungen auf korrespondierenden Punkten der beiden Netzhäute. Als Horopter wird die kreisförmige horizontale Linie bezeichnet auf der alle Punkte liegen, die bei gegebener Augenstellung mit beiden Augen nur einfach gesehen werden. (Eigene Zeichnung nach Tyler C.W. 2004 Binocular Vision; in Ponco R. et.al. 2008 Stereopsis) Abb. 7B: Die Geometrie der Stereopsis. Horizontaler Schnitt durch das rechte (AR) und linke Augen (AL) von oben gesehen. Punkte auf dem Pfeil, die nicht auf dem Horopter liegen, mit verschiedenen Abständen vom Beobachter produzieren Abbildungen mit verschiedenen Abständen von der Fovea auf den zwei Netzhäuten. Diese Differenz wird binokulare Disparität genannt und ist die Basis für die allgemein bekannteste Art der Tiefenwahrnehmung. (Eigene Zeichnung nach Tyler C.W. 2004 Binocular Vision; in Ponco R. et.al. 2008 Stereopsis)

 

Dazu schwenken die Augenmuskeln die Augen in den jeweils entsprechenden Winkel (Konvergenz) und der Muskel der Augenlinse sorgt durch Akkommodation (Veränderung der Brennweite) für eine scharfe Abbildung. Dieser Akt definiert die horizontale Fixierungskurve. Wenn wir auf diesem schwarzen Punkt des Pfeiles starten und uns eine bestimmte Distanz auf dem grauen Kreis bewegen werden sich die Projektionen des neuen Punktes in den beiden Augen um die exakt gleiche Distanz auf den beiden Netzhäuten bewegen. Diese Projektionspunkte auf den beiden Retinae werden als „korrespondierende Punkte“ bezeichnet. Der „geometrische Horopter“ ist die Zusammenfassung all der Punkte eines Bildes, die auf „korrespondierende Punkte“ auf den Retinae projizieren. Für einen Beobachter dieser Punkte erscheint es so als ob alle diese Punkte ungefähr in derselben Tiefe wie der Fixierungspunkt liegen würden. Die Menge aller Punkte die exakt in derselben Tiefe erscheinen wird als „empirischer Horopter“ bezeichnet und ist etwas flacher als der kreisförmige „geometrische Horopter“. Für prinzipielle Überlegungen kann zur Vereinfachung mit dem „geometrischen Horopter“ gearbeitet werden. Betrachten wir nun Teile des Objektes die entweder vor oder hinter dem „Geometrischen Horopter“ liegen, wie zum Beispiel Spitze und Schwanz des Pfeils in Abb. 7B. Diese Objektpunkte werden nicht auf „korrespondierende Punkte“ der Retinae projizieren, weil die Distanz von f nach h auf der rechten Netzhaut nicht gleich der Distanz von f‘ nach h‘ auf der linken Netzhaut ist. Diese Differenz der Netzhaut-Kreisbögen (hf-h’f‘) wird als „binokulare Disparität“ bezeichnet und meist als Bogenmaß oder Winkel angegeben. Die Projektionslinien für Punkte auf der Netzhaut für nahe Objekte kreuzen sich vor dem Horopter und produzieren was man als „gekreuzte Disparitäten“ bezeichnet und umgekehrt produzieren weit entfernte Objekte, wie z.B. der Schwanz des Pfeils in Abb. 7B, „nicht gekreuzte Disparitäten“. Wenn die retinalen Disparitäten, die ein Objekt produziert, in einen begrenzten Bereich fallen (ungefähr 0,5° in der Nähe der Fovea, etwas mehr bei einer größeren Exzentrizität), wird es als ein einzelnes verschmolzenes Objekt mit Tiefe erscheinen. Außerhalb dieses Bereiches, der als „Panums“ Verschmelzungsbereich bekannt ist, wird das Objekt doppelt erscheinen. Dem Beobachter wird dann jedes der beiden retinalen Bilder bewusst, was dann als „Doppeltsehen“ bezeichnet wird. Trotzdem kann das visuelle System sinnvolle Tiefeninformationen bis zu binokularen Disparitäten von einigen Grad extrahieren, in Abhängigkeit von der Größe des Objektes. Es ist zu bemerken, die obige Diskussion vorausgesetzt, dass man wissen muss wie zur Abbildung eines Objektes im rechten Auge die passende Abbildung des gleichen Objektes im linken Auge gefunden wird. Dies stellt ein schwieriges Problem dar und ist im Bereich der Bilddatenverarbeitung als „Correspondence Problem“ bekannt. Dieses Problem ist äußerst schwierig, wenn man versucht die einzelnen korrespondierenden Punkte (pixel) auf den zwei retinalen Bildern zu finden (weil es eine große Zahl von Übereinstimmungen gibt). Diese Problemstellung wird leichter handhabbar wenn man lokale Felder von Punkten, z.B. kurze Liniensegmente zum Finden der Übereinstimmungen heranzieht. Zusätzlich ist es wahrscheinlich dass Bildeigenschaften höherer Ordnung, wie z.B. die globale Form eines Objektes, dazu benutzt werden die lokalen Objektübereinstimmungen zu erhärten. Es gibt noch eine andere Art von Stereopsis bekannt als „da Vinci Stereopsis“ (benannt nach Leonardo da Vinci, der diese zuerst beschrieben hat), die die Benutzung von nicht gepaarten Bereichen der Abbilder in den beiden Retinae der beiden Augen beinhaltet. Dies kommt bei der Überdeckung von Objekten vor. Prinzipiell deswegen, weil das Auge nicht um Objekte herum sehen kann. Ein Objekt in der Form eines Quadrats im Vordergrund wird einen vertikalen Streifen des Hintergrundes auf der linken Seite verursachen der nur durch das linke Auge (AL) gesehen werden kann. Auf der rechten Seite wird dieses quadratische Objekt einen Streifen verursachen, der nur mit dem rechten Auge (AR) gesehen werden kann (Abb. 8). Diese Art von Stereopsis ist ebenfalls für die Tiefenwahrnehmung nützlich, speziell zur Definition der Verdeckung. Wir wollen hier aber nicht näher auf die „da Vinci Stereopsis“ eingehen.

 

Objekt im V. Burosch
Abb. 8: Die Basis der „da Vinci Stereopsis“ Horizontaler Schnitt durch das rechte (AR) und linke Auge (AL) von oben gesehen. Ein im Vordergrund vorhandenes Objekt hat zur Folge, dass Bereiche im Hintergrund jeweils nur von einem Auge gesehen werden können. (Eigene Zeichnung nach Nakajama K. et. al. 1990 Da Vinci Stereopsis; in Ponco R. et.al. 2008 Stereopsis)

 

Räumliche Auflösung des binokularen Sehens (Stereopsis)

Weil die elementaren Daten mit denen das Gehirn arbeiten muss die binokularen Disparitäten sind, wird die kleinste Tiefendifferenz die unterschieden werden kann durch die kleinste retinale Disparität die aufgelöst werden kann bestimmt. Bei menschlichen Beobachtern, erreicht diese Differenz 5 Bogensekunden (entsprechend 0,0014°), wenn das beobachtete Objekt auf der Fovea abgebildet wird. Dies ist eine wahrlich bemerkenswerte Präzision, wenn man bedenkt dass der Abstand zwischen den Zapfen auf der Fovea in der Größenordnung von 30 Bogensekunden liegt. Die binokulare Disparität, die sich bei einer gegebenen Tiefendifferenz ergibt, variiert mit dem inversen Quadrat der Distanz zum Objekt. Das bedeutet, dass bei nahen Objekten äußerst kleine Tiefendifferenzen unterschieden werden können. Das können bis zu 25 µm sein, was ungefähr der Dicke eines feinen menschlichen Haares entspricht. Auch bei relativ großen Objektentfernungen kann das binokulare Sehen eine Rolle spielen, vorausgesetzt die Tiefe des Objektes ist groß genug. Für eine Entfernung von 100 m z.B. beträgt die minimale auflösbare Tiefe ungefähr 4 m (Ponce 2008).

 

Andere Parameter für Tiefenwahrnehmung (monokulare Parameter)

Einem signifikanten Anteil der menschlichen Population (ungefähr 5 bis 10%) fehlt die stereoskopische (binokulare) Tiefenwahrnehmung. Man müsste annehmen, dass diese Personen bezüglich ihrer Sehfähigkeit stark behindert wären. Dies ist aber nicht der Fall. Einige von ihnen haben in Berufen Karriere gemacht für deren Ausübung man eine gute räumliche Einschätzung annehmen muss, wie z.B. Chirurgie, Zahnmedizin und professionelles Skifahren. Der Grund dafür ist wahrscheinlich dass es eine Anzahl von anderen Methoden zur Erhaltung von Tiefeninformation gibt. Eine der nützlichsten Verfahren ist durch Kopfbewegungen quasi mehrere Ansichten über die Zeit zu erhalten und damit eine „Bewegungs-Parallaxe“ zu produzieren. Wenn man seinen Kopf in dieser Art bewegt werden Objekte, die sich näher als der Fixierungspunkt befinden, als sich in die Gegenrichtung der Kopfdrehung bewegend wahrgenommen. Objekte, die weiter als der Fixierungspunkt entfernt sind, werden als sich mit der Kopfbewegung bewegend wahrgenommen. Die Geschwindigkeit der wahrgenommenen Bewegung indiziert die Größe der Tiefendifferenz. Im Vergleichstest bei ähnlichen Bedingungen kann die Tiefenwahrnehmung gewonnen aus der „Bewegungs-Parallaxe“ fast so gute Ergebnisse liefern wie die Stereopsis also das binokulare Sehen.

Zusätzlich zur „Bewegungs-Parallaxe“ gibt es noch eine Reihe von Bildparametern, die einen Hinweis auf Tiefe geben. Dies sind auch die Indikatoren die Künstler benutzen um Tiefe auf einer flachen Leinwand vorzutäuschen (Eccles 1990):

a) Die Position eines Objektes im Bild. Je entfernter ein Objekt ist, desto höher wird es im Bild angesetzt.
b) Perspektivische Darstellung.
c) Abgestufte Maserung, die mit der Entfernung feiner wird.
d) Schatten, die die relative Stellung im Raum anzeigen.
e) Überdeckungen und Überschneidungen beweisen unzweifelhaft, wie die Objekte relativ zueinander stehen.
f) Der Freilichteffekt: Verschwommene und mehr blaue Einfärbung entfernter Objekte.

Keiner dieser Hinweise kann die feine Tiefenwahrnehmung des binokularen Sehens erreichen, aber sie liefern einen Gesamteindruck der dreidimensionalen Struktur der Umgebung. Kombiniert mit der „Bewegung-Parallaxe“ erreichen diese monokularen Parameter aber nahezu die Tiefenwahrnehmung des binokularen Tiefensehens.

Ein einfaches Experiment kann uns die feine Tiefenwahrnehmung des monokularen Sehens im wahrsten Sinne vor Augen führen: Wenn man ein Auge schließt oder abdeckt fällt ja die binokulare Information aus. Der räumliche Eindruck verschwindet aber nicht. Es wird nur der kleinere Blickwinkel empfunden und vielleicht ein etwas nicht so prägnanter Tiefeneindruck.

Bevor wir uns im nächsten Abschnitt den technischen Umsetzungen und Verfahren des 3D-Sehens zuwenden sei zum Abschluss des Teiles „Physiologische Hintergründe“ Ian P. Howard (2002) zitiert: „Wir haben ein wachsendes Repertoire von psychophysischen, physiologischen und computergestützten Techniken. Es gibt eine schnell wachsende Anzahl von Psychologen, Physiologen, Anatomen, Biochemikern, Physikern, Ingenieuren und Informatikern die alle Aspekte des „Sehens“ erforschen. Kein anderer Wissenschaftsbereich umfasst eine größere Vielfalt von Spezialisierungen. Mit all unseren Fortschritten im Verstehen des Sehvorganges, bleibt doch das schiere Erstaunen bestehen, wenn wir ein Stereogramm beobachten. In unseren Versuchen das visuelle Bewusstsein zu verstehen beziehen wir uns auf neuronale Netzwerke, synchrone Oszillationen, Zellgruppen (cell assemblies), Impulsfolgen und Quantenphysik, aber wir tappen nur im Dunkeln. Das erstaunliche Geheimnis unserer bewussten Wahrnehmung einer dreidimensionalen Welt, der wir begegnen wenn immer wir unsere Augen öffnen und die uns fortwährend fasziniert und verblüfft, erinnert uns an die wundervolle Maschinerie die jeder von uns in seinem Kopf trägt. Diese Maschinerie brauchte einige Milliarden Jahre um sich zu entwickeln aber in jedem von uns nur ungefähr ein Jahr um heranzuwachsen.“ Wie wir gesehen haben stehen wir bei der Physiologie des Sehens trotz der heute schon vorliegenden Erkenntnisse noch immer vor einem ungeheuren Problem, dessen Lösung, wenn dies prinzipiell überhaupt möglich ist, noch viele Jahre in Anspruch nehmen wird. Vor diesem komplexen Hintergrund werden auch bei technischen Umsetzungen, die den Menschen zur Information, Bildung oder Unterhaltung dreidimensionale Abbilder der realen Welt liefern, noch viele Probleme gelöst werden müssen um damit dann eine möglichst naturgetreue 3D-Wiedergabe erreichen zu können.

 

3. Erste technische Umsetzungen

Die Erfindung der Perspektive: Schon immer haben die Menschen versucht auf Zeichnungen und Gemälden die Wirklichkeit so real wie möglich abzubilden also auch auf einer ebenen Fläche Tiefe zu erreichen. Schon im alten Griechenland soll diese Technik bekannt gewesen sein. Es wird jedenfalls berichtet, dass dort ein Maler durch ein Bühnenbild das er für ein Schauspiel des Dichters Aischylos angefertigt hatte, durch eine neue Maltechnik so große Wirklichkeitsnähe erreichte, dass er damit das Publikum in großes Entzücken versetzt haben soll. Doch handwerkliche Kunst galt in der griechischen Polis nicht viel. Dieses Wissen geriet jedenfalls wieder in Vergessenheit. Bis ins Mittelalter wirkten alle Gemälde flach. Tiefe wurde nur durch Verkleinerung von Objekten im Hintergrund und Überdeckung angedeutet. Im Florenz des 15. Jahrhunderts erfolgte dann, wahrscheinlich angeregt durch die entstehende Kartographie, die Wieder- oder Neuentdeckung der Perspektive. Mittels der gedachten Sehlinien, die alle auf den Fluchtpunkt zulaufen und dort konvergieren konnte nun der Eindruck von Tiefe erreicht werden. Und so kam es, dass „La Dolce Prospettiva“ in der Renaissance fast alle Maler, Architekten, Gelehrte und reiche Dilettanten in ihren Bann schlug. Als Beispiel sei ein Maler der Frührenaissance angeführt, Paolo Uccello (1397-1475), den das Thema der Perspektive gefangengenommen hatte und der sich immer wieder intensiv mit der Raumdarstellung – der Darstellung der dritten Dimension auf zweidimensionaler Fläche - auseinander gesetzt hatte (Abb. 9).

 

Gemälde Burosch
Abb. 9: Paolo Uccello (1397-1475) „Die Flut“ (Visipix.com)

 

Wheatstones Stereoskop

Es ist erstaunlich wie lange es gedauert hat bis eine Vorrichtung erfunden wurde, mit der das stereoskopische Sehen, basierend auf den leicht unterschiedlichen Bildern, die durch den Augenabstand entstehen, mit künstlichen Bildern nachgebildet und untersucht werden konnte. Die Erfindung eines solchen Gerätes muss Sir Charles Wheatstone zugeschrieben werden. Ende 1832 hatte er zwei solcher Geräte, Wheatstone nannte sie „Stereoscopes“, bei Optikern in London anfertigen lassen. Eines davon war ein Spiegelstereoskop, das andere ein Prismenstereoskop. In Abb. 10 ist die Prinzipskizze des Spiegelstereoskops nach einer Zeichnung von Wheatstone wiedergegeben.

 

Wheatstone Burosch
Abb. 10: Wheatstones Stereoskop. (Eigene Zeichnung nach Gregory R.L. 2001 Auge und Gehirn; Psychologie des Sehens)

 

Es war ein einfaches Instrument welches dem linken und rechten Auge mittels zweier im rechten Winkel angebrachter Spiegel (A in Abb. 10) zwei getrennte 3D-Stereopaarzeichnungen mit entsprechender Disparation (E‘ und E in Abb. 10) angeboten werden konnten, die in die Bildhalter (D‘ und D in Abb. 10) eingespannt wurden. Das Wesentliche jedes Stereoskops ist, dass es erlaubt die Bildvorlagen für jedes Auge getrennt zu kontrollieren. Der Experimentator kann dadurch binokulare Variablen isolieren und die entsprechenden Effekte untersuchen. Wheatstone konnte mit diesem neuen Instrument erstmals die Beziehung zwischen binokularer Disparität und Tiefenwahrnehmung aufzeigen. Louis Daguerre perfektionierte um die Jahre 1837 bis 1839 das Verfahren auf Metallplatten Abbildungen der Umwelt festzuhalten (Daguerreotypien). Fox Talbot stellte 1840 das Prinzip vor, wie mit Hilfe von transparenten Negativen beliebig viele Positive hergestellt werden konnten. Diese Technik war aber zunächst bezüglich der Bildqualität der Daguerreotypie unterlegen, die aber ihrerseits immer nur die Herstellung eines Originals erlaubte.

Diese Entwicklungen führten dazu, dass Wheatstone 1841 zwei Photographen Richard Beard und Henry Collen beauftragen konnte ihm bei der Erstellung der ersten Stereophotographie zu helfen. Diese war eine Porträtaufnahme von Charles Babbage, dem Erfinder der ersten programmierbaren mechanischen Rechenmaschine. Diese ersten Stereophotographien wurden aufgenommen indem eine einfache Kamera um den Augenabstand verschoben wurde. Der Photograph A. Quinet baute 1853 in Paris die erste binokulare Stereokamera, die er Quinétoskope nannte. Sir David Brewster brachte das von ihm entwickelte Prismenstereoskop nach Paris und interessierte den Optiker Jules Duboscq, der eine größere Anzahl davon baute. Dazu lieferte er einen Satz von Stereodaguerreotypien. Dieses Stereoskop wurde auf der Weltausstellung 1851 in London gezeigt. Eines davon erhielt Queen Victoria, die großes Interesse an dem Gerät zeigte. Innerhalb von 3 Monaten wurden nahezu 250 000 Prismenstereoskope in London und Paris verkauft. Der erste Markterfolg eines 3D-Wiedergabegerätes war geboren. Mit der Einführung von illustrierten Magazinen erlosch das breite Interesse an stereoskopischen Photographien.

 

Stereoskopische Bewegtbildwiedergabe

Nach vielen Vorarbeiten durch Wissenschaftler und Ingenieure haben wohl Louis Le Prince und William Dickson, der im Thomas Edison Labor arbeitete, die ersten praktisch umsetzbaren und noch heute verwendeten Prinzipien der Aufnahme und Wiedergabe von bewegten Bildern basierend auf Mechanik und Photochemie entwickelt. In dieser Stufe glaubte aber Edison nicht an die Zukunftsfähigkeit von Kinoprojektoren, die große Bilder für viele Zuschauer auf eine Projektionswand werfen könnten.  So kam es dass die Gebrüder Louis und Auguste Lumiére den ersten funktionsfähigen Kinoprojektor vorstellen konnten. Diese benutzten einen Zelluloidfilm von Eastman. Das erste Lichtspieltheater wurde im Dezember 1895 in Paris eröffnet. 1903 zeigten die Gebrüder Lumiére in Frankreich den offiziell ersten Stereofilm von ein paar Sekunden Dauer. Er hatte den Titel „L’arrivée du train“. Er wurde offenbar auf zwei 35 mm Filmstreifen aufgenommen und dann auf einen Filmstreifen in anaglyphischer Zwei-Farbtechnik kopiert. Dies wird aber von manchen Experten, die der Meinung sind, dass zwei Projektoren mit entsprechenden Farbfiltern benutzt wurden, bezweifelt. 1915 brachte die Famous Players Film Company (die spätere Paramount Picture Company) drei kurze anaglyphische Stereofilme heraus, die der amerikanische Filmpionier Edwin Porter produziert hatte. Harry K. Fairall produzierte den ersten kommerziell erfolgreichen Stereofilm „The Power of Love“, der im Ambassador Hotel Theatre in Los Angeles im September 1922 gezeigt wurde. Alle diese Filme benutzten Anaglyphentechnik, d.h. ähnlich wie beim Stereoskop wurde hier mit Farbfilterbrillen dafür gesorgt, dass das linke Auge nur die Aufnahme der linken Kamera, und das rechte Auge nur die Aufnahme der rechten Kamera sehen konnte. Die beiden Filmprojektoren für den Links- und Rechtsauszug waren mit den korrespondierenden Farbfiltern versehen. Die Anaglyphentechnik erlaubt aber aufgrund ihres Prinzips nur eine stark verfälschte Farbwiedergabe. Edwin Land demonstrierte 1935 einen Stereofilm in Farbe unter Benutzung des Prinzips der Polarisierung von Licht zur Separierung der Links-/Rechtsbilder. Dieser Prozess war in den 30iger Jahren bei Zeiss-Ikon in Deutschland entwickelt worden (Howard 2002). Raymond und Nigel Spottiswoode produzierten für das British Film Institute den ersten 3D-Film ganz in Farbwiedergabe und mit synchronisiertem Stereoton. Dieser wurde 1951 zur Eröffnung der South Bank Exhibition in London gezeigt. Dies kann als der Start des 3D-Booms von 1953 und 1954 angesehen werden.

 

4. Ausblick

Ich hoffe, dass es mir gelungen ist, die physiologischen und geometrischen Hintergründe des räumlichen Sehens etwas genauer darzulegen. Damit sollte es auch möglich sein die 3D-Verfahren, die sich heute bei 3D-Fernsehgeräten etabliert haben, besser zu verstehen. Mein Technik-Essay „Quo vadis 3D?“ versucht die heute auf dem Markt befindlichen Verfahren verständlich zu beschreiben, sowie deren Vor- und Nachteile herauszuarbeiten. Sie finden es entweder auf dieser Homepage www.burosch.de unter 3D oder auf  http://www.gisela-und-konrad-maul.de/3D.htm. Damit sollte es Ihnen auch möglich sein, unabhängig von den üblichen Marketing-Aussagen der Hersteller, das für Sie geeignete 3D-Fernsehgerät zu finden. Bleibt mir noch Ihnen dabei viel Erfolg und letztendlich viel Freude beim 3D-Fernsehen zu wünschen.

 

Literaturverzeichnis

Weitere Infos: http://www.burosch.de/3dtechnik.html

Eccles, J.C. Die Psyche des Menschen.    Das Gehirn-Geist-Problem in neurologischer Sicht.   Serie Piper, München, 1990

Gregory, R.L. Auge und Gehirn Psychologie des Sehens    Rowohlt Taschenbuch Verlag, Hamburg, 2001

Hayes, R.M. 3D-Movies.    A History and Filmography of Stereoscopic Cinema    McFarland & Co. Inc., Jefferson U.S., 1989  

Howard, I.P. Seeing in Depth    Volume I Basic Mechanisms    University of Toronto Press, Toronto, 2002

Howard, I.P. Seeing in Depth    Volume II Depth Perception    University of Toronto Press, Toronto, 2002

Pöppel,E. (Ed.) Neuronal Mechanisms in Visual Restitution. Human Neurobiology, Vol. 1, 1982

Pöppel,E.  Lust und Schmerz. Über den Ursprung der Welt im Gehirn. Wilhelm Goldmann Verlag, München, 1995

Ponce, R.(et al.) Stereopsis.    Current Biology Volume 18 No 18, 2008    Zeki S.  Inner Vision. An Exploration of Art and the Brain. Oxford University Press, Oxford, 1999

 

Burosch Konrad MaulKonrad L. Maul Dipl.-Ing. (FH) Certified Counsellor - Autor dieses Berichts

Konrad L. Maul war 37 Jahre in der GRUNDIG Fernsehentwicklung tätig, davon 30 Jahre in leitender Position. Als Gruppenleiter war er für das erste 100 Hertz-TV-Gerät verantwortlich. Von 2001 bis 2008 leitete er die GRUNDIG Fernsehentwicklung. Damit ist er einer der erfahrensten und profiliertesten TV-Entwickler Deutschlands.
Heute arbeitet er am Aufbau einer Tätigkeit als Berater für Einzelne, Gruppen und Organisationen in technischen, wirtschaftlichen und sozialen Handlungsfeldern.
http://www.gisela-und-konrad-maul.de

 Alle Rechte vorbehalten, All rights reserved 2012, Konrad L. Maul, Dipl.-Ing. (FH) 90473 Nürnberg

Warum bedeutet Farbe eigentlich Licht? Was ist der Mensch in der Lage, überhaupt wahrzunehmen? Im folgenden Artikel mit freundlicher Unterstützung der Fachzeitschrift ELV sind die wichtigsten Begriffe rund um das Thema Licht und Beleuchtung zusammengetragen. 

So stellen Sie Ihren LCD Fernseher richtig ein.

Die Bildqualität von modernen LCD-Fernsehern kann durch richtige Einstellungen im On-Screen-Menü des TVs deutlich verbessert werden. Häufig sind die Werkseinstellungen nicht perfekt, sondern auf die Präsentation im Ladenlokal eines Händlers abgestimmt und stellen ein übertrieben farbenfrohes Bild dar, um potentielle Käufer zu beeindrucken. Ein optimal justierter Fernseher sollte die Bilddaten originalgetreu wiedergeben. Das heißt, dass keine Farbstufen ineinander verwaschen, Konturen klar zu sehen, aber nicht übertrieben scharf sind und das Bild insgesamt nicht zu hell oder zu dunkel ist. Eventuell muss der Fernseher auch auf die Beleuchtung des Raumes, in dem er steht, angepasst werden. Sehr helle Räume erfordern dementsprechend auch ein helleres Fernsehbild, in dunklen Räumen sollte das Bild dagegen nicht zu hell sein, da dies auf Dauer zu anstrengend für die Augen ist.

Die meisten Fernseher ermöglichen bei der Bildoptimierung die Werte für Helligkeit, Kontrast, RGB-Stufen, Schärfe, Gamma und Farbbalance anzupassen. Kontrast bezeichnet den Unterschied zwischen den hellen und dunklen Bereichen eines Bildes. Ist dieser zu gering eingestellt wirkt das Bild flau und farblos, ist der Kontrastwert dagegen zu hoch, wirkt es silhouettenhaft und künstlich. Ein guter Kontrast unterstützt die Farben, verstärkt sie aber nicht zu sehr. Die Farben selbst werden mit den RGB-Stufen eingestellt. Diese geben an, zu welchen Teilen Rot, Grün und Blau im Fernsehbild vorhanden sind. Idealerweise sind sie gleich stark vertreten, manche Fernseher setzen aber etwas mehr auf grün - ganz einfach weil das menschliche Auge mehr Grün- als Rot- oder Blautöne kennt.

 

Burosch: Referenz DVD

 

Eine Eigenart des menschlichen Auges begründet auch den Gamma-Wert; das Auge nimmt Helligkeitsanstiege nicht linear wahr. Gamma passt das Helligkeitsverhalten des Fernsehers dahingehend an, dass die empfundene Helligkeit in dunklen Bereichen steiler und in hellen weniger steil ansteigt. Das bedeutet, dass der mittlere Helligkeitsbereich stärker vertreten ist als der extrem helle oder dunkle. Der Gamma-Wert gibt also an, ab wann Farben wie viel heller oder dunkler dargestellt werden, als sie eigentlich sind. Idealerweise beträgt der Gamma-Wert 2.2, denn dieser Wert  lässt das Bild insgesamt etwas "knackiger' erscheinen".

Bei LCD-Fernsehern sind vor allem Helligkeit (und damit Gamma) und der Kontrast sehr wichtig. Da LCD Fernseher mit einer Hintergrundbeleuchtung arbeiten, ist Schwarz nie zu 100 Prozent dunkel. Aus diesem Grund tendieren viele Nutzer dazu, den Fernseher zu dunkel einzustellen. Für  sehr helle Räume wird dagegen häufig eine zu hohe Grundhelligkeit für das TV-Gerät gewählt, was ebenfalls zu keinem optimalen Ergebnis führt. Ein Dilemma, an dem das Augenmaß leider scheitert.

Erste Anlaufstelle im Internet für Testbilder: Burosch Audio-Video-Technik. Zu erkennen ist das AVEC-Testbild von Burosch

Eine Möglichkeit die Farbeinstellungen relativ genau zu justieren, ist die Verwendung von Testbildern. Diese sind auf Disks zu finden.

Als erste Anlaufstelle zu diesem Thema sei die Internetseite Burosch Audio-Video-Technik genannt, einer der wohl anerkanntesten Testbild-Anbieter Deutschlands.

Testbilder funktionieren nach einem einfachen Prinzip: Ist der Fernseher nicht richtig eingestellt, wird das Testbild auch nicht richtig dargestellt. Das ist zwar mit allen Bildern und Filmen der Fall, auf Testbildern sind allerdings bestimmte Skalen und Farbverläufe dargestellt, an welchen man die falschen Einstellungen und deren Art und Ausmaß erkennen kann. Ein Testbild, welches relativ viele Tests in einem Bild vereint ist das AVEC (Audio Video Equipment Check). Es testet die Grundeinstellungen eines Bildschirms und reicht in der Regel zur Einstellung aus.  Schon das Raster im Hintergrund gibt Auskunft darüber, ob der Fernseher zu scharf oder zu unscharf eingestellt wurde. Erscheint der Kreis im Raster verpixelt ist der Fernseher zu scharf eingestellt; erscheint der Kreis verschwommen ist der Fernseher zu unscharf eingestellt. Dies lässt sich am Testkreis sehr viel besser ablesen als zum Beispiel bei einem normalen Fernsehbild.

Die "Graustufen" geben Auskunft über die Helligkeit und den Kontrast. Sind zum Beispiel die rechten oder linken Rechtecke im AVEC Testbild nicht voneinander differenzierbar, ist die Helligkeit zu hell bzw. zu dunkel eingestellt; erscheint alles recht verwaschen oder es sind sogar gar keine Rechtecke zu sehen, ist der Kontrast zu niedrig eingestellt. Und wenn in der Mitte der Testskala ein großer einfarbiger Bereich oder nur sehr geringe Farbnuancen erkennbar sind,  sollte der Gammawert höher bzw. niedriger gestellt werden. Neben einfachen Testbildern gibt es auch Testvideos bzw. Testanwendungen. Diese testen zum Beispiel die Dynamik des Bildes oder die Bewegungsinterpolation. Ein Beispiel für solche Videos auf der Burosch-Seite ist der sogenannte "Pendel-Testbild" So lässt sich ablesen, ab welcher Bewegungsgeschwindigkeit Schlieren oder Unschärfe auftreten. Mit dieser Information lassen sich beispielsweise die "Motion-Flow" Bildmodi einstellen. Sehr häufig bieten TV-Geräte die Einstellungen  dynamisch, normal oder weich.

Doch es gibt nicht nur Hilfen zur korrekten Einstellung des Bildes. Testsounds erleichtern die Einstellungen des Fernsehtons. In der Regel fallen die Soundeinstellung bei TV-Geräten eher spartanisch aus. Die meisten Fernseher haben lediglich vordefinierte Profile und 2 bis 3 zusätzliche Optionen. Bei verschiedenen Modelle kann außerdem die Leistung der einzelnen Lautsprecher individuell eingestellt werden. Daher gibt ein Test-Ton mit Stereo-Signalen, bei denen jeweils ein Lautsprecher lautlos bleibt, um vergleichen zu können, ob beide Lautsprecher gleich laut sind.Solche Empfehlungen sind in der Regel allerdings nur schwer zu finden und in keinster Weise auf den Raum, in dem Ihr eigener Fernseher steht, abgestimmt. Zusätzlich können durch Serienstreuung oder unterschiedliche Revisionen die empfohlenen Einstellungen eventuell trotzdem kein optimales Ergebnis liefern. Sie können aber zumindest als Ausgangspunkt für einen Test mit Testbildern, Testsounds oder einem Colorimeter dienen und dann mit recht kleinem Aufwand an das eigene Gerät angepasst werden.

Bis dahin sollten Sie sich die Zeit nehmen, ihren Fernseher richtig einzustellen - es lohnt sich. Ein gut eingestellter Fernseher bietet nicht nur mehr Freude, sondern gibt im Idealfall die Medien originalgetreu wieder und kompensiert eigentliche Schwächen der Technik.

Redakteur: Simon Blohm / Prad Technologies

 

Unsere Kunden

Folgende nationale und internationale Firmen sind seit vielen Jahren unsere Kunden. Wir stehen mit diesen Firmen in regelmäßigem Geschaftskontakt, die in Ihren Laboren die BUROSCH Referenz Testbilder für die eigene Displayentwicklung und Qualitätskontrolle professionell einsetzen und den vergleichenden Warentest durchführen.
Somit profitiert sowohl die Industrie von unserer fachlichen Kompetenz, als auch der private Anwender unserer Referenz Testbilder für die Bildoptimierung seines Fernsehers. Durch unsere große Erfahrung sind wir seit vielen Jahren Marktführer im Fachbereich "Referenz-Testbilder zur TV, Beamer und Display Analyse"

 

1. Folgende Testzeitschriften für vergleichende Warentests arbeiten mit unseren Referenz Testbildern:

Bitte beachten Sie die vielen Presseberichte über unser Firma und unsere Testbilder zur TV und Beamer Bildoptimierung

Chip, AVF Bild, Computerbild, c`t magazin, Digital Tested, Satvision, HD:TV, video-Homevision, HDTV-Praxis, Stereoplay

 

2. Labore und Prüfinstitute:

VDE, IRT, EBU, OBL Testlabor, ASIG, Bundesnetzagentur, TeSC, LGA Landesgewerbeamt, TÜV, Max-Planck Institut

 

3. Folgende Hersteller arbeiten in der TV und Beamer Entwicklung mit unseren Testbildern:

Bitte beachten Sie dazu die entsprechenden Referenzen

Panasonic, Samsung, Sony, Sharp, Flextronics, Grundig, Philips, Pioneer, Fujitsu, BARCO, BENQ, Funai, Harman, Intel, JVC, Kenwood, LG, ReVox, Siemens, Thomson, TechniSat, Blaupunkt, Becker, BeyerDynamic, Denon, Loewe, Marantz, Metz, Yamaha, Zeiss

 

4. Unsere Industriekunden:

Bayrischer Rundfunk, WDR, ZDF, MDR, SWR, Sky, Premiere Fernsehen

General Electric, Daimler, BMW, Porsche, Volkswagen, Bosch, Daewoo, Mitsubishi, Hyundai, Rohde & Schwarz, Hewlett-Packard, Flughäfen: Stuttgart, Berlin, Frankfurt, Airbus, LEAR, Lufthansa, EADS, Boeing, Deutsche Bahn

Medion, Silvercrest, Kompernaß, Targa, Lidl, TCL, LKA-Landeskriminalamt, FBI, Bundeswehr-Marine, Rheinmetall, Deutsche Bundesbank, PKE, Infineon, Analog Devices, Coretronic, Changhong, Texas Instruments, Acer, Optoma, AMD, ATI, Datamodul

Wir stehen mit diesen Firmen in regelmäßigem Geschaftskontakt, die in Ihren Laboren die BUROSCH Referenz Testbilder für die eigene Displayentwicklung und Qualitätskontrolle professionell einsetzen. Somit profitiert sowohl die Industrie von unserer fachlichen Kompetenz, als auch der private Anwender unserer Referenz Testbilder für die Bildoptimierung seines Fernsehers.

 

Auf Informationsanzeigen werden typischerweise statische Inhalte dargestellt. Bei emissiven Displays kommt es zu Burn In- und Differential Ageing, was die nutzbare Lebensdauer solcher Panels drastisch verringert. Auch bei LCDs wurden ähnliche Effekte, die als Image Sticking bezeichnet werden, beobachtet. Hier der Artikel zum Thema "Image Sticking" von Professor Blankenbach (Hochschule Pforzheim) zum Download. 

Das Konica Minolta CS-2000 ist ein Spektroradiometer, mit dem man die absolute spektrale Strahlungsverteilung messen kann. Mit diesem Messgerät lassen sich sehr genau die spektralen Eigenschaften von Körperfarben und Lichtquellen ausmessen.

 

Sehr geehrte Stiftung Warentest !

Bereits auf unsere Mail vom 27. Juli 2013 haben Sie auf unseren Leserbrief bzw. unsere Kritik nur sehr ausweichend reagiert. Deshalb jetzt unser offener Leserbrief an die Stiftung Warentest. Uns interessiert nicht, warum manche TV-Geräte ein bestimmtes Preis- Leistungsverhältnis haben, sondern wie die Stiftung Warentest diese Geräte testet und wie dadurch das Testurteil zustande kommt. Als namhaftes Testinstitut trägt die Stiftung Warentest ja eine große Verantwortung, welche TVs gestestet werden, besonders wie diese getestet werden und welche Information ergänzend dem Leser angeboten werden. Unsere Kritik möchten wir hier detailliert in den folgenden 3 Punkten begründen.

Bitte lesen Sie hier unsere Mail vom 27. Juli 2013 an Frau Jenny Braune / Diplomphysikerin / Leiterin der TV Tests der Stiftung Warentest (StiWa)

1. TV Test in der Ausgabe 8/2013 - Gold für Samsung
Hier wird ein Sony HDready TV (1366 x 768 Px.) mit einem Samsung FullHD Displays (1920 x 1080 Px.) in der Bildqualität verglichen und auch andere doppelt so teure Geräte in der gleichen Testkategorie. Dass dann der 400 Euro Sony TV wesentlich schlechter abschneidet, als der 800 Euro Samsung TV ist doch wirklich nicht verwunderlich. Aber warum wird hier ein älteres niedrig auflösendes Display getestet, im Vergleich zu einem relativ neueren hochauflösenden FullHD Display? Die wesentlich schlechtere HDready Bildqualität ist doch klar.

2. TV Test in der Ausgabe 12/2013 - Nicht nur Größe zählt 
"Im insgesamt starken Testfeld liegen drei Samsung Geräte vorn." - "Auf den Panasonic Modellen verfärbte sich das Gesicht des Bundestrainers mitunter selbst dann etwas, wenn seine Mannschaft führt". (beide Zitate: Stiftung Warentest)

Diese überzogene unqualifizierte Beschreibung der Panasonic Bildqualität entspricht nicht der Realität.

Werden hier oberflächige TV Massentests gleichzeitig für viele Länder durchgezogen - nur unter Berücksichtigung der internen Kosten der StiWa - ohne redaktioneller und technischer Qualität?

 

Die Beauftragung an das Burosch TV Labor:
Das deutlich schlechte Testergebnis des Sony TV KDL-46W905A forderte zwangsläufig eine Kontrolle. Im offiziellen Auftrag der Industrie war es unsere Aufgabe die Bildbeurteilung für den Sony TV Test zu kontrollieren bzw. das negative Testergebnis nachzuvollziehen. Deshalb hat das Burosch TV Labor das negative Testergebnis der Stiftung Warentest des Sony TVs KDL-46W905A (SN. 6018053) aus dem Test 8/2013 nachgestellt.

Frage: Wie testet die StiWa eigentlich, wenn angeblich 7 StiWa Tester so ein falsches Testergebnis produzieren ??????

Link: So prüft das Burosch TV Testlabor

Das Fazit unserer Beauftragung: Das offensichtlich schlechte Testergebnis bzgl. der Bildqualität des Sony TVs ist absolut nicht nachzuvollziehen d.h. entweder wurden diese Messergebnisse von einer unerfahrenen Hilfskraft erstellt oder die Messwerte wurden so manipuliert, dass der Sony TV deutlich schlechter sein sollte. Wir begründen diesen harten Vorwurf damit, dass wir die internen Testergebnisse der Stiftung Warentest (Code IC13004-2001-00) nachgestellt haben und mit unseren eigenen Testergebnissen mehrmalig verglichen haben.
Im Klartext heißt das im Fall des Sony TVs: Die elementar wichtigen Bildeinstellwerte: Bildmodus, Farbtemperatur und Hintergrundlicht wurden im StiWa Test so unqualifiziert negativ verändert, dass es zwangsläufig zu dem schlechten Testergebnis kommen musste. (siehe vergleichend dazu die detaillierte Infos im Testbericht des Burosch TV Labors)

Link: Der Sony TV Testbericht aus dem Burosch TV Labor vom 8. August 2013 - Lesen Sie hier den Mess- und Vergleichsreport (Code IC13004-2001-00) der "Optimized Settings" der StiWa im direkten Vegleich zu den normgerechten Bildeinstellungen im Burosch TV Labor.

 

Kalibriert die Stiftung Warentest die zu prüfenden Displays oder wird nur ein Sichttest gemacht ?
Werden die TVs im Test der StiWa nur einem schnellen Sichttest mit einem 4:3 Testbild der Photoindustrie für die Druckvorstufe am Computer unterzogen (siehe die Empfehlung der StiWa zur TV Bildeinstellung für den Leser - Punkt 3) oder werden die TVs auch ergänzend korrekt sorgfältig kalibriert als Grundlage für die objektive Display-Bildbewertung für einen wirklich professionellen TV Test?
Wenn ja - warum präsentiert die StiWa diese Diagramme nicht, um Ihren Test nachzuvollziehen? Warum verheimlichen Sie die entsprechend Kalibrierungs-Diagramme für die RGB Balance, das Farbsegel nach CIE1931, der Farbtemperatur nach D65 und auch des Gammas mit den Erklärungen entsprechend der normgerechten Prüfung nach Rec.709? 
Darf der Leser diese sehr wichtigen Diagramme nicht sehen - oder machen Sie diesen Aufwand doch nicht? Auf Ihrer Homepage wäre dazu ja genügend Platz diese zu zeigen. Andere Testzeitschriften für vergleichende Warentests zeigen doch auch Ihre Professionalität durch die Offenlegung dieser Diagramme.

So arbeitet das Burosch TV Labor: Ein objektiver TV Bildtest für Displays im 16:9 Bildformat setzt sich immer aus einer visuellen Beurteilung mit 16:9 FullHD Referenz Testbildern und der messtechnischen Kalibrierung zusammen. Diese Diagramme, generiert durch hochwertige Lichtsensoren und der entsprechenden Software, sind doch die Voraussetzung, um die Toleranzen bzw. die Adaption des menschlichen Auges zu kontrollieren.

Warum gibt die Stiftung Warentest Ihre Fehler in dem Sony TV Test nicht zu und veröffentlicht die entsprechende Korrektur z.B. dann in der Ausgabe 12/2013 ?

Nachdem die Stiftung Warentest unseren ersten Leserbrief nicht veröffentlicht hat, beschreiten wir deshalb diesen Weg, um folgende Antworten zu erhalten:
 - Warum werden auf der StiWa Internet Seite nicht die detaillierten Messergebnisse (Diagramme) veröffentlicht - so dass auch technisch erfahrene Leser die Testergebnisse verfizieren können?
 - In welchem Testlabor werden die TV Tests durchgeführt?
 - Welches gesamtes Testgeräteumfeld bei diesen länderübergreifenden Tests?
 - Wird normgerecht z.B. nach Rec.709 geprüft?
 - Wie ist die Qualifikation der Tester?
 - Haben diese Experten die ISF Level 1 und 2 Schulung bestanden?
 - Wie sind die Testbedingungen?
 - Ist dieses Labor zertifiziert?
 - Sind die Messgeräte kalibriert?
 - Mit welchem Messequipment wird überhaupt getestet?

Da es bei unseren berechtigen Fragen absolut nichts zu verheimlichen gibt, wäre es doch ein Leichtes unsere Fragen zu beantworten. Gern würden wir dann hier die Antworten der Stiftung Warentest veröffentlichen - auch um von einer eventuellen Testkompetenz kollegial lernen zu können.

 

3. TV Bild Einstellen

Leider müssen wir auch hier nur den Kopf schütteln über folgenden Bericht datiert vom 14. März 2014 auf der Internet Seite der Stiftung Warentest:

http://www.test.de/Fernseher-im-Test-1629201-4298596/

Titel: So stellen Sie den Fernseher ein

Zitat StiWa: "Nur wenige Fernseher zeigen mit den Werks­einstel­lungen ein gutes Bild. In test 12/2013 sind es 6 von 19, im aktuellen Heft test-Spezial Fernseher 20 von 83. Bei etwa zwei von drei Geräten lässt sich das Bild aber meist mit einigen wenigen Einstel­lungen verbessern und dem eigenen Geschmack anpassen. Hier die konkrete Anleitung für Geräte von sechs Herstel­lern".

Bedingt durch diese Info über die eklatant schlechten TV Werkseinstellungen sollte doch dann der folgende Bericht aber absolut professionell sein.

Und dann kommt folgende Erklärung, wie man diese TV-Bildoptimierung machen sollte:
Zitat StiWa: "Frieren Sie ein Testbild ein oder nutzen Sie das Testbild der Photoindustrie"
Zitat Photoindustrie: "ihre digitalen Photos am Computer bearbeiten, zu einer gleichmäßigeren Bildqualität der Photo-Abzüge zu verhelfen" (durch die Anwendung dieses von der StiWa empfohlen Testbilds)

Falscher, oberflächlicher und kürzer geht es doch wirklich nicht mehr!

Ist diese unqualifizierte Vorgehensweise der TV Bildeinstellung der Grund für den fehlerhaften Testbericht über den Sony TV in der Ausgabe 8/2013 ?

Als visuelle Referenz nimmt die StiWa für Ihre TV Bildbeurteilung also ein Testbild der Photoindustrie im Bildformat 4:3 für die Bildbearbeitung am Computer bzw. für die Druckvorlage - statt einem richtigen TV Testbild im Bildformat 16:9 eben für 16:9 Fernseher. Sind dadurch die wirren Messergebnisse ("Optimized Settings" der StiWa im Vergleich zu den professionellen Kalibrierungsdiagrammen des Burosch TV Labors) zu erklären?

 

Die Infos der Stiftung Warentest dazu sind mehr als oberflächlich und fehlerhaft:
 - "Verschiedene Abstufungen einer Farbe sollten erkenn­bar sein"   Zitat StiWa
 - "Richtig einge­stellt sind Unterschiede zwischen verschiedenen Grau­stufen sicht­bar"  Zitat StiWa
 - "Helle Bereiche sollten nicht anfangen zu strahlen"  Zitat StiWa

Die Informationen müssten wesentlich präziser sein. Die sehr wichtigen Infos zum Einstellen des Bildformat und der Bildschärfe fehlen !

So oberflächlich, fehlerhaft und so extrem lückenhaft darf selbst ein Bericht für pure Laien nicht sein. Eine Steigerung dieser schlechten Beratung ist nicht mehr möglich. Bitte tragen Sie mehr Verantwortung.

Dann ergänzend in Ihren weiterführenden Infos zur TV Bildeinstellung von sechs TV Herstellern:
http://www.test.de/Fernseher-im-Test-1629201-4329037/
 - Ist der Stiftung Warentest das fundamentale Schulwissen nicht bekannt, dass man vor der Kontrasteinstellung zuerst die Helligkeit optimiert werden sollte - ergänzt durch eine Gegenkontrolle?
 - Schade, dass Sie auch hier die absolut wichtigste Einstellung des Bildformats bzw. Overscan so missachten
 - Die korrekte Einstellung des Hintergrundlichts für den Tag bzw. Nachtbetrieb spielt wohl auch keine so wichtige Rolle
 - Produktionstoleranzen z.B. die unterschiedliche Bestückung mit Displays der TVs darf man nicht vergessen
 - Das individuelle Raumlicht braucht man wohl auch nicht erwähnen
 - Die regelmäßigen Bildkontrollen sind wohl auch nicht so wichtig                    Oder?

Hier werden von der Stiftung Warentest verschiedene TVs aufgelistet mit angeblich richtigen Grundeinstellungen:
http://www.test.de/Fernseher-im-Test-1629201-tabelle/gutegrundeinstellungen/
Leider wird auch hier übersehen, dass die meisten neuen TVs "out of the box" mit der falschen Einstellung des Bildformats und einer überzogenen Bildschärfe ausgeliefert werden. Der starke Kostendruck der Industrie, der extreme Wettbewerb des Vertriebs, verschiedene Firmwareversionen der Software und genauso die Fertigungssteuungen der gesamten Elektronik im Neuzustand, wie auch während der Betriebsdauer, sind der zwingende Grund für eine individuelle und sorgfältige Bildoptimierung. Die notwendigen Infos dazu finden Sie hier: Burosch TV Bildoptimierung

So testet die Stiftung Warentest
http://www.test.de/Fernseher-im-Test-1629201-1629205/
 - Warum überprüfen diese fünf Experten nicht auch explizit die Bildqualität der FullHD Displays mit verschiedenem professionellem FullHD Bildmaterial über Blu-ray Player und mit Testbildgeneratoren, sondern nur über Antenne bzw. Satellit?
 - Welches Bildmaterial wird eingesetzt und wie wird dieses zugespielt?

Begründet durch diese eklatanten Fehler der Stiftung Warentest, hier in Ihrem Bericht zur TV Bildeinstellung, möchten wir die weitere Dunkelziffer wirklich nicht wissen. Selbstverständlich werden viele Geräte getestet - sicher sind viele absolut korrekt - aber solche gravierenden Fehler dürfen niemanden passieren. Ein positives Testergebnis bewirkt einen starken Verkaufsumsatz oder den unnötigen Verlust von vielen Arbeitsplätzen durch ein falsches Testergebnis. Aber mit dieser oberflächlichen Beratung ihrerseits ist doch wirklich niemand richtig gedient - eher das Gegenteil für den Leser.

Liebe StiWa vermeiden Sie bitte diese gravierenden Fehler und informieren Sie Ihre Leser wesentlich besser.

Wäre schön, wenn im eigentlich Sinn des Sachverhalts, in der beruflichen Verantwortung und auch im Interesse des Lesers diese offensichtlichen Fehler der Stiftung Warentest nicht mehr passieren würden bzw. die technischen Informationen auf diesem Fachgebiet qualifizierter wären.

Gern bieten wir Ihnen unsere technische Unterstützung an.

Mit freundlichen Grüßen

Klaus Burosch & Andreas Burosch & Steffen Burosch

Stuttgart, 15. März 2014

Bis heute hat die StiWa auf unsere Fragen nicht geantwortet.

 

Dieser offene Leserbrief ist ausdrücklich ohne Einflussnahme der Industrie bzw. Dritter geschrieben worden und spiegelt die Messergebniss des Burosch TV Labors und unserem Fachwissen.