Digitaler Rundfunk - DAB und DVB

Veröffentlicht: Dienstag, 22. März 2011 14:34
Zugriffe: 6217

Nicht nur bei den Ton- und Bildträgern hat das neue Zeitalter begonnen. Auch der bisher analoge Rundfunk in Form von Fernsehen und Radio wird zunehmend digitalisiert. Auf die grundlegenden Techniken DAB (Radio) und DVB (TV) soll im Folgenden eingegangen werden.


Das Digitale Radio - DAB

Bereits seit 1987 wird an einem Nachfolger für das analog ausgestrahlte UKW-Radio gearbeitet. Eine Reihe von Firmen der Unterhaltungselektronik, Rundfunknetzbetreiber und Forschungsinstitute hatte sich unter dem Namen Eureka 147 zusammengeschlossen und konnte als Ergebnis des damaligen Projektes das erdgebundene digitale Radio DAB (Digital Audio Broadcasting) vorstellen. Erdgebunden bedeutet in diesem Zusammenhang, dass DAB wie UKW mit einer gewöhnlichen Antenne empfangen werden kann. Es ist weder ein Kabelnetz, noch ein Satellitenreciever (wie bei den alten Systemen ADR und DSR) nötig.

Ausbau des DAB-Netzes 2002Ausbau des DAB-Netzes 2004Heute hat man sich international auf einen DAB-Standard geeinigt. Ausnahme machen nur die USA, die ihr IBOC-System (In Band On Channel), auch bekannt unter dem Namen iDAB, bevorzugen. Es war möglich international mehrere Frequenzbänder für zukünftige DAB-Übertragungen zu reservieren. Im Einzelnen sollen in Zukunft über das Band I (47 - 68 MHz), das bisherige UKW-Band (87,5 - 108MHz), das Band III (174 - 240MHz) sowie im L-Band (1,452 - 1,492GHz) Radiosender digital empfangen werden können. Da eine Abschaltung des UKW-Radio über Nacht natürlich nicht möglich ist, beschränken sich die im Moment empfangbaren DAB-Sender auf die Abstrahlung auf TV-Kanal 12 (230 - 240MHz) sowie auf das L-Band, um eine Kollision mit UKW zu vermeiden.Bisher kann DAB in allen größeren Ballungsräumen Deutschlands, sowie an den Hauptverkehrsachsen empfangen werden. Bis 2004 soll das Netz fast lückenlos ausgebaut sein (siehe Bilder, Quelle: digitalradio-info.de).
Innerhalb dieser Frequenzbereiche können DAB-Senderblöcke platziert werden. Ein solcher Senderblock umfasst einen Frequenzbereich von 1,5MHz und beinhaltet bis zu 6 Sender in sehr guter bzw. bis zu 20 Sender in Monotonqualität.

Bevor ein derartiger Senderblock jedoch zusammengestellt werden kann, müssen die Radiodaten noch einen weiten Weg zurücklegen.
 

Weg der Audio- und Dateninformationen zum DAB-Signal


Die Musiksignale des Hörprogramms durchlaufen zunächst einen Audioencoder. Im Audioencoder erfolgt nach Sampling, Quantisierung und Codierung eine Kompressionsstufe, die die Datenrate von 1,411MBit/s auf 8 bis 384kBit/s reduziert (je nach gewünschter Audioqualität und verfügbarer Bandbreite). Die Kompression erfolgt mittels des sogenannten MUSICAM (masking pattern adapted universal subband itegrated coding and multiplexing), besser bekannt unter dem Namen MPEG 1 Audio Layer II (MPEG =Motion Pictures Expert Group). Dieses Verfahren ist eine Weiterentwicklung von ASPEC (adaptive spectral perceptual entropy coding) und ähnelt dem von der Minidisk bekannten Reduktionsverfahren ATRAC (adaptive transform acoustic coding). Bei diesen Verfahren wird das Eingangssignal in kurze Intervalle (zeitliche Dauer ~20ms) aufgespalten und mittels Fouriertransformation zerlegt. Es entsteht ein breites Spektrum, wobei jede Spektrallinie einen bestimmten Ton mit der entsprechenden Lautstärkeintensität repräsentiert.

Zur ErlÀuterung der Mithörschwelle


Betrachtet man das im obigen Bild dargestellte Spektrum und überlagert die "Hörfunktion" des menschlichen Ohres, so erkennt man, dass diverse Töne aus dem Musiksignal unterhalb der Hörschwelle liegen und so garnicht wahrgenommen werden (im Bild orange gefärbt). Einige hohe Peaks lassen sich erkennen, diese stellen besonders laute und damit auch gut hörbare Töne dar (im Bild grün). In unmittelbarer Nachbarschaft zu diesen ausgeprägten Maxima können sich weitere leisere Töne befinden, die ebenfalls oberhalb der Hörschwelle liegen und die das menschliche Gehör eigentlich wahrnehmen müsste (im Bild violett). Es zeigt sich jedoch, dass dem in der Praxis nicht so ist. Existieren zwei Peaks mit praktisch identischer Frequenz aber stark unterschiedlicher Intensität, so ignoriert das Ohr den Peak mit geringerer Intensität. Daher können diese Töne ebenfalls herausgefiltert werden. Durch die Entfernung der nicht hörbaren Bereiche geht die Hörschwelle des Ohrs in die sogenannte Mithörschwelle über. Töne, deren Intensität oberhalb der Mithörschwelle liegen, werden beibehalten, Töne darunter entfernt, wodurch die Daten enorm reduziert werden können. Trotzdem bleibt die Klangqualität auf annähernd CD-Niveau.


Neben der Musikinformation ermöglicht DAB begleitend zum Musikprogramm Daten zu übertragen. Dieser Service nennt sich PAD (Programme Associated Data). Heute werden darüber nicht nur Liedtitel und Interpretenname des gerade laufenden Stückes versendet, sondern auch Verkehrsmeldungen, Hotelauskünfte, Hinweise auf Flugzeugverspätungen, Touristikhinweise und vieles mehr. Diese verschiedenen Daten werden mittels Packet-Mux zu einer Einheit zusammengeschlossen. Audio- und PAD-Datenstrom werden nach ihrer Encodierung ergänzt durch eine Fehlerkorrektur.

DAB Multiplexer von Rohde & Schwarz

Die MUSICAM-Technik bietet die Möglichkeit aus Audio- und Dateninformationen einen Datenstrom zu bilden. Sie beinhaltet hierzu einen sogenannten MSC-Multiplexer. MSC steht für Main Service Channel. Er verschachtelt die Daten, die der Anwender später zu Gesicht bzw. zu Gehör bekommt, in einen Datenstrom, im Fachjargon als "ensemble transport interface" (ETI) bezeichnet.


 

Auf den MSC-Multiplexer folgt der Transmission-Multiplexer. Dieser fasst Programme mehrerer Radiostationen zusammen und fügt Informations- und Steuerdaten hinzu. Diese Daten werden als FIC (Fast Information Channel) bezeichnet und beschreiben die Zusammensetzung des Senderblocks. Die Netzwerkbetreiber haben dabei große Freiheiten bei der Zusammenstellung. Wie oben bereits erwähnt lassen sich in einen Senderblock maximal 6 hochqualitative oder 20 Monoprogramme aufnehmen. Durch Kombination der einzelnen Hörfunksendungen kann die Übertragungskapazität optimal ausgenutzt werden.

Ein weiterer zentraler Aspekt der DAB-Übertragung ist das sogenannte COFDM (coded orthogonal frequency division multiplexing). Dieses Übertragungsverfahren zerlegt den eintreffenden Datenstrom in eine Vielzahl von Teilsignalen, die über maximal 1536 unterschiedliche Trägerfrequenzen breitbandig (über 1,5MHz) gleichzeitig übertragen werden.

Dank COFDM besitzt DAB einen entscheidenden Vorteil gegenüber dem schmalbandig übertragenen UKW: es ist wesentlich störsicherer. Da Radiosignale nichts weiter sind als elektromagnetische Wellen, werden sie an Hindernissen (z.B. Berge, Häuser, etc) reflektiert. So entstehen Laufzeitunterschiede, zwischen den einzelnen Signalanteilen bei ihrer Ankunft an der Empfangsantenne. Im analogen UKW-Empfänger bereiten solche zeitversetzten Signale große Probleme bei der Wiedergewinnung des Hörprogramms. Es entstehen leicht Tonaussetzer, Verzerrungen oder Rauschen. DAB dagegen hat dank der digitalen Technik die Möglichkeit zu spät eintreffende Signalpackete im Empfänger wieder zu synchronisieren. Eine optimale Klangqualität ist so gewährleistet.

Auch gegen die Störung durch andere elektromagnetische Wellen, oder Feldestärkeeinbrüche ist DAB gewappnet.Tritt eine Störung auf, so betrifft sie normalerweise nur einen kleinen Anteil des 1,5GHz Frequenzbandes, das das DAB-Signal nutzt. Es gehen zwar Datenanteile verloren, diese können aber durch Interpolation wiedergewonnen werden. Nicht so bei UKW. Da UKW wesentlich schmalbandiger ist, wirken sich Störsignale voll aus. Während bei DAB in aller Regel nur ein kleiner Teil des Übertragungsbandes gestört ist, wird das UKW-Signal unter Umständen vollständig gestört und kann so nicht wiedergegeben werden.

Nun könnte man meinen, dass DAB aufgrund der wesentlich größeren Bandbreite den zur Verfügung stehenden Frequenzbereich schlechter ausnützt als analoges UKW. Gerade das Gegenteil ist jedoch der Fall. Das Problem der UKW-Netze besteht darin, dass räumlich nahe beieinander liegende Sender auf verschiedenen Frequenzen senden müssen. Würden zwei Sender in benachbarten Ortschaften ein Programm auf einer gemeinsamen Trägerfrequenz ausstrahlen, so käme es zu Interferenzerscheinungen aufgrund der unterschiedlichen Wege der elektromagnetischen Wellen zum Empfänger. Daher ist es bei analogem Rundfunk unvermeidbar, dass der gleiche Sender innerhalb eines größeren Landteiles auf verschiedenen Frequenzen zu empfangen ist. Beispielsweise muss ein Verbraucher, der nur einen bestimmten Sender hören möchte, bei einer längeren Autofahrt zwischen verschiedenen Empfangsfrequenzen wechseln. DAB dagegen macht sogenannte Single Frequency Networks (SFN) möglich. Die einzelnen Sender arbeiten im Gleichwellenbetrieb. Benachbarte DAB-Sender senden ein Datenbündel auf gleicher Trägerfrequenz, dabei interferieren die Signale nicht destruktiv, sondern kombinieren. So kann der Hörfunk eines Senders länderübergreifend auf ein und der selben Empfangsfrequenz verbreitet werden. Dies funktioniert allerdings nur, wenn die auszusendenden Datenpackete absolut gleichzeitig an den verschiedenen Transmittern ankommen. Um das in größeren Ländern wirtschaftlich zu gewährleisten greift man auf die Satellitentechnik zurück. Das auszusendende Packet wird zum Satellit geschickt und anschließend auf die einzelnen Sender verteilt. Müssen nur kleinere Gebiete abgedeckt werden, so kann die Verteilung auch mittels Glasfasernetzen oder Richtfunkübertragung stattfinden. Dank des Gleichwellenbetriebes ist die Ausnutzung des Frequenzbereichs durch DAB-Sendenetze heute drei mal so hoch, wie die ihrer analogen UKW-Pendanten. Auch die zur Verfügung stehende elektrische Sendeleistung der Antennen wird dank der hohen Empfindlichkeit der DAB-Reciever besser genutzt.

Allerdings kann ein gewöhnlicher UKW-Radio kein DAB empfangen. Wäre er auf eine Empfangsfrequenz eingestellt, auf der ein DAB-Kanal liegt, so würde der Zuhörer nur ein Rauschen vernehmen. Das liegt daran, dass die Audio- und Dateninformationen bei DAB als digitale Datenpackete in Form von 0-1-Informationen versendet werden. Diese müssen vom Empfänger wieder decodiert werden, wozu ein analoger Radio nicht imstande ist.

Ablauf der Decodierung im DAB-Reciever


Zur Decodierung des DAB-Signals wird wie schon bei der Encodierung vor der Ausstrahlung sehr hoher technischer Aufwand getrieben. Wie im Bild zu sehen, müssen die Schritte, die vor der Transmission vollzogen wurden, wieder rückgängig gemacht werden. Zunächst werden die durch COFDM enstandenen einzelnen kleinen Signalhäppchen, die auf verschiedenen Trägerfrequenzen angekommen sind, wieder zu einer Einheit zusammengesetzt (COFDM-Demodulator), der FIC wird zur Steuerung zurückgewonnen und das Multiplexing wird umgekehrt. Die Audiodaten werden von den Informationsdaten getrennt (Channel-Decoder). Da die Übertragung sicher nicht absolut fehlerfrei gelungen ist, sorgt ein sogenannter Viterbi-Decoder auf elektronischem Weg für eine Wiederherstellung des Originalsignals. Alle Musikinformationen werden anschließend wieder als Stereosignal aufbereitet und verlassen zur Wiedergabe den Reciever. Die Informationsdaten im Datenkanal werden durch den Packet-Demux wieder in die Einzelservices (Verkehrshinweise, Touristikinfos, etc) zerlegt und sofern gewünscht auf dem Display des Recievers angezeigt.

Das digitale Fernsehen - DVB

Wie auch das analoge Radio soll das bisherige Fernsehen bis spätestens 2010 vollständig digitalisiert sein. Dieses neue Fernsehen wird derzeit unter dem Fachbegriff DVB (Digital Video Broadcasting) auf dem Markt eingeführt. Je nach Übertragungsart unterscheidet man DVB-C (Übertragen im Kabelnetz - C steht für Cable), DVB-S (Übertragen über Satellit) sowie das erdgebundene DVB-T (T = terrestrial). DVB-T läuft derzeit allerdings erst in der Testphase. Diverse Bundesländer führen Pilotprojekte durch. Wie DAB wird DVB-T in Zukunft ohne Satellitenreciever oder Kabelanschluss zu empfangen sein. Man kann dabei von einem Senderumfang von maximal 25 Einzelprogrammen in DVB-T versorgten Ballungsräumen ausgehen, wobei eine Dachantenne nach den Vorstellungen der Entwickler von DVB-T entfällt. DVB-T wird mittels einer normalen Stabantenne empfangbar sein. In einigen Gebieten wäre unter Umständen sogar ein mobiler Empfang im Auto möglich, flächendeckend ist dieser Service aber nicht geplant.

Aufbereitung von Video- Audio- und Informationsdaten zur Sendung als DVB-Signal
Vor der Ausstrahlung der Video- und Audiodaten müssen diese bei DVB natürlich digitalisiert und wie bei DAB komprimiert werden. Fände keine Komprimierung statt, so wäre die Datenmenge zu hoch, um sie über einen analogen Kanal zu übertragen. Das digitale Basisband (ITU-R 601) umfasst immerhin ein Datenvolumen von 270 Mbit/s an Bilddaten. Diese Datenmenge muss auf etwa ein hundertstel reduziert werden - und das möglichst ohne merkbaren Qualitätsverlust. Nach einer derart effektiven Datenreduktion lassen sich auf einem einzigen analogen Fernsehkanal 6 bis 10 digitale Fernsehsender unterbringen. Diese digitalen Sender werden als Senderpackete zusammengefasst ausgestrahlt. Da die Menge der benötigten Daten je nach Sendeprogramm variiert (Sportsendungen mit schnellen Bewegungen 6-9 MBit/s, Spiel- und Zeichentrickfilme nur 1,5-3MBit/s), lässt sich die verfügbare Kapazität durch geschickte Kombination der Einzelsendungen innerhalb eines Packetes optimal ausnützen.

Zur Komprimierung des digitalen Fernsehbildes wird heute durchgehend die Mpeg-2-Technik verwendet. Wenn man sich näher damit befassen will, wie Mpeg-2 die Informationen reduziert, muss man sich zunächst klarmachen, welche Daten denn überhaupt weggerechnet werden können. Beim heutigen analogen TV werden eigentlich viel zu viele Daten übertragen. Beispielsweise können beim digitalen Fernsehen die horizontale und vertikale Austastlücke entfallen, was bereits etwa 25% der Daten einspart, ferner benötigen Chrominanzinformationen weniger Bandbreite, genauso wie sich bewegende Bildanteile. Das menschliche Auge ist so gebaut, dassgeringe Änderungen in der Farbe nicht so stark auffallen, wie plötzliche Helligkeitsänderungen, was einen weiteren möglichen Ansatz zur Datenreduktion bietet. Geringe Abweichung der Farbnuancen fällt also nicht auf - dann können sie auch komplett herausgerechnet werden. Ein weiterer wichtiger Aspekt der Komprimierung von Videodaten ist die Tatsache, dass sich große Teile in aufeinanderfolgenden Fernsehbildern wiederholen. Diese Anteile müssen nicht mehrfach abgespeichert werden. Auf diesen Ansätzen beruht Mpeg-2.

Mpeg-2 bedient sich eigentlich einer recht simplen Taktik zur Bildkompression. Das PAL-Fernsehbild besteht aus 50 Halbbildern bzw. 25 Vollbildern pro Sekunde. Diese Bilder müssen zunächst digitalisiert werden. Hierzu verwendet man das PCM-Verfahren (Pulse Code Modulation). Der Luminazanteil des Bildes wird hier mit 10(8) Bit und einer Taktrate von 13,5MHz, der Chrominanzanteil mit 10(8) Bit und einer Taktrate von 6,75MHz in die digitale Welt übersetzt. Neben PCM ist auch eine Analog-Digital Wandlung mit DPCM (Differential PCM) möglich, was die Datenmenge etwas verringert. Eine Komprimierung liefert allerdings weder PCM noch DPCM. Nach der Digitalisierung der Bilder liegt bei PCM ein Datenstrang von den oben bereits erwähnten 270Mbit/s vor.
Diese Datenrate muss nun verringert werden und da kommt Mpeg-2 ins Spiel. Die Mpeg-2 Komprimierung teilt die Bilder bei DVB in Abfolgen von 12 Einzelbildern, sogenannten Frames, und sieht sich das erste Bild an. Dessen Inhalt wird mittels Jpeg (bekannt auch als Komprimierungstechnik für feststehende Grafiken im Computerbereich) datenreduziert gesichert. Frames, die auf diese Art gespeichert werden (also jedes zwölfte Bild) werden auch als I-Picture bezeichnet. Die Datenreduzierung ist bei diesen Bildern relativ gering, da der gesamte Bildinhalt gesichert werden muss. Ein I-Picture benötigt immerhin noch einen Speicherplatz von etwa 100 Kilobyte. Jedes I-Picture durchläuft bei Mpeg noch einen weiteren Arbeitsschritt: das Bild wird schachbrettartig in kleine Kästchen zerlegt. Jedes dieser Kästchen, auch Block genannt, umfasst einen Bildbereich von 8 x 8 Pixeln. Die einzelnen Blöcke werden zur Erleichterung der Weiterverarbeitung mittels Discrete Cosine Transformation (DCT) vom Zeit- in den Frequenzbereich transformiert und dienen als Referenz für die Betrachtung der nächsten Bilder.

Bildverarbeitung von Mpeg-2

Auf unser I-Picture (im Bild I0) folgen 11 weitere Einzelbilder, bevor wieder ein I-Picture an der Reihe ist (I12). Diese elf Bilder werden nochmals in B- und P-Pictures unterteilt. Das P-Picture P3 entsteht durch Vergleich der Referenz-Einzelbildblöcke des vorhergehenden I-Pictures (hier I0). Haben sich Bildanteile überhaupt nicht vom Fleck bewegt und sind auch sonst identisch mit denen des I-Pictures, so müssen die Blöcke, aus denen diese Bildanteile bestehen nicht erneut abgespeichert werden - schließlich liegen die Informationen bereits im I-Picture vor. Es können sich auch einzelne Bildbereiche über die Bildfläche bewegt, aber dabei ihr Aussehen nicht verändert haben. In diesem Fall muss lediglich der neue Aufenthaltsort der Einzelkästchen gesichert werden. Deren Aussehen ist wiederum im I-Picture vorhanden. Die einzigen wirklich neuen Daten fallen in den Teilen des Videobildes an, die sich komplett geändert haben. Durch den Vergleich mit dem vorhergehenden I-Picture lässt sich bei der Generierung von P3 bereits eine große Datenmenge einsparen. Der Speicherbedarf von P-Pictures ist nur knapp halb so groß wie der von I-Bildern. Auf gleiche Weise werden auch P6 und P9 generiert, nur mit dem Unterschied, dass hier jeweils das vorhergehende P-Picture als Referenz dient.

Die meißten Daten lassen sich bei den B-Pictures einsparen. Das liegt daran, dass hier quasi zwei Referenzobjekte vorliegen: das vorhergehende I- bzw. P-Picture, sowie das nachfolgende I- bzw. P-Picture. Dieser Vorwärts- und Rückwärtsvergleich (auch als bidirektionale Prädiktion bezeichnet) ermöglicht eine optimale Datenreduktion. Sind die Bildveränderungen zwischen den einzelnen P-Bildern bereits sehr gering, so müssen in den B-Bildern fast keine Daten mehr gesichert werden, da schlicht und ergreifend keine Veränderungen mehr im Bild stattfinden. Ein B-Picture benötigt so nur etwa 10 Kilobyte an Speicher.

Ergänzend zu Mpeg-2 ist noch zu sagen, dass die oben im Bild gezeigte Anordnung der Einzelbilder nicht für jede Mpeg-2 Anwendung verbindlich so aussehen muss. Obiges Beispiel gilt für DVB-Anwendungen. Allgemein sind zum reibungsfreien Ablauf der Mpeg-2 Encodierung eine bestimmte Anzahl an Basisbildern (Base Layer) nötig. Läge die Anzahl der Einzelframes darunter, so wären hohe Qualitätsverluste zu erwarten. Die Anzahl der Base Layer kann ergänzend durch sogenannte Enhancementlayer aufgestockt werden, was die Qualität verbessert. Diese Enhancementlayer können als B- oder P-Pictures ausgeführt werden, je nach gewünschter Videoqualität.

Genau wie die Videoinformationen müssen auch Audiosignale zunächst digitalisiert und anschließend datenreduziert werden. Die Audiokomprimierung kann wie bei DAB mittels Mpeg 1 Audio-Layer II erfolgen. Manche Sender, beispielsweise Pro7, strahlen Kinohits über Satellit mittlerweile auch mit dem von den Dolby Laborathories entwickelten Dolby Digital-System aus. Der hier zu Grunde liegende Algorithmus zur Datenreduktion ist unter der Bezeichnung AC-3 (Audio Codec 3) bekannt und ermöglicht auch die Übertragung von mehreren Tonkanälen. Über AC-3 liefert der DVB-Reciever, passendes 6-kanaliges Sendeprogramm vorausgesetzt, neues Futter für die heimische Surroundanlage. Diesen Vorteil bietet auch Mpeg-2 Audio, das ebenfalls als Tonformat bei DVB im Gespräch ist. Die Datenrate beträgt bei Komprimierung unter Berücksichtigung guter Audioqualität für beide Verfahren ca 64 bis 384kBit/s. Der Hauptunterschied zwischen beiden Techniken liegt darin, dass die Datenrate bei Mpeg-2 variabel ist, während sie bei AC-3 grundsätzlich einen festen Wert aufweist. Welches der beiden Systeme sich auf Dauer durchsetzen wird, ist bisher noch ungewiss.

Nach der Digitalisierung und Komprimierung der Video- bzw. Audiodaten folgt das Shuffling bzw. Spreizen dieser Daten. Darunter versteht man eine Umverteilung der Audio- bzw. Videodaten mit dem Ziel, dass unter Umständen auftretende Störungen subjektiv nicht so sehr ins Gewicht fallen. Um die Betriebssicherheit noch weiter zu erhöhen, folgt bei beiden Datentypen ein Fehlerschutz (Reed Solomon Schutzcode).

Zusätzlich zu Audio- und Videodaten können mittels DVB genau wie bei DAB Informationen versendet werden. Als Beispiele sollen hier ein deutlich verbesserter Videotext, Internetanwendungen sowie interaktiver Einbezug des Zuschauers in eine TV-Sendung genannt werden.

In der nächsten Stufe werden die drei Datenbereiche mittels Multiplexer ineinander verschachtelt und mittels einer Parallel-Serien-Wandlung in ein einzelnes Datensignal überführt. Ein DVB Transportpacket umfasst dabei eine Länge von 204 Bytes. Dieses Packet besteht zu 187 Byte aus der eigentlichen zu übertragenden Information, ein Byte dient der Synchronisation und die restlichen 16 Byte belegt der Reed Solomon Schutzcode. Letzterer sorgt für die Korrektur von bis zu acht fehlerhaften Bytes innerhalb des Datenpackets. Dieses kann bei DVB-C und DVB-S direkt versendet werden. Bei DVB-T erfolgt zusätzlich eine Zerlegung des Signalstromes mittels COFDM in kleine Signalanteile. Die Signalstücke werden anschließend einzeln auf Trägerfrequenzen aufmoduliert. Der Unterschied zu DAB besteht in der Anzahl der Einzelsignalteile. Während bei DAB maximal 1536 Trägerfrequenzen verwendet werden, unterscheidet man bei DVB-T zwei Modi, den 2k-Modus (1705 Träger) und den 8k-Modus (6817 Träger). Auch bei DVB-T wird durch COFDM ein sicherer Mehrwegempfanggewährleistet, sowie der Aufbau eines Gleichwellennetzes ermöglicht.

Die Technik der digitalen Rundfunkübertragung ist heute in weiten Teilen erprobt. Auch existiert die Technik schon eine ganze Weile, weshalb es verwundert, dass das digitale Fernsehen zumindest in Europa noch immer ein Nischenprodukt ist. Es liegt wohl weniger an mangelnden Empfangsmöglichkeiten. Über Satellit ist DVB schon seit einiger Zeit problemlos zu empfangen und bald auch direkt über eine Stabantenne. Der Hauptgrund liegt wohl eher darin, dass die meißten Endverbraucher digitales TV mit Pay-TV verwechseln und hohe Kosten durch die Nutzung befürchten. Dies trifft allerdings nicht zu. Zwar bieten einige Sender ihr digitales Programm nur gegen Aufpreis an, es existieren aber auch genügend "freie" Anbieter. Ein preisliches Gegenargument könnte also höchstens in der Anschaffung der D-Box, dem nötigen DVB-Reciever, gesehen werden. Doch auch dieses Gegenargument wird in der nächsten Zeit seine Berechtigung verlieren. Die Hersteller der Unterhaltungselektronik wollen zunehmend Fernseher mit eingebautem DVB-Empfänger anbieten. Stärkend sollen Werbekampagnen der neuen Technik unter die Arme greifen. Auf diese Weise soll auch in Europa digitales Fernsehen schon bald zum Alltag werden.