Format FAQ

Einige Infos über Begriffe, Codec und Formate

 

AAC: [Advanced Audio Coding]
AC3:[Audio Coding 3]
ASF: [Advanced Streaming Format
Cinepack:
Codec: [CoDec = Compressor Decompressor]
CSS: [Content Scambling System
Demultiplexen
DirectX
DivX;-)
DivX
Dolby Digital/AC3: [Dolby Digital]
DTS: [Digital Theater Systems]
DVD: [Digital Versatile Disk]
Encoden
FourCC: [Four Character Code]
FPS: [Frames Per Second]
Ifo-File: [Information File]
Interlaced
Interleave
Keyframe
MIDI: [Musical Instrument Digital Interface]
MPEG: [Motion Pictures Expert Group]
MPEG-1
MPEG-2
MPEG-2 Audio oder MP2
MPEG-1 Layer 3 oder MP3
MPEG-4
Multi Pass Encoding
Multiplexing
Normalizing: [Normalisieren]
NTSC
OGG
PAL
PCM: [Pulse Code Modulation]
Progressiv
Quicktime
RGB: [Rot, Grün, Blau]
Rippen
Steaming Video
SVCD: [Super Video Compact Disc]
S-Video: [Super-Video] (TV-Geraet)
VBR:[Varialbe BitRate]
VCD: [Video Compact Disc]
VOB Files
WMV: [Windows Media Video]
WAV: [Waveform Audio]

Xvid


 

A

AAC: [Advanced Audio Coding]
Advanced Audio Coding wird der Nachfolger von AC3 Audio sein. Es basiert auf AC3 und verbessert dieses auf vielen Gebieten. Zur Zeit (2003) ist die Player- und Hardware-Unterstützung für dieses kommende Audioformat immer noch sehr begrenzt.
http://www.aac-audio.com/

AC3: [Audio Coding 3]
Ursprünglich bekannt unter dem Namen Audio Coding 3 ist AC3 heutzutage ein Synonym für Dolby Digital. Dolby Digital ist eine fortschrittliche Audiokompressionstechnologie, die es erlaubt, bis zu 6 getrennte Kanäle bei Bitraten bis zu 448kbit/s zu enkodieren.
http://www.dolby.com/

ASF: [Advanced Streaming Format
Advanced Streaming Format. Microsoft's Antwort auf Real Media und Streaming Formaten allgemein.

zurück zum Anfang

C

Cinepack:
Der Cinepak-Codec von SuperMac ist stark an das JPEG-Format angelehnt. Cinepak benutzt ein asymmetrisches Verfahren, so dass zum Komprimieren der Videodaten wesentlich mehr Rechenzeit erforderlich ist als zum Abspielen (bis zu Faktor 60). Die Kompressionsrate liegt bei etwa 10:1. Die Meinungen über die Qualität des komprimierten Videomaterials sind geteilt; sie ist aber in etwa vergleichbar mit der des Indeo-Codecs.
 

Codec: [CoDec = Compressor Decompressor]
Compressor / decompressor ist eine Software- oder Hardwarekomponente, die Video- und Audiodaten komprimiert, innerhalb von Formaten wie MPG und AVI gibt es Unterformate, die z.B. dafür sorgen, dass der Film weniger Platz benötigt. Sowohl für den Videoanteil als auch für die Audiospuren eines Films lassen sich daher für jede Datei verschiedene Codecs festlegen, im Fall von Video-CD der MPEG-1-Codec. Die Daten werden während der Wiedergabe wieder dekomprimiert.

CSS: [Content Scambling System]

Kommerzielle DVD-Videos werden mit drei Mechanismen gegen Kopien geschützt: Content Scambling System (CSS) zum allgeimeinen DVD-Schutz, Signale gegen digitale Duplizierung sowie Macrovision, ein Störsignalfeuer zum Verhindern von Kopien auf analoges VHS-Band.

Den umfassendsten Schutz soll CSS bieten. Das System will verhindern, dass 'unbefugte' Abspielsoftware an die digitalen Daten der Scheibe geraten. Die Video DVD gibt ihre Inhalte daher erst preis, nachdem sich der Player legitimiert hat. Zur Wiedergabe der DVD tauschen DVD und Player mehrere Schlüssel zur Dekodierung des Video Materials aus. Mittlerweile bestehen allerdings mehrere Methoden um CSS auszuhebeln, unter anderem mit Programmen wie DeCSS: Es kopiert geschützte Videos mit Hilfe eines echten Player-Schlüssels auf die Festplatte - dieser stammt aus einem Software-DVD-Decoder.
Die restlichen Schutzmechanismen sollen die vom Player ausgegebenen Video- und Audiodateien vor dem Kopieren schützen, insbesondere vor digitalen Videorecordern. Hierfür legt ein Signal im Videodatenstrom fest, ob und wenn ja, wie oft die DVD kopiert werden darf. Die analoge Lösung heißt Copy Generation Management System und wird im Videodatenstrom, transportiert.
Weit verbreitet ist auch Macrovision; hierbei handelt es sich im Wesentlichen um das bereits von Videokasetten bekannte Kopierschtuzverfahren. Im Unterscheid zur VHS-Implementierung besteht die Macrovision-Implementierung bei DVD-Videos aber nur aus einem Bit im Datenstrom. Heim-DVD-Player geben das Bild nur am Fernseher korrekt aus, schließt man den Player an einem Videorecorder an, zeichnet dieser aufgrund manipulierter Bildsignale ein flackerndes und mti Störstreifen verunstaltetes Bild auf. Ein PC-DVD-Player verweigert die Ausgabe über einen nicht per Macrovision-Chip geschützen TV-Ausgang meist komplett.

zurück zum Anfang

D

Demultiplexen:
Das Gegenteil von Multiplexing. Bei diesem Prozess wird ein kombinierter Audio/Video-Stream (Stream = Datenstrom) in die Anzahl der Basisstreams zerlegt, aus der er besteht (1 Videostream, mindestens 1 Audiostream und 1 Navigationsstream). Jeder VOB Encoder demultiplext die VOB Dateien vor dem Encoden (FlaskMpeg, mpeg2avi, dvd2mpg, ReMpeg2, etc) und jeder DVD Player tut dasselbe (Audio und Video werden von anderen Schaltkreisen behandelt oder auf dem PC von verschiedenen Filtern dekodiert).

DirectX:

Windows-Erweiterung und neuester Standard zur Darstellungsverbesserung von 3D-Effekten und Klängen. Neue Spiele benötigen meist den DirectX-Standard.
http://www.microsoft.com/directx/

DivX;-)

DivX;-) oder auch divX 3.11 ist die gehackte Variante von Microsofts MPEG-4. Die Verwendung von Microsoft Codec muss lizensiert werden, daher haben Hacker ihren eigenen Codec entwickelt.

DivX:

Nicht zu verwechseln mit den glücklicherweise nun toten DIVX (DIgital Video eXpress) System, das Circuit City anno 98 eingeführt hat. Heutzutage gibt es zwei Arten von DivX: Divx ;-) ist der Name des gehackten Microsoft MPEG4 Codecs (Windows MEdia Video V3). Diese Codecs wurden von Microsoft entwickelt, um in der proprietären Windows Media Architektur verwendet zu werden und unterstützte anfangs die sowohl AVI und ASF. Alle nicht-beta Versionen beinhalteten jedoch eine AVI-Sperre, die die Enkodierung in AVI unmöglich macht - und nur wenige Tools unterstützen ASF. Die Schöpfer von DivX ;-) entfernten nun diese AVI-Sperre, sodass man wieder in AVI enkodieren konnte und änderten den Namen in DivX Video, um Konfusion bei den Codecs zu vermeiden, denn es ist möglich sowohl den ungehackten als auch den gehackten Codec auf demselben Computer zu haben, wenn man den Windows Media Encoder benutzt. "DivX Audio" ist ein gehackter Windows Media Audio Codec - der Hack ist allerdings nicht perfekt und erlaubt nur niedrige Bitraten. Dieser Codec ist auch als DivX3 bekannt.
Das andere DivX ist ein neuer MPEG-4 Video Codec, der von DivXNetworks entwickelt wurde. Er bietet viel fortschrittlichere Enkodierungs-Einstellungen und Enkodierung in zwei Durchgängen (2 Pass) an. Weiterhin können neue Funktionen wie die "psychovisual Enhancements" aktiviert werden, die vom Auge kaum wahrgenommene Details entfernen und so die Komprimierbarkeit erhöhen. Auch "GMC" (Global Motion Compensation) und Quarter Pixel kamen hinzu, wobei nur GMC momentan (DivX5.02) zu empfehlen ist.
http://www.divx.com

Dolby Digital/AC3: [Dolby Digital]
Dolby Digital, auch bekannt unter dem Kürzel AC-3, ist ein Audio Codierungsverfahren, welches die Datenmenge die zur Reproduktion qualitativ hochwertiger Audiodaten erforderlich ist, reduziert. Dolby Digital stellt 5 Kanäle voller Bandbreite zur Verfügung (left front, right front, center, left surround, right surround). Zusätzlich steht ein Tieffrequenzkanal (LFE - Low Frequency Effect) zur Verügung. Der LFE-Kanal umfasst nur ein zehntel der Bandbreite der anderen Kanäle.

DTS: [Digital Theater Systems]
Entwickelt von Digital Theater Systems, ist DTS ein Mehrkanal Audio Format ähnlich Dolby Digital. Ausser in Kinos, wo die DTS Tonspuren von einer CD abgespielt und mit dem Film synchronisiert werden, findet man dieses Format eigentlich nur auf Video DVDs.
http://www.dtsonline.com/

DVD: [Digital Versatile Disk]
Die DVD (Digital Versatile Disk) ist ein optisches Speichermedium ähnlich der CD. Die Kapazität beträgt zwischen 4.7 und 18 Gigabyte. Als DVD-Video ist sie für die Verbreitung hochqualitativer Videos konzipiert. Auf DVD's gespeicherte Videos sind immer nach dem MPEG-2-Standard komprimiert, während die Audiodaten entweder im Dolby Digital, im MPEG-2 Audio oder im DTS Format vorliegen.

zurück zum Anfang

E

Encoden:
Beim Encoden konvertiert ein Programm einen Videofilm mit Hilfe eines Codecs in ein anderes Format, z.B. von AVI zu MPEG1.

zurück zum Anfang

F

FourCC: [Four Character Code]
FourCC steht für Four Character Code und ist ein Code, der ein Video Data Stream Format eindeutig identifiziert. Ein MediaPlayer liest den FourCC aus und sucht dann nach dem Codec, der mit dem FourCC Code verbunden ist, um einen bestimmten Video Stream abzuspielen. Ein paar Beispiele: DIV3 = DivX Low-Motion, DIV4 = DivX Fast-Motion, DIVX = DivX4. Den FourCC Code kann man auch ändern, falls man bei einer Datei generell einen anderen Codec verwenden möchte. Ein Tool dazu findet sich in den Downloads.
http://www.inmatrix.com/

FPS: [Frames Per Second]
Mit FPS oder fps bezeichnet man die Anzahl Frames Per Second oder auf Deutsch: die Anzahl Bilder pro Sekunden. Europaeischer Standard ist 25fps.

zurück zum Anfang

I

Ifo-File: [Information File]
InFOrmation File, die man gewöhnlich auf DVDs findet. Solche Dateien enthalten Navigationsinformationen für DVD Player.

Interlaced:
Interlaced ist eine Art der Videoaufzeichnung. Ein interlaced Video Stream enthält keine Frames (Einzelbilder wie wir sie kennen), sondern Fields, wobei jedes Feld die Hälfte der Zeilen eines Frames enthält (alle geraden oder alle ungeraden Zeilen).

Interleave:
Audio- und Videodaten werden während der Komprimierung auf bestimmte Weise angeordnet, um gleichmässigere Wiedergabe und Synchronisierung zu erhalten.

zurück zum Anfang

K

Keyframe:
Ein kompletter Frame, aber stark komprimiert.

zurück zum Anfang

M

MIDI: [Musical Instrument Digital Interface]
"Musical Instrument Digital Interface" (MIDI) ist ein Standard für die digitale Klangerzeugung. Er normt sowohl den MIDI-Port, eine serielle Schnittstelle, als auch die Übertragung von Audio-Daten zwischen MIDI-fähigen Geräten und die digitale Kodierung von Klangereignissen.

Über den MIDI-Port können Computer, Synthesizer, Sequenzer, Sampler, Mischpulte und digitale Musikinstrumente miteinander verbunden werden. MIDI-Geräte können zur Erzeugung, Aufzeichnung und Wiedergabe von Musik verwendet werden. Bis zu 16 Geräte können gleichzeitig zentral von einem Computer gesteuert werden. Zudem können zum Beispiel die Töne, die ein Sampler wiedergibt, auch auf der Tastatur eines Synthesizers abgerufen werden. Der MIDI-Port, eine serielle Schnittstelle, ermöglicht eine Daten- Übertragungsgeschwindigkeit von 32.000 Bit pro Sekunde ( bps).

MIDI legt auch Standards für die Kodierung von Klangereignissen wie die Höhe eines Tons, seinen Anschlag (Pitch), seine Länge und seine Lautstärke sowie musikalische Attribute (wie z.B. vibrato, tremolo, glissando) fest. Diese Sound-Charakteristika werden digital (als Byte; mit einer Breite von acht Bit) zwischen den MIDI-Geräten übertragen.

Zwischen den miteinander vernetzten Geräten werden zwei verschiedene Arten von MIDI-Daten ausgetauscht; nämlich Systemnachrichten, die zum Beispiel zur Synchronisation aller Geräte dienen, und Kanalnachrichten, die jeweils nur ein bestimmtes Gerät anweisen, zum Beispiel einen bestimmten Ton in einer bestimmten Lautstärke für eine bestimmte Dauer zu spielen. Über MIDI-Befehle können mehrere Synthesizer orchestriert werden, die jeweils eine Stimme der Partitur spielen. MIDI eröffnet auch die Möglichkeit, die Töne, die ein Synthesizer generiert, auf der Tastatur eines anderen Synthesizers zu spielen.

MPEG: [Motion Pictures Expert Group]
"Motion Pictures Expert Group". Die MPEG ist ein internationales Komitee, das die einheitliche Datenkomprimierung für Bild und Ton regelt. Als Bildkomprimierungsverfahren kommen z.B. bei einer DVD MPEG-2 und bei einer Video-CD MPEG-1 zum Einsatz. Als Audiodatenreduktionsverfahren wird auf DVDs MPEG-2 Audio verwandt, ebenso wie AC-3 und DTS. AC-3 und DTS sind keine MPEG-Verfahren.
http://www.mpeg.org/

MPEG-1:
Was JPEG für Standbilder ist, ist MPEG für Bewegtbild-Komprimierung. MPEG arbeitet asymmetrisch. Die Komprimierung erfordert viel Aufwand und Zeit. Es ist daher zur Echtzeitdigitalisierung von Video nur bedingt geeignet. Allerdings gibt es inzwischen auch Software-Decoder, die bis zu einer Größe von 320 x 240 Bildpunkten eine Echtzeitdigitalisierung schaffen. MPEG erzeugt zunächst JPEG-komprimierte Einzelbilder (sog. I-Frames), berechnet dann die P- und B-Frames und speichert lediglich die Änderungen zwischen ihnen und den I-Frames ab. Der Kompressionsfaktor bei MPEG-1 liegt bei etwa 40:1. Damit ist auf Basis eines CD-ROM-Laufwerks (Single Speed) eine Auflösung von 352x288 und eine Bildwiederholrate von 25 Bildern/s möglich. MPEG-1 findet heute noch auf Video-CDs Verwendung.

MPEG 1 arbeitet mit drei verschiedenen Bildarten:
I-Frames (Intra Pictures)
Die I-Frames werden wie ein normales Bild im JPEG-Format abgespeichert (Blockzerlegung, DCT, Quantisierung, Lauflängen-Codierung, Huffman-Codierung).
P-Frames (Predicted Pictures)
Bezugnehmend auf das letzte vorhergehende I- oder P-Bild erfolgt die Codierung der P-Bilder. Bei der Decodierung wird aufgrund des vorherigen I- oder P-Bildes und den Informationen des aktuellen P-Bildes das neue Bild sozusagen "vorhergesagt".
B-Frames (Bidiretional Pictures)
Im Unterschied zu dem P-Bilder beziehen sich die B-Bilder nicht nur auf vorherige, sondern auch auf alle nachfolgende Bilder. Mit anderen Worten: In einem B-Bild ist die Differenz zwischen dem vorhergehenden und dem nachfolgenden Bild gespeichert. Dadurch kann man eine weitere Komprimierung erzielen und das Rauschen zwischen zwei Bildern vermindern.

MPEG-2:
MPEG 2 findet Verwendung auf Video DVDs und Super Video CDs. Die zur Kompression benutzten Verfahren sind im Prinzip dieselben wie bei MPEG-1. Anstatt jedoch 8 x 8 Pixelblöcke zu verwenden, werden 10 x 10 Pixelblöcke benutzt. Die Anzahl der Koeffizienten verdoppelt sich dabei und die Qualität steigt. Im Gegensatz zu MPEG-1 garantiert MPEG-2 nicht nur bei einer Auflösung volle Kompatibilität, sondern bei gleich bei vier verschiedenen Auflösungen: Low (352 x 240). Main (720 x 480), High 1440 (1440 x 1152) und High (1920 x 1080). Dadurch ergeben sich Datenraten zwischen 1,5 und 15 MBit/sec.

MPEG-2 Audio oder MP2:
Ein von der "Motion Picture Experts Group" entwickeltes Mehrtonverfahren zur Speicherung von bis zu sieben Tonkanälen inklusive einem Tiefbasskanal (6+1). Das MPEG-2-Audio-Verfahren findet derzeit nur auf der DVD Verwendung, soll aber später auch im digitalen Fernsehen verwendet werden.

MPEG-1 Layer 3 oder MP3:
MPEG-1 Layer 3 (kurz: mp3) ist ein Kompressionsverfahren für Audio-Dateien, das ursprünglich vom Fraunhofer-Institut entwickelt worden ist. MP3 basiert auf dem MPEG1-Standard und ist zur möglichst verlustfreien Wiedergabe von Musikstücken gedacht. Die hohe Kompressionsrate von durchschnittlich 1/12 bei fast unhörbarem Qualitätsverlust erlaubt es große Mengen an Audiodaten zu speichern und auch über Netzwerke zu verteilen.

MPEG-4:
MPEG-4 ist ein von Microsoft entwickelter Standard der es erstmals erlaubte Videos in DVD-Qualität ohne signifikante Qualitätsverluste so weit zu komprimieren, dass sie über das Internet verbreitet werden konnten. Eine 5GB grosses Video von einer DVD kann mit MPEG-4 beispielsweise auf 650 MB komprimiert werden, und das bei subjektiv gleichbleibender Qualität und Auflösung.

Multi Pass Encoding:
Ein Encoder, der Multipass unterstützt, wird in einem ersten Durchgang (Pass) die Source (Quelle, Quellmaterial) analysieren und eine Log-Datei schreiben, wo die Basisdaten des Videostreams enthalten sind. Nehmen wir an, wir haben einen kurzen Clip, der mit einer Dialogszene startet, bei der die Kamera statisch ist. Dann wird übergeleitet zu einem Karatefight mit schnellen Cuts und viel Action (Leute fliegen durch die Luft etc). In regulärem CBR (Constant BitRate) bekommt jede Sekunde gleich viel Bitrate zugeteilt aber in Multipass VBR Mode wird der Encoder die Bitrate nach den Erkenntnissen aus der Analysphase verteilen, d.h. der Dialogpart bekommt weniger Bitrate als der Actionpart. Je mehr Passes der Encoder macht, desto feiner kann diese Aufteilung gemacht werden (während des Encodens wird wieder ne Log geschrieben). Im normalem 1 Pass VBR muss der Encoder seine Entscheidung über die Bitratenzuteilung auf Basis der Bereiche des Videos fällen, die schon kodiert wurden.

Multiplexing:
Normalerweise werden Video und Audio separat codiert. Dann musst du Video und Audio zusammenfügen um einen Film zu erstellen den der Player abspielen kann. Während des Multiplexens wird aus separaten Video und Audio Tracks ein einziger ProgramStream erstellt, der Video und Audio enthält. Video und Audio werden wie zusammengewoben und dazu kommen noch Navigationsinformationen, eventuell Untertitel, etc. Durch diese zusätzlichen Informationen werden z.B. Kapitelmarkierungen und die Synchronisation von Bild und Ton möglich (siehe auch Interleaving).

zurück zum Anfang

N

Normalizing: [Normalisieren]
Bei der Normalisierung wird die Stelle mit der höchsten Lautstärke einer Tonspur gesucht, danach der Rest der Spur auf dasselbe Level angehoben. Dies wird meist auf WAV-Ebene durchgeführt, sodass alle Variablen Integer-Zahlen, worunter die Präzision im Gegensatz zu DRC leidet. Daher ist DRC gegenüber Normalisierung vorzuziehen.

NTSC:
Amerikanischer Standard zur Ausstrahlung von Farbfernseh-Sendungen. Beim NTSC-Standard werden 480 Zeilen übertragen. Die Bildwiederholfrequenz beträgt 29,97 Hz .

zurück zum Anfang

O

OGG:
Ogg, ist ein Open-Source-Projekt für die professionelle Speicherung und Wiedergabe von Multimediadaten. Im Unterschied zu z.B. MP3 ist Ogg (nach Angaben seiner Entwickler) patentfrei und unterliegt einer BSD-artigen Lizenz. Somit ist gewährleistet, dass das Format auch für kommerzielle Programme verwendet werden darf. Bei Ogg handelt es sich um ein Containerformat - das heißt, dass die verschiedensten Inhalte (Audio, Video, Steuerbefehle) in einer Datei gespeichert werden können.

Die Entwicklung begann 1993 unter dem Namen "Squish", der allerdings Markenrechte verletzte und daher durch einen Ausdruck aus dem Computerspiel Netrek ersetzt wurde, der soviel bedeutet wie to ogg: "to do anything forcefully, possibly without consideration of the drain on future resources" (etwa: "etwas sehr energisch angehen, möglicherweise auch ohne Rücksicht auf die negativen Auswirkungen").

Ogg-Vorbis unterstützt bis zu 255 verschiedene Kanäle und bildet innerhalb der ersten 6 Dolby-Digital 5.1 folgendermaßen ab: front left, front center, front right, rear left, rear right, LFE (the sixth channel is entirely bass)
http://www.vorbis.com/

zurück zum Anfang

P

PAL:
Kurzform für "Phase Alternation Line". Standard zur Ausstrahlung von Farbfernseh-Sendungen in vielen westeuropäischen Ländern. Insgesamt werden beim PAL-Standard 625 Zeilen übertragen, aber nur 576 für die Bildinformaionen auf dem Fernsehschirm genutzt. Die restlichen Zeilen enthalten die Bildsynchroninformationen und werden außerdem für die Übertragung von Videotext genutzt. Die Bildwiederholfrequenz beträgt bei PAL 50 Hz (25 Bilder/sec).


PCM: [Pulse Code Modulation]
PCM steht für "Pulse Code Modulation". Unkomprimiertes Wiedergabeformat für Audiosignale. PCM wird seit vielen Jahren auf normalen Audio-CDs benutzt. Normalerweise enthält das PCM-Format zwei Audiospuren, auf denen beim Stereo-Sound der rechte und linke Kanal gespeichert werden.

Progressiv:
Das Gegenteil von interlaced. Ein Video Stream, der nur aus kompletten Frames besteht, heißt progressive.

zurück zum Anfang

Q

Quicktime
Quicktime ist eine von Apple 1991 zunächst für den Macintosh entwickelte Betriebssystemerweiterung. Seit geraumer Zeit ist die Software auch für Microsoft Windows erhältlich. Quicktime ist, wie AVI ein offenes Verfahren, das mit Codecs anderer Anbieter zusammenarbeitet. Es durchsucht den Rechner nach installierten Codecs und wählt den besten für die jeweils abzuspielende Datei aus.
http://www.apple.com/quicktime/

zurück zum Anfang

R

RGB: [Rot, Grün, Blau]
RGB (Rot, Grün, Blau) bezeichnet ein System zur Beschreibung von Farben, welches u.a. für Computermonitore verwendet wird. Rot, grün und blau können anteilig so kombiniert werden, das sich jede für den Menschen sichtbare Farbe ergibt. Die Anteile werden durch Dezimalzahlen von 0 bis 255 dargestellt. Die Anzahl der verfügbaren Farben ergibt sich damit zu 256 x 256 x 256 = 16.777.216.

Rippen:
Beim Rippen werden Videodaten von DVD gelesen, entschlüsselt und auf die Festplatte geschrieben.

zurück zum Anfang

S

Steaming Video
Streaming Video ist eine Sequenz aufeinanderfolgender Bilder, die in komprimierter Form über das Internet gesendet und vom Player des Endanwenders gezeigt werden, sobald sie dort eintreffen. Mit Streaming Video muss der Betrachter nicht mehr warten, bis eine große Videodatei aus dem Internet heruntergeladen ist, stattdessen wird das Video in einem kontinuierlichen Datenstrom (Stream) gesendet und jedes Bild wird dem Betrachter gezeigt, sobald es verfügbar ist. Zur Auswahl stehen mehrere Videoformate, die Streaming Video unterstüzen: RealVideo, QuickTime und Windows Media Video um nur die gängigsten zu nennen.

SVCD: [Super Video Compact Disc]
SVCD steht für 'Super Video Compact Disc' und ist der VCD sehr ähnlich. Die Kapazität einer SVCD beträgt 35-60 Minuten auf 650/700MB CDs, und das bei sehr guter Video Qualität, bis zu 2 Stereo Audio Spuren und 4 ausblendbaren Untertiteln. SVCDs benutzen den MPEG-2 Standard zur Speicherung der Video- und Audio- Daten. Eine SVCD kann auf vielen herkömmlichen DVD-Playern und natürlich auf jedem modernen PC mit CD oder DVD Laufwerk abgespielt werden, die passende Software natürlich vorausgesetzt. Ähnlich einer DVD ist es möglich einer SVCD eine einfache Menüstrukturen mitzugeben.

Die Qualität von SVCDs entspricht etwa der einer SVHS Aufnahme, wenn sie nicht sogar besser ist. Die Bildwiederholrate und -größ muss entweder dem PAL oder dem NTSC Standard entsprechen.

S-Video: [Super-Video] (TV-Geraet)
Ueber den S-Video-Anschluss werden die Farb- und Helligkeitsinformationen eines Bildes getrennt voneinander übertragen, so dass sie sich nicht gegenseitig stören. Dadurch ist die Bildqualität besser, als beim normalen Videosignal, das die Informationen zusammen übermittelt.

zurück zum Anfang

V

VBR:[Varialbe BitRate]
Variable BitRate. Es ist möglich sowohl Video wie auch Audio mit variabler Bitrate aufzuzeichnen, d.h. der Film wird nicht mit einer feste Bitrate (CBR=Constant BitRate) codiert, sondern komplexe Teile bekommen mehr Bitrate, damit sie besser aussehen.

VCD: [Video Compact Disc]
VCD steht für 'Video Compact Disc' und ist praktisch eine CD, die bewegte Bilder und Ton enthält. Wer mit herkömmlichen CDs vertraut ist, der wird wissen, wie eine VCD aussieht. Die Kapazität einer VCD beträgt 74/80 Minuten auf 650/700MB CDs. VCDs benutzen den MPEG-1 Standard zur Speicherung der Video- und Audio- Daten. Eine VCD kann auf fast allen herkömmlichen DVD-Playern und natürlich auf jedem modernen PC mit CD oder DVD Laufwerk abgespielt werden. Ähnlich einer DVD ist es möglich einer VCD eine einfache Menüstruktur mitzugeben.
Die Qualität von VCDs entspricht etwa der einer herkömmlichen VHS Aufnahme. Die Bildwiederholrate und -größ muss entweder dem PAL oder dem NTSC Standard entsprechen.

VOB Files:
Alle DVD Filme sind in sogenannten VOB Dateien gespeichert. VOB Dateien enthalten normalerweise MPEG-2 Video und Dolby Digital Audio. VOB Dateien werden wie folgt benannt: vts_XX_y.vob wo XX für die Titelnummer steht, und Y der Titelteil. Es ist möglich bis zu 99 Titeln und jeweils 10 Teilen zu haben, wobei die vts_XX_0.vob das Menu enthalten, also bleiben 9 weitere für den Titel. Es gibt 2 Wege rauszufinden welcher Titel den Hauptfilm enthält: Spiel den Film in einem Player ab und schau die LED / Status Fenster des Players an, wo normalerweise angezeigt wird, welcher Titel momentan abgespielt wird. Der andere Weg: Der Hauptfilm befindet sich in der größten Anzahl zusammenhängend numerierter VOB Dateien. Z.B. vts_05_1.vob, vts_05_2.vob, ... , vts_05_8.vob (ich habe bisher keine Filme mit 9 VOBs für den Hauptfilm gesehen).

zurück zum Anfang

W

WMV: [Windows Media Video]
Windows Media Video. Microsoft Weiterentwicklung ihres eigenen MPEG-4 Codecs. Der einzige Unterschied zum Vorgänger ist, dass jetzt Streaming möglich ist.
http://www.microsoft.com/windows/windowsmedia/

WAV: [Waveform Audio]
WAV (Waveform Audio) ist das native Format für digitale Audiodaten unter Windows. WAV Dateien unterstützen diverse Formate: 8 oder 16 Bit Samples bei Sampling Raten von 11025Hz, 22050Hz oder 44100Hz. Der benötige Speicherplatz beträgt bei höchster Qualität 88KB/s.

zurück zum Anfang

X

XviD:
XviD ist ein Wortspiel. Lies es rückwärts und du könntest ein bekanntes Wort erkennen. XviD ist ein Open Source MPEG-4 Codec, der z.T. sogar eine höhere Bildqualität als der beste DivX Codec bietet (das liegt jedoch im Auge des Betrachters).
http://www.xvid.org/

zurück zum Anfang