MENÜ English Ukrainian Russisch Startseite

Kostenlose technische Bibliothek für Bastler und Profis Kostenlose technische Bibliothek


MPEG-2 und nichtlineare Videobearbeitung. Einfach nur komplex

Videokunst

Verzeichnis / Videokunst

Kommentare zum Artikel Kommentare zum Artikel

Unter Fachleuten in der Videowelt ist in letzter Zeit immer häufiger von der MPEG-2-Kodierung die Rede. Die Aufmerksamkeit dafür wächst heute fast schneller als die tatsächliche Ausweitung des Anwendungsbereichs seiner praktischen Anwendung. Sind wir tatsächlich an einem effektiven Komprimierungsalgorithmus für die nichtlineare Bearbeitung und Videoproduktion interessiert, denken wir darüber nach, unsere eigenen DVD-Filme oder digitalen Videoarchive zu erstellen, analysieren wir die Prinzipien der Betacam SX-Aufzeichnung oder Datenspeicherungsstandards auf Videoservern? Und schließlich diskutieren wir über die Besonderheiten der digitalen Übertragung von Programmen im Kabel- und Satellitenfernsehen, wo immer wir auf MPEG-2 stoßen. Aus der obigen Aufzählung geht hervor, dass dieser Algorithmus vielseitig und vielschichtig ist, sodass Experten aus verschiedenen Bereichen, wenn sie über MPEG sprechen, manchmal an unterschiedliche Dinge denken. Tatsächlich ist es jedoch nicht so kompliziert, seine Grundprinzipien nicht zu verstehen. Also lasst es uns herausfinden.

Grundlegende Konzepte

Ich möchte Sie daran erinnern, dass MPEG eine Abkürzung für Moving Pictures Experts Group ist, der Name des Komitees zur Standardisierung von Methoden zur digitalen Komprimierung von Videodatenströmen der internationalen Organisation ISO/IEC (International Standards Organization/International Electrotechnical Commission). Die Aufgabe des Gremiums bestand zunächst darin, ein Format zum Speichern und Abspielen von Audio-/Videodaten von CD-ROMs zu entwickeln. Als Ergebnis wurde der MPEG-1-Standard geschaffen, der sich auf Informationsübertragungskanäle mit niedriger Geschwindigkeit (ca. 1 Mbit/s) konzentriert und auf eine Bildauflösung von 352 x 288 (für ein PAL-Signal) beschränkt ist. Als dann die Aufgaben der Videoübertragung zunahmen, die Bandbreite der Kanäle zunahm und die Anforderungen an die visuelle Qualität der resultierenden Bilder zunahmen, erschienen MPEG-2, MPEG-4 und sogar MPEG-7, optimiert für spezielle Bedingungen.

MPEG-4 ist also hauptsächlich für die digitale Übertragung von Videodaten über Telefonleitungen (Internet, Videokonferenzen) bei stark begrenzter Bandbreite (typischerweise 28,8 Kbit/s) gedacht und reduziert daher die Auflösung um ein weiteres Vierfaches – bis zu 176 x 144. verwendet jedoch das fortschrittlichste Codierungsschema mit der Aufteilung des Bildes in unabhängige Objekte wie Hintergrund, Text, 2D-/3D-Grafiken, „sprechende“ menschliche Gesichter, sich bewegende Körper usw. Aufgrund der offensichtlichen Komplexität wurde dieser Standard jedoch noch nicht erhalten eine praktische Umsetzung.

MPEG-2 zielte ursprünglich darauf ab, das Problem der Übertragung von Fernsehbildern zu lösen. Jeder von uns weiß aus eigener Erfahrung, dass die Bildqualität im Fernsehen sehr unterschiedlich sein kann. Es ist eine Sache, einen Film anzusehen, der auf Ihrem Heimvideorecorder abgespielt oder auf Ihrem lokalen Kabelfernsehen ausgestrahlt wird, und eine ganz andere, Videos von einer DVD oder einem Satellitenkanal zu genießen. MPEG-2, wie in ISO/IEC 13818-2 definiert, ist eine Familie von untereinander konsistenten und von oben nach unten kompatiblen Komprimierungsstandards für digitales Fernsehen. Genauer gesagt erlaubt er 4 Ebene (Stufen) Bildauflösung und 5 Grundprofile (Profile) Codierung von Luminanz- und Chrominanzsignalen.

Ebenen: niedrig LL (Niedrige Stufe) mit einer Bildauflösung von 352 x 288 (MPEG-1-kompatibel), einfach ML (Hauptebene) 720 x 576 hoch HL-1440 (Hohe Stufe) 1440 x 1152 und hoch HL-1920 1920 x x 1152. Beachten Sie, dass, wenn gemäß der Empfehlung ITU-R BT.601 (International Telecommunications Union – Empfehlung) die Hauptebene die Auflösung eines Standardfernsehrahmens bestimmt, die hohen Ebenen auf hochauflösendes Fernsehen ausgerichtet sind.

Profile: einfach SP (einfaches Profil), einfach MP (Hauptprofil), zwei skalierbar – nach Signal-Rausch-Verhältnis SNR-skalierbares Profil und mit Erlaubnis Räumlich skalierbares Profil und schließlich hoch HP (hohes Profil). Einen wichtigen Platz nimmt auch das sogenannte Main-Professional-Profil ein, das nicht im Standard verankert ist, aber in der Praxis aktiv genutzt wird, also das MPEG 422-Profil. Es wird als bezeichnet 422P. Wenn mit den Levels alles ganz einfach ist, dann bedarf es einiger Vorerklärungen, um die Unterschiede in den Profilen zu verstehen.

Ein bisschen Theorie

Eine effektive Komprimierung von Videoinformationen basiert auf zwei Hauptideen: der Unterdrückung kleiner Details der räumlichen Verteilung einzelner Bilder, die für die visuelle Wahrnehmung nicht wesentlich sind, und der Beseitigung zeitlicher Redundanz in der Abfolge dieser Bilder. Daher das Konzept der räumlichen und zeitlichen Komprimierung.

Die erste davon nutzt die experimentell festgestellte geringe Empfindlichkeit der menschlichen Wahrnehmung gegenüber Verzerrungen kleiner Bilddetails. Das Auge nimmt die Heterogenität eines einheitlichen Hintergrunds schneller wahr als die Krümmung eines dünnen Randes oder eine Änderung der Helligkeit und Farbe eines kleinen Bereichs. In der Mathematik sind zwei äquivalente Darstellungen eines Bildes bekannt: die übliche räumliche Verteilung von Helligkeit und Farbe und die sogenannte Häufigkeitsverteilung im Zusammenhang mit der räumlichen diskreten Kosinustransformation (DCT). Theoretisch sind sie gleichwertig und reversibel, behalten aber Informationen über die Bildstruktur auf ganz unterschiedliche Weise: Sanfte Hintergrundänderungen werden durch niederfrequente (zentrale) Werte der Häufigkeitsverteilung übertragen, dafür sind hochfrequente Koeffizienten verantwortlich kleine Details der räumlichen Verteilung.

Dadurch kann der folgende Komprimierungsalgorithmus verwendet werden. Der Rahmen ist in 16 x 16 Blöcke unterteilt (720 x 576 entspricht 45 x 36 Blöcken), von denen jeder die DCT in den Frequenzbereich übersetzt. Anschließend werden die entsprechenden Frequenzkoeffizienten einer Quantisierung (Rundung der Werte mit einem vorgegebenen Intervall) unterzogen. Wenn die DCT selbst nicht zu Datenverlust führt, führt die Quantisierung der Koeffizienten zwangsläufig zu einer Vergröberung des Bildes. Der Quantisierungsvorgang wird mit einem variablen Intervall durchgeführt – niederfrequente Informationen werden am genauesten übertragen, während viele hochfrequente Koeffizienten Nullwerte annehmen. Dies führt zu einer erheblichen Komprimierung des Datenstroms, führt jedoch zu einer Verringerung der effektiven Auflösung und dem möglichen Auftreten geringfügiger falscher Details (insbesondere an Blockgrenzen). Je gröber die verwendete Quantisierung ist, desto größer ist natürlich das Komprimierungsverhältnis, aber desto geringer ist die Qualität des resultierenden Signals.

Ich möchte Sie daran erinnern, dass dieser Algorithmus aus der Digitalfotografie stammt, wo er unter dem Namen JPEG zur effizienten Komprimierung einzelner Bilder entwickelt wurde (JPEG ist die Abkürzung für den Namen der internationalen Vereinigung, die ihn genehmigt hat, der Joint Photographic Experts Group). Dann wurde es erfolgreich auf Videosequenzen von Einzelbildern angewendet (wobei jedes davon völlig unabhängig verarbeitet wurde) und erhielt den neuen Namen M-JPEG (Motion-JPEG). Es sollte auch beachtet werden, dass die DV-Kodierung der digitalen Standards DV/DVCAM/DVCPRO grundsätzlich auf demselben Algorithmus basiert, jedoch ein flexibleres Schema mit adaptiver Auswahl von Quantisierungstabellen verwendet. Im Gegensatz zu M-JPEG ändert sich das Komprimierungsverhältnis für verschiedene Blöcke je nach Bild: Bei Blöcken mit wenigen Informationen (z. B. an den Bildrändern) nimmt es zu und bei Blöcken mit vielen kleinen Details ab relativ zum durchschnittlichen Pegel im Bild. Dadurch wird bei gleicher Qualität eine Reduzierung der Datenmenge um ca. 15 % erreicht (oder umgekehrt – bei gleichem Stream ist die Qualität des Ausgangssignals höher).

Die zeitliche MPEG-Komprimierung nutzt eine hohe Informationsredundanz in Bildern, die durch ein kleines Intervall getrennt sind. Tatsächlich ändert sich normalerweise nur ein kleiner Teil der Szene zwischen benachbarten Bildern – beispielsweise bewegt sich ein kleines Objekt reibungslos vor einem festen Hintergrund. In diesem Fall müssen vollständige Informationen über die Szene nur punktuell – für Referenzbilder – gespeichert werden. Im Übrigen reicht es aus, nur differenzielle Informationen zu übermitteln: über die Position des Objekts, die Richtung und Größe seiner Verschiebung, neue Hintergrundelemente (die sich hinter dem Objekt öffnen, wenn es sich bewegt). Darüber hinaus können diese Unterschiede nicht nur im Vergleich zu früheren Bildern, sondern auch zu nachfolgenden Bildern gebildet werden (weil in ihnen bei der Bewegung des Objekts ein Teil des Hintergrunds sichtbar wird, der zuvor hinter dem Objekt verborgen war). Das mathematisch komplexeste Element ist die Suche nach Blöcken, die sich verschieben, aber ihre Struktur kaum ändern (16 x 16) und die entsprechenden Vektoren ihrer Verschiebung bestimmen. Dieses Element ist jedoch das wichtigste, da es Ihnen ermöglicht, die Menge der erforderlichen Informationen erheblich zu reduzieren. Es ist die Effizienz der Echtzeitausführung dieses „intelligenten“ Elements, die verschiedene MPEG-Encoder auszeichnet.

Somit werden bei der MPEG-Kodierung grundsätzlich drei Arten von Frames gebildet: I (Intra) – fungiert als Referenzframes und bewahrt die volle Menge an Informationen über die Bildstruktur; P (Predictive) – enthält Informationen über Änderungen in der Bildstruktur im Vergleich zum vorherigen Bild (Typ I oder P); B (bidirektional) – nur der wichtigste Teil der Informationen über die Unterschiede zum vorherigen und nachfolgenden Bild bleibt erhalten (nur I oder P). Das Konzept der nachträglichen Komprimierung von I-Frames sowie differenziellen P- und B-Frames ähnelt M-JPEG, jedoch wie bei DV mit adaptiver Anpassung der Quantisierungstabellen. Dies ermöglicht es insbesondere, ein DV-Signal als Sonderfall einer MPEG-Sequenz von I-Frames mit einem vorgegebenen festen Stream (Komprimierungsverhältnis) zu charakterisieren. Sequenzen von I-, P-, B-Frames werden zu Framegruppen mit fester Länge und Struktur zusammengefasst – GOP (Group of Pictures). Jede GOP beginnt notwendigerweise mit I und enthält in regelmäßigen Abständen P-Frames. Seine Struktur wird als M/N beschrieben, wobei M die Gesamtzahl der Frames in der Gruppe und N das Intervall zwischen P-Frames ist. Somit sieht eine typische Video-CD- und DVD-IPB-Gruppe 15/3 wie folgt aus: IBBBPBBPBBPBBPBB. Hier wird jedes B-Frame aus den ihn umgebenden P-Frames (am Anfang und Ende der Gruppe – aus I und P) und wiederum jedes P-Frame aus dem vorherigen P- (oder I-) Frame wiederhergestellt . Gleichzeitig sind I-Frames autark und können unabhängig von anderen wiederhergestellt werden, sie dienen jedoch als Referenz für alle P- und insbesondere B-Frames der Gruppe. Daher weisen I und P den geringsten Kompressionsgrad auf, während B den größten Grad aufweist. Es wurde festgestellt, dass die Größe eines typischen P-Rahmens 1/3 und B 1/8 von I beträgt.

Dadurch ermöglicht eine IPPP-MPEG-Sequenz (GOP 4/1) eine zweifache Reduzierung des erforderlichen Datenstroms (bei gleicher Qualität) im Vergleich zu einer Sequenz nur aus I-Frames, und die Verwendung von GOP 15/3 ermöglicht eine Vervierfachung Komprimierung erreicht werden soll.

MPEG-2-Profile

Jetzt haben wir das Recht, zur Beschreibung verschiedener Profile zurückzukehren. In einem einfachen SP-Profil werden nur Bewegungskompensation und Vorhersage in einer Richtung (P-Frames) durchgeführt. Im Hauptprofil wird die MP-Vorhersage in zwei Richtungen durchgeführt, d. h. B-Frames sind zulässig. Bei skalierbaren Profilen wird der ursprüngliche digitale Videodatenstrom nach verschiedenen Kriterien in mehrere Teile aufgeteilt. Im Signal-Rausch-Verhältnis SNR Scalable Profile wird der Stream in zwei Teile geteilt. Das erste davon – das Hauptsignal – überträgt Informationen mit einem reduzierten Signal-Rausch-Verhältnis (gröbere Abtastung). Dieser Teil ist jedoch durch einen Algorithmus geschützt, der resistenter gegen Übertragungsrauschen ist (und dementsprechend mehr Bits benötigt), bei starkem Rauschen empfangen wird und auch unter widrigen Bedingungen die Wiederherstellung eines TV-Bildes ermöglicht (wenn auch mit reduziertem Signal-zu- Rausch-Verhältnis). Der weniger geschützte zweite Teil – das sogenannte Zusatzsignal – wird bei instabilem Empfang einfach verworfen. Bei stabilem Empfang können Sie das Hauptsignal ergänzen und das Signal-Rausch-Verhältnis auf den ursprünglichen Wert erhöhen.

Das räumlich skalierbare Profil verkompliziert das Kodierungsschema zusätzlich. Darin wird der Ablauf bereits in drei Teile gegliedert – nach dem Kriterium der Erlaubnis. Der erste Teil, das Hauptsignal, liefert rauschresistente Informationen über ein Bild mit Standardauflösung (625 Zeilen, davon 576 aktiv). Der zweite Teil vervollständigt die Informationen zu einem hochauflösenden Bild (1250 Zeilen, 1152 aktiv). Durch die Dekodierung des dritten Signals können Sie das Signal-Rausch-Verhältnis erhöhen.

Das fünfte HP-Profil – das höchste – beinhaltet alle Funktionen der vorherigen, nutzt jedoch nicht die YUV-Darstellung 4:2:0, sondern 4:2:2, d. h. es überträgt Farbdifferenzsignale doppelt so oft (in jeder Zeile). , in jedem Linienelement).

Auch hier bedarf es einer Erklärung. Es ist bekannt, dass ein Fernsehsignal eine Kombination aus einem Luminanzsignal Y und zwei Farbdifferenzsignalen U und V ist. Variationen ihrer Werte ermöglichen 256 Abstufungen (von 0 bis 255 für Y und von -128 bis 127 für U/V). ), was binär ausgedrückt 8 Bits oder 1 Byte entspricht. Theoretisch hat jedes Frame-Element seine eigenen YUV-Werte, benötigt also 3 Bytes. Diese Darstellung, bei der sowohl Luma als auch Chrominanz die gleiche Anzahl unabhängiger Werte haben, wird allgemein als 4:4:4 bezeichnet. Das menschliche visuelle System reagiert jedoch weniger empfindlich auf räumliche Farbänderungen als auf Helligkeitsänderungen. Und ohne sichtbaren Qualitätsverlust kann die Anzahl der Farbmuster pro Zeile halbiert werden. Es ist diese als 4:2:2 bezeichnete Darstellung, die im Rundfunkfernsehen übernommen wurde. In diesem Fall reichen 2 Bytes aus, um den vollen Wert des Fernsehsignals in jedem Bildabtastwert zu übertragen (abwechselnde unabhängige Werte von U und V durch den Abtastwert). Darüber hinaus ist es für Consumer-Videozwecke akzeptabel, auch die vertikale Farbauflösung zu halbieren, also auf eine 4:2:0-Darstellung umzustellen. Dadurch wird die gemeldete Anzahl von Bytes pro Probe auf 1,5 reduziert. Beachten Sie, dass dies die Darstellung ist, die sowohl in das DV-Format von Digitalkameras als auch in das DVD-Videoformat integriert wurde.

Bei professionellen Aufgaben der digitalen Videobearbeitung und -bearbeitung, bei denen die mehrfache und mehrschichtige Verwendung von Filmmaterialfragmenten und die Einbeziehung von Computergrafiken darin möglich ist, ist jedoch zunächst eine höhere Qualität des digitalen Videos erforderlich, um die daraus resultierende Fehlerhäufigkeit zu vermeiden. Daher gilt hier die Darstellung von 4:2:2 als zwingend. Dies unterscheidet das 422P-Profil vom Hauptprofil. In der Tabelle. 1 fasst die Unterschiede aller beschriebenen Profile zusammen.

Tabelle 1

Merkmale /  Einfach  Primär  422P Skala- Räumlich hoch 
Profil (SP) (MP)   wummbar skalierbar (HP)
I-Frames - - - - -
P-Frames - - - - - -
B-Frames   - - - - -
Trennung durch SNR       - - -
Trennung durch Auflösung         - -
YUV-Darstellung 4:2:0 4:2:0 4:2:2 4:2:0 4:2:0 4:2:2

Audiokomprimierung

Bisher haben wir uns nur mit der Bildkomprimierung beschäftigt. Zu einem vollwertigen Video gehört aber auch eine Tonkomponente. Es wird davon ausgegangen, dass Audio in CD-Qualität eine 44,1-kHz-Digitalisierung mit 16 Bit pro Kanal erfordert, was 706 Kbit/s pro Kanal (1,4 Mbit/s für Stereo) entspricht. Die DAT-Qualität des Signals definiert eine Abtastrate von 48 kHz (Bandbreite 4–24 Hz) und erhöht die Bitrate auf 000 Kbit/s pro Kanal. Der Ansatz zur Komprimierung von Informationen ist derselbe – das Verwerfen eines Teils, der für die Wahrnehmung durch das menschliche Ohr nicht unbedingt wichtig ist. Der MPEG-Standard ermöglicht drei Stufen (Layer) der Audiokomprimierung. Schicht 768 verwendet den einfachsten Algorithmus mit minimaler Komprimierung, der 1 Kbit/s pro Kanal voraussetzt. Der Layer-192-Algorithmus ist komplexer, aber das Komprimierungsverhältnis ist höher – 2 Kbit/s pro Kanal. Leistungsstarker digitaler Audiokomprimierungsalgorithmus in CD-Qualität (128-mal ohne Verlust, der vom menschlichen Ohr wahrgenommen werden kann) Layer 11 bietet die höchstmögliche Klangqualität mit starken Flussbeschränkungen – nicht mehr als 3 Kbit/s pro Kanal. Es ist hauptsächlich für das Internet gedacht. Seine Bedeutung ist so groß, dass es die spezielle Abkürzung MP64 erhalten hat, die für MPEG Layer 3 steht.

Es sind zahlreiche Internetseiten entstanden, die Hunderttausende MP3-Dateien populärer Musik enthalten. Mit Hilfe spezieller Wiedergabeprogramme (Real Audio) lässt sich MP3-Musik in Echtzeit über das Internet anhören, unbegrenzt kopieren (Vorsicht: ein typischer Song ist 2 bis 8 MB groß) und illegal verbreiten. Es gibt bereits tragbare MP3-Player, die etwa 200 US-Dollar kosten (z. B. Diamond Rio). Die Musikindustrie, die spürbare Verluste erlitt, begann, aktiv gegen MP3-Sites zu kämpfen (die Recording Industry Association of America fand die meisten von ihnen und erzwang die Schließung). Aber der Geist ist frei, man kann nicht jeden schließen. Adaptec prognostiziert, dass in den kommenden Jahren Milliarden von Songs über das Internet heruntergeladen werden und kündigt MP3-Unterstützung in der nächsten Version von EasyCD Creator an. Bei digitalen Bearbeitungsaufgaben kommt die Audiosignalkomprimierung jedoch nicht zum Einsatz, daher müssen bei der Berechnung der zulässigen Streams der Audiokomponente bis zu 1,5 Mbit/s zugewiesen werden.

MPEG-2 im nichtlinearen Schnitt

Der Begriff „nichtlineare Bearbeitung“ entspricht nicht dem Wesen des Prozesses, sondern spiegelt nur eine seiner Eigenschaften wider. Tatsächlich handelt es sich um die Bearbeitung von Videofilmen, die in digitaler Form am Computer durchgeführt wird. In diesem Fall unterliegen die Originalvideofragmente der obligatorischen Digitalisierung und Aufzeichnung auf der Festplatte in Form entsprechender Dateien. Im Gegensatz zu Bandlaufwerken erfordert der Zugriff auf diese Fragmentdateien kein mühsames Zurückspulen (und dieser Vorgang ist linear), das heißt, alle Videobilder sind in zufälliger Reihenfolge verfügbar. Dies ist eine wichtige Eigenschaft und hat den Namen der digitalen Bearbeitung als nichtlinear bestimmt, obwohl die Möglichkeiten der digitalen Bearbeitung natürlich viel breiter und reicher sind.

Denken Sie daran, dass gemäß der Empfehlung ITU-R BT.601 ein Fernsehbild eine 720 x 576-Matrix ist. Unter Berücksichtigung der Fernsehbildrate von 25 Hz kommen wir zu dem Schluss, dass eine Sekunde digitales Video in 4:2:2-Darstellung erforderlich ist 20 Bytes (736 x 000 x 25 x 2), d. h. der Datenstrom beträgt 720 MB/s. Die Aufzeichnung solcher Streams ist zwar technisch machbar, aber aufwändig, teuer und ineffizient in der Nachbearbeitung. In der Praxis ist unter Berücksichtigung realer Möglichkeiten eine deutliche Reduzierung der Ströme erforderlich. Es gibt viele Algorithmen, die eine Komprimierung ohne Informationsverlust durchführen, aber selbst die effizientesten von ihnen bieten bei typischen Bildern nicht mehr als eine zweifache Komprimierung.

Bis vor Kurzem dominierte M-JPEG die Welt der nichtlinearen Videobearbeitungssysteme. Verschiedene Lösungen unterschieden sich im Grad der Komprimierung, der unterschiedlichen Qualitätsstufen des resultierenden Videos entsprach. Es ist eher willkürlich, hier vier Ebenen zu unterscheiden: Standardvideo (VHS, C-VHS, Video8), Supervideo (SVHS, C-SVHS, Hi8), Digitalvideo (Betacam SP, DV/DVCAM/DVCPRO, miniDV, Digital8). und Studiovideo (Digital S, DVCPRO50). Der Einfachheit halber nennen wir sie Video, S-Video, DV und Studio-TV. Quantitativ werden sie normalerweise durch die horizontale Auflösung (die Anzahl der in einer Zeile unterschiedenen Elemente – Fernsehzeilen) charakterisiert. Es wird angenommen, dass Video eine Auflösung von bis zu 280 Zeilen bietet und einem M-JPEG-Stream von etwa 2 Mbit/s entspricht, S-Video – 400 Zeilen und 4 Mbit/s, DV – 500 Zeilen und 3,1 Mbit/s. und Studio-TV – Auflösung von mindestens 600 Zeilen mit Streams von 7 MB/s. Die Komprimierungsverhältnisse betragen 10:1, 5:1, 5:1 bzw. 3:1 (denken Sie daran, dass der DV-Algorithmus effizienter ist als M-JPEG). Aber selbst eine solche Komprimierung erfordert erhebliche Mengen an Speicherplatz zum Speichern und Verarbeiten von Videodateien. Beispielsweise benötigt eine Minute M-JPEG-Video 120 MB für Videoqualität und etwa 500 MB für Studio-TV. Aber Sie möchten wirklich mit Videos arbeiten, die mehrere zehn Minuten dauern!

Und hier kommt MPEG-2 ins Spiel. Selbst die Umstellung auf I-Frames spart 15 % des Volumens, und wenn Sie P-Frames verwenden, kann der Gewinn verdoppelt werden (für IPPP-Gruppen), und das ist bereits erheblich. Zwar herrscht die Meinung vor, dass im letzteren Fall einer der Hauptvorteile der nichtlinearen Bearbeitung verloren geht, nämlich die Bild-für-Bild-Genauigkeit. Eigentlich ist das eine Täuschung. Mithilfe differenzieller P-Frames lässt sich die ursprüngliche Bildstruktur einfach und schnell wiederherstellen (für moderne Prozessoren ist eine solche Aufgabe nicht schwierig und wird in Echtzeit ausgeführt). Was die Wiederherstellungsgenauigkeit betrifft, so nimmt diese in langen Gruppen und/oder bei Vorhandensein von B-Frames wirklich merklich ab. Daher kann beispielsweise DVD-Video (GOP 15/3) nicht bearbeitet werden. Gleichzeitig erfolgt die Wiederherstellung bei kurzen Gruppen, die nur aus I- und P-Frames bestehen, praktisch ohne Fehlerakkumulation. Somit reicht bei der MPEG-2-Kodierung 422P@ML ein Stream von 50 Mbit/s mit I-Frames (nur I-Frame) und 25 Mbit/s mit einer IPPP-Gruppe aus, um Studioqualität sicherzustellen (siehe Tabelle 2).

Tabelle 2

 Komprimierungstyp

Video

S-Video

DV

Studio-TV

 M-JPEG, Mbit/s

16

32

38

56

 I-Frame 422P@ML, Mbit/s

14

28

33

49

 I-Frame MP@ML, Mbit/s

10

21

25

37

 IPPP 422P@ML, Mbit/s

7

14

17

24

 IPPP MP@ML, Mbit/s

5

10

12,5

18

 IBP 15/3 MP@ML, Mbit/s

2,5

5

6

9

In diese Richtung entwickeln sich moderne nichtlineare Bearbeitungssysteme. Bisher gibt es nur wenige Beispiele. Dies sind FAST 601 [six-o-one], Pinnacle miroVideo DC1000 und Matrox DigiSuite DTV. Die Vorteile dieses Ansatzes liegen jedoch so auf der Hand, dass in naher Zukunft sicherlich weitere Lösungen auftauchen werden.

Autor: Andrey Ryakhin, basierend auf digitalvideo.ru

 Wir empfehlen interessante Artikel Abschnitt Videokunst:

▪ Stative: worauf wir stehen

▪ MPEG-2 und Heimvideo

▪ Grundregeln für das Filmen

Siehe andere Artikel Abschnitt Videokunst.

Lesen und Schreiben nützlich Kommentare zu diesem Artikel.

<< Zurück

Neueste Nachrichten aus Wissenschaft und Technik, neue Elektronik:

Die Existenz einer Entropieregel für die Quantenverschränkung wurde nachgewiesen 09.05.2024

Die Quantenmechanik überrascht uns immer wieder mit ihren mysteriösen Phänomenen und unerwarteten Entdeckungen. Kürzlich stellten Bartosz Regula vom RIKEN Center for Quantum Computing und Ludovico Lamy von der Universität Amsterdam eine neue Entdeckung vor, die sich mit der Quantenverschränkung und ihrem Zusammenhang mit der Entropie befasst. Quantenverschränkung spielt eine wichtige Rolle in der modernen Quanteninformationswissenschaft und -technologie. Aufgrund der Komplexität seiner Struktur ist es jedoch schwierig, es zu verstehen und zu verwalten. Die Entdeckung von Regulus und Lamy zeigt, dass die Quantenverschränkung einer Entropieregel folgt, die der für klassische Systeme ähnelt. Diese Entdeckung eröffnet neue Perspektiven im Bereich der Quanteninformationswissenschaft und -technologie und vertieft unser Verständnis der Quantenverschränkung und ihrer Verbindung zur Thermodynamik. Die Ergebnisse der Studie weisen auf die Möglichkeit der Reversibilität von Verschränkungstransformationen hin, was ihre Verwendung in verschiedenen Quantentechnologien erheblich vereinfachen könnte. Eine neue Regel öffnen ... >>

Mini-Klimaanlage Sony Reon Pocket 5 09.05.2024

Der Sommer ist eine Zeit der Entspannung und des Reisens, doch oft kann die Hitze diese Zeit zu einer unerträglichen Qual machen. Lernen Sie ein neues Produkt von Sony kennen – die Mini-Klimaanlage Reon Pocket 5, die verspricht, den Sommer für ihre Benutzer angenehmer zu gestalten. Sony hat ein einzigartiges Gerät vorgestellt – den Reon Pocket 5 Mini-Conditioner, der an heißen Tagen für Körperkühlung sorgt. Damit können Benutzer jederzeit und überall Kühle genießen, indem sie es einfach um den Hals tragen. Diese Mini-Klimaanlage ist mit einer automatischen Anpassung der Betriebsmodi sowie Temperatur- und Feuchtigkeitssensoren ausgestattet. Dank innovativer Technologien passt Reon Pocket 5 seinen Betrieb an die Aktivität des Benutzers und die Umgebungsbedingungen an. Benutzer können die Temperatur einfach über eine spezielle mobile App anpassen, die über Bluetooth verbunden ist. Darüber hinaus sind speziell entwickelte T-Shirts und Shorts erhältlich, an denen ein Mini-Conditioner angebracht werden kann. Das Gerät kann oh ... >>

Energie aus dem Weltraum für Raumschiff 08.05.2024

Mit dem Aufkommen neuer Technologien und der Entwicklung von Raumfahrtprogrammen wird die Erzeugung von Solarenergie im Weltraum immer machbarer. Der Leiter des Startups Virtus Solis teilte seine Vision mit, mit dem Raumschiff von SpaceX Orbitalkraftwerke zu bauen, die die Erde mit Strom versorgen können. Das Startup Virtus Solis hat ein ehrgeiziges Projekt zur Schaffung von Orbitalkraftwerken mit dem Starship von SpaceX vorgestellt. Diese Idee könnte den Bereich der Solarenergieerzeugung erheblich verändern und sie zugänglicher und kostengünstiger machen. Der Kern des Plans des Startups besteht darin, die Kosten für den Start von Satelliten ins All mithilfe von Starship zu senken. Es wird erwartet, dass dieser technologische Durchbruch die Solarenergieproduktion im Weltraum gegenüber herkömmlichen Energiequellen wettbewerbsfähiger machen wird. Virtual Solis plant den Bau großer Photovoltaikmodule im Orbit und nutzt Starship für die Lieferung der notwendigen Ausrüstung. Allerdings eine der größten Herausforderungen ... >>

Zufällige Neuigkeiten aus dem Archiv

Das Recht der künstlichen Intelligenz an den von ihr erstellten Inhalten 15.11.2019

Das US-Patent- und Markenamt (USPTO) plant herauszufinden, ob künstliche Intelligenz das besitzen kann, was sie erstellt, und bittet die Öffentlichkeit um ihre Meinung dazu. Umfrageergebnisse erfordern möglicherweise Änderungen des Urheberrechtsgesetzes.

Derzeit sammelt das Büro Informationen über die Auswirkungen der künstlichen Intelligenz auf Urheberrechte, Marken und anderes geistiges Eigentum. Dazu wurden 13 Fragen vorbereitet, die von der Frage reichen, was passiert, wenn eine KI ein verletzendes Werk erstellt, bis hin zur Frage, ob es erlaubt ist, urheberrechtlich geschützte Inhalte zum Trainieren der KI zu verwenden.

Die wichtigste Frage ist, ob es möglich ist, als Werk der Urheberschaft zu betrachten, was von künstlicher Intelligenz ohne menschliches Eingreifen geschaffen wird. Wenn nicht, welcher Grad an menschlicher Beteiligung "wäre oder sollte ausreichen, damit das Werk dem Urheberrechtsgesetz entspricht?".

Andere Fragen betreffen, ob ein KI-Trainingsunternehmen Eigentümer der erstellten Inhalte sein sollte und ob Autoren für diese Art der Nutzung ihrer Arbeit anerkannt werden sollten. Das USPTO, das die Regierung in Urheberrechtsfragen berät, führt häufig öffentliche Umfragen durch. In diesem Fall gibt es keine Antworten auf die Fragen, die in der Gesetzgebung eines Landes der Welt gestellt werden, aber das Problem besteht. Die Situation klärt sich ein wenig, wenn wir eine Art KI-basiertes Produkt betrachten, bei dem eine Person an der Gestaltung des Endergebnisses teilnehmen muss.

In der Praxis des Urheberrechtsamts gibt es Empfehlungen, die besagen, dass Werke, die von einer Maschine ohne schöpferische Beteiligung oder menschliches Eingreifen geschaffen wurden, nicht dem Urheberrecht unterliegen. Aber das USPTO scheint zu glauben, dass diese Definition nicht ausreicht, da die Arbeit der KI immer komplexer wird.

Weitere interessante Neuigkeiten:

▪ Globale Flut verzögert

▪ Erinnerung an künstliche DNA

▪ Batterierecycling ohne Zerkleinern und Schmelzen

▪ Erstes 5G-Smartphone

▪ Indoor-Pferd

News-Feed von Wissenschaft und Technologie, neue Elektronik

 

Interessante Materialien der Freien Technischen Bibliothek:

▪ Abschnitt der Website Auto. Artikelauswahl

▪ Artikel Menschen guten Willens. Populärer Ausdruck

▪ Artikel Welcher Code wurde in den 1960er und 70er Jahren für den Abschuss amerikanischer Atomraketen festgelegt? Ausführliche Antwort

▪ Artikel Empfangsdame. Jobbeschreibung

▪ Artikel Imitator von Vogelstimmen. Enzyklopädie der Funkelektronik und Elektrotechnik

▪ Artikel Das Glas kriecht! physikalisches Experiment

Hinterlasse deinen Kommentar zu diesem Artikel:

Name:


E-Mail optional):


Kommentar:





Alle Sprachen dieser Seite

Startseite | Bibliothek | Artikel | Sitemap | Site-Überprüfungen

www.diagramm.com.ua

www.diagramm.com.ua
2000-2024