(function(i,s,o,g,r,a,m){i['GoogleAnalyticsObject']=r;i[r]=i[r]||function(){ (i[r].q=i[r].q||[]).push(arguments)},i[r].l=1*new Date();a=s.createElement(o), m=s.getElementsByTagName(o)[0];a.async=1;a.data-privacy-src=g;m.parentNode.insertBefore(a,m) })(window,document,'script','https://www.google-analytics.com/analytics.js','ga');ga('create', 'UA-4684338-1', 'auto'); ga('set', 'anonymizeIp', true); ga('send', 'pageview');

Video for Web | Grundlagen der Videobearbeitung 1

Web Video Grundlagen - Video for Web | Grundlagen der Videobearbeitung 1

Mittlerweile haben wir über 86 Filme mit ca. 6 Stunden länge produziert. Zeit unser Wissen und unsere Erfahrungen zu teilen. Deshalb möchten wir in den kommenden Wochen eine 5-teilige Blogserie zum Thema „Video for Web” schreiben.
Wir berichten über die gängigen Video- und Audioformaten, zeigen den  optimalen Workflow in After Effects und Premiere Pro und erklären wie man Videos für Web und Mobile Devices optimal bereitstellt.

Begriffserklärungen


Bitrate

Die Bitrate bezeichnet das Verhältnis einer Datenmenge zu einer Zeit, typischerweise gemessen in Bit pro Sekunde, abgekürzt als Bit/s oder bps. Sie bezeichnet die Ausgabemenge von Informationseinheiten bei digitalen, auf konstante Ausgabezeit gebundenen Multimediaformaten auf einer Zeitleiste. Eine höhere Bitrate erzielt ein qualitativ besseres Ergebnis, eine niedrigere Bitrate kommt mit weniger Datenvolumen aus.

 

Die Bitrate bei der Audio- und Videokompression kann entweder konstant sein (konstante Bitrate, CBR) oder variabel (variable Bitrate, VBR). Bei VBR wird die Bitrate dynamisch an die zu kodierenden Daten angepasst. So wird zum Beispiel bei der MPEG-Videokompression bei ruhigen Szenen die Videobitrate reduziert, während sie bei aktionsreichen Szenen angehoben wird. Das erlaubt eine optimale Nutzung des Speicherplatzes und eine höhere Bildqualität, als sie mit CBR bei selbem Speicherbedarf erreichbar wäre.

 

Hertz

Maßeinheit für die Frequenz. X Hertz entsprechen X Schwingungen pro Sekunde.

 

FPS

Ein Video ist eine Sequenz von Bildern, die in schneller Folge auf dem Bildschirm angezeigt werden, um die Illusion einer Bewegung zu erzeugen. Die Anzahl der Einzelbilder bzw. Frames, die pro Sekunde angezeigt werden, wird als Framerate bezeichnet und in Frames pro Sekunde (fps) angegeben. Je höher die Framerate, desto mehr Frames werden pro Sekunde in einer Bildsequenz angezeigt, sodass flüssigere Übergänge entstehen. Der Nachteil der höheren Qualität besteht aber darin, dass höhere Frameraten die Übertragung größerer Datenmengen erfordern, also eine höhere Bandbreite voraussetzen.

 

Codec vs. Format

Dateiformate und Codecs werden oft durcheinandergebracht, dabei sind es doch grundverschiedene Dinge.

 

Codec (Kurzform aus Coder und Decoder)

Für die Komprimierung braucht es einen Codec. Das was komprimiert (codiert) nennt sich Encoder. Dieser verschlüsselt oder verändert Signale nach bestimmten Regeln. Die meisten Video- und Audiocodecs entfernen unter Verwendung eines entsprechenden Algorithmus Bilddetails bzw. nicht hörbare oder nicht benötigte Frequenzen. 
Der Decoder kann diese kodierten Signale empfangen, verarbeiten, die Verschlüsselung wieder rückgängig machen und den Inhalt der Signale wieder sichtbar machen. Ein uncodierter Spielfilm kann durchaus einmal über 100 GB Speicherplatz in Anspruch nehmen, codiert ist er bei guter Qualität nur noch etwa 1 GB groß.

 

Format

Ein Video besteht aus Bewegbildern und Ton, die zusammen in einer Datei gespeichert sind. Diese Datei nennt sich Container/Format und ist quasi ein Behälter/Grundgerüst für die Inhalte. Auch Audiodateien haben einen solchen Container.

 

Wichtig ist hierbei:

1. Jeder Container erlaubt nur bestimmte Inhalte (z.B.: AVI kein Vorbis)

2. Man kann nicht vom Container auf den Inhalt schließen (z.B.: AVI erlaubt mp3 und AC3)

3. Die wichtigsten Containerformate sind heutzutage AVI, OGM, MKV, MOV, ASF (= WMV), RM und MP4.

 

Die Ursache der Verwechslung ist sicherlich, dass einige Codecs auf dem Computer an ein bestimmtes Format gebunden sind (vor allem im Audiobereich).

 

Quadratische und rechteckige Pixel

Das Pixelseitenverhältnis gibt das Verhältnis von Breite (x) zu Höhe (y) des Pixels an.

 

Bei einem quadratischen Pixel beträgt das Verhältnis 1:1, bei einem nicht quadratischen/rechteckigen Pixel stimmen dagegen Höhe und Breite nicht überein. Fernsehpixel sind im Allgemeinen rechteckig und Computerpixel quadratisch. Daher werden Bilder, die auf einem Computermonitor richtig aussehen, auf einem Fernsehbildschirm verzerrt angezeigt. Dies fällt besonders bei kugelförmigen Bildern auf.

 

Web Video Grundlagen pixelverhalten - Video for Web | Grundlagen der Videobearbeitung 1

Achtung: Das Frameseitenverhältnis eines Bildes muss nicht notwendigerweise das Pixelseitenverhältnis bestimmen. Ein Bild im Breitbildformat mit dem Frameseitenverhältnis 16:9, kann aus quadratischen oder aus nicht quadratischen Pixeln bestehen. Wenn man das Importieren von Grafiken in Motion vorbereitet, sollte man das verwendete Pixelformat kennen und wissen, ob das Projekt quadratische oder nicht-quadratische Pixel erfordert.

 

Nicht-quadratische Pixel verwendet man für SD-Projekte in NTSC oder PAL. Quadratische Pixel benutzt man für HD-Projekte mit Vollraster sowie für Multimedia-Video, das nur auf Computern wiedergegeben werden soll und das kein aufgenommenes Filmmaterial enthält.

 

Was ist der Unterschied zwischen 8bit, 16bit und 32bit für Video/Bilder?

Die Farbtiefe, bzw. Bittiefe gibt die Anzahl der Bits pro Kanal (bpc) an, die zum Darstellen der Farbe eines Pixels verwendet wird. Je mehr Bits für einen RGB-Kanal (Rot, Grün und Blau) verwendet werden, desto mehr Farben lassen sich durch jedes Pixel darstellen. In After Effects kann man 8-Bit-, 16-Bit- oder 32-Bit-Farben verwenden. Das Arbeiten mit höherer Bittiefe verhindert viele Arten von Datenverlust bei den verschiedenen Vorgängen, wie z.B. bei der Farbkorrektur und der Farbprofilkonvertierung. Selbst wenn man 8-Bit-Footage verwendet und Filme in 8-Bit-Formaten erstellt, kann man bessere Ergebnisse erzielen, indem man die Projektfarbtiefe auf 16 Bit oder 32 Bit einstellt. Das Arbeiten mit einer höheren Farbtiefe führt zu einer größeren Präzision bei Berechnungen und einer starken Verringerung von Quantisierungsartefakten, z.B. von bandartigen Effekten bei Farbverläufen. Je mehr Bittiefe verwendet wird, desto mehr Arbeitsspeicher wird verbraucht.

 

Mehr Informationen:

www.help.adobe.com

 

 

2016-10-25T16:26:14+00:00

Hinterlassen Sie einen Kommentar

Diese Seite verwendet Cookies. Mit der Nutzung dieser Seite erklären Sie sich mit der Verwendung von Cookies einverstanden.

Paris

Datenschutzerklärung

Okay