Ich möchte kurz aber knapp die Argumente meinerseits vorbringen.
Jedoch sei gesagt, ich Encode ca. 12 Folgen Anime die Woche für euch alle durch meine Fansubgruppen.
Ich setze sowohl 10Bit (Unfreiwillig) als auch hauptsächlich 8Bit ein.
1. - 10Bit hat zweifelsohne ein höheres Farbspektrum, über welches 8Bit nicht verfügt.
dadurch soll vor allem der Effekt "Dithering" vermieden werden, jedoch gibt es für
8Bit Problemlos Filter, die diesen Effekt viel besser beheben wie es 10Bit tut.
2. - Keine Hardware-Dekodierung. 10Bit wird nur durch Software Dekodiert, anderst als
8Bit. Somit hat man mehr Auslastung.
3. - Spielt auf 2. an. Jeder der sich ein wenig auskennt hat schon einmal etwas von
Raspberry Pi gehört, den man perfekt als Mediacenter unter z.B. OpenELEC oder
RasapBMC betreiben kann. Dieser kann dann 10Bit dekodieren, aber was entsteht
wohl dabei? Richtig, die schlimmsten Bildfehler die ich kenne.
4. - 10Bit hat keinen sichtbaren Vorteil außer die Zahl 10.
5. - Die Inkompatibilität zu vielen Geräten gibt es bereits. Z.B. ein Galaxy S3 kann ein
1080P 10Bit VIdeo nicht flüssig Abspielen, wenn es eine Größe von z.B. 1,1GB hat
(Accel World Folge z.B.)
6. - Es gibt keine Monitore, die 10Bit anzeigen können.
Fazit: Wenn man sich schon die Mühe macht 10Bit (Hi10p) zu Encoden, sollte man am besten die Source-Datei Filtern um so ein
ohnehin besseres Ergebnis zu bekommen und die Kompatibilität zu allen Geräten zu gewährleisten.
Jedoch sei gesagt, ich Encode ca. 12 Folgen Anime die Woche für euch alle durch meine Fansubgruppen.
Ich setze sowohl 10Bit (Unfreiwillig) als auch hauptsächlich 8Bit ein.
1. - 10Bit hat zweifelsohne ein höheres Farbspektrum, über welches 8Bit nicht verfügt.
dadurch soll vor allem der Effekt "Dithering" vermieden werden, jedoch gibt es für
8Bit Problemlos Filter, die diesen Effekt viel besser beheben wie es 10Bit tut.
2. - Keine Hardware-Dekodierung. 10Bit wird nur durch Software Dekodiert, anderst als
8Bit. Somit hat man mehr Auslastung.
3. - Spielt auf 2. an. Jeder der sich ein wenig auskennt hat schon einmal etwas von
Raspberry Pi gehört, den man perfekt als Mediacenter unter z.B. OpenELEC oder
RasapBMC betreiben kann. Dieser kann dann 10Bit dekodieren, aber was entsteht
wohl dabei? Richtig, die schlimmsten Bildfehler die ich kenne.
4. - 10Bit hat keinen sichtbaren Vorteil außer die Zahl 10.
5. - Die Inkompatibilität zu vielen Geräten gibt es bereits. Z.B. ein Galaxy S3 kann ein
1080P 10Bit VIdeo nicht flüssig Abspielen, wenn es eine Größe von z.B. 1,1GB hat
(Accel World Folge z.B.)
6. - Es gibt keine Monitore, die 10Bit anzeigen können.
Fazit: Wenn man sich schon die Mühe macht 10Bit (Hi10p) zu Encoden, sollte man am besten die Source-Datei Filtern um so ein
ohnehin besseres Ergebnis zu bekommen und die Kompatibilität zu allen Geräten zu gewährleisten.
Zuletzt bearbeitet: