Welcome to our Community
Wanting to join the rest of our members? Feel free to sign up today.
Sign up

10Bit, warum wir es eigentlich gar nicht brauchen.

Tet2

Otaku König
28 Dez. 2013
246
41
43
Ich möchte kurz aber knapp die Argumente meinerseits vorbringen.
Jedoch sei gesagt, ich Encode ca. 12 Folgen Anime die Woche für euch alle durch meine Fansubgruppen.
Ich setze sowohl 10Bit (Unfreiwillig) als auch hauptsächlich 8Bit ein.

1. - 10Bit hat zweifelsohne ein höheres Farbspektrum, über welches 8Bit nicht verfügt.
dadurch soll vor allem der Effekt "Dithering" vermieden werden, jedoch gibt es für
8Bit Problemlos Filter, die diesen Effekt viel besser beheben wie es 10Bit tut.

2. - Keine Hardware-Dekodierung. 10Bit wird nur durch Software Dekodiert, anderst als
8Bit. Somit hat man mehr Auslastung.

3. - Spielt auf 2. an. Jeder der sich ein wenig auskennt hat schon einmal etwas von
Raspberry Pi gehört, den man perfekt als Mediacenter unter z.B. OpenELEC oder
RasapBMC betreiben kann. Dieser kann dann 10Bit dekodieren, aber was entsteht
wohl dabei? Richtig, die schlimmsten Bildfehler die ich kenne.

4. - 10Bit hat keinen sichtbaren Vorteil außer die Zahl 10.

5. - Die Inkompatibilität zu vielen Geräten gibt es bereits. Z.B. ein Galaxy S3 kann ein
1080P 10Bit VIdeo nicht flüssig Abspielen, wenn es eine Größe von z.B. 1,1GB hat
(Accel World Folge z.B.)

6. - Es gibt keine Monitore, die 10Bit anzeigen können.

b732bdac73.png


Fazit: Wenn man sich schon die Mühe macht 10Bit (Hi10p) zu Encoden, sollte man am besten die Source-Datei Filtern um so ein
ohnehin besseres Ergebnis zu bekommen und die Kompatibilität zu allen Geräten zu gewährleisten.

ba861a2a02.png


a9ef7aa1cd.png
 
Zuletzt bearbeitet:

Maggotcarrier

Otaku Amateur
11 Nov. 2014
19
1
0
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Ich lade meistens eine 8bit Version wenn es eine gibt, denn dann funktionieren die Folgen auch per USB Stick auf meinem Fernseher (schaue nicht gerne auf dem Laptop). Auf dem Monitor soll es doch aber darstellbar sein wenn man zb den Mediaplayer Classic nimmt und den Direct3D Modus einstellt? ich habe das nämlich in der Vergangenheit schonmal ausprobiert, an einer Folge von was wo man Himmel sieht und die farbübergänge sieht und es erschien mir tatsächlich weniger offensichtlich. Zugegebenermaßen war mir der Unterschied aber auch nicht so krass das es für mich zu einem must have geworden ist.
 

ghoX

Otaku Experte
25 Aug. 2014
50
1
0
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Da kann ich mich Mamoru nur anschließen. Ein beliebtes Argument ist ja immer die kleinere Dateigröße von 10-bit Dateien.
Aber wer sich bei den günstigen Festplattenpreisen immer noch über mangelnden Speicher beschwert, der erkennt dann vermutlich auch nicht den Unterschied zwischen 8-bit und 10-bit; Ausnahmen gibt es natürlich immer.
Ich denke, um 10-bit wirklich bedeutend wahrnehmen zu können, müsste man sich die entsprechenden Anime vom Computer aus auf den eigenen Full HD oder 4k Fernseher streamen.
An sich habe ich nichts gegen 10-bit releases, da man sich die Folgen, wenn nötig, relativ schnell mit 2-pass Encode in ~40 Minuten auf 8-bit konvertieren kann.
 
Zuletzt bearbeitet:

Sevion

Otaku Experte
25 Aug. 2014
134
12
18
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Mit Ausnahme von "4. - 10Bit hat keinen sichtbaren Vorteil außer die Zahl 10." kann ich da auch nichts gegenargumentieren, da 8bit weiterhin i.d.R. seine Banding-Probleme haben wird und auch die besten Dither-Filter nicht in 100% der Fälle das beste Ergebnis liefern
Und hätte Darth Affe nicht schon auf den Link verwiesen, hätte ich es wohl getan.

Im Moment sprechen wohl aber mehr Argumente gegen statt für 10bit.
Auf der anderen Seite sollte man auf lange Sicht vielleicht doch 10bit durchdrücken, damit die Gerätehersteller hoffentlich bald nachziehen und die Kompatiblität wiederhergestellt wird.

Bis auf den Verlust von Banding "sehe" ich aber sonst keine Unterschiede zu 8bit. Kein Wunder bei "nur" 16,77Mio Farben am Monitor.
Da all meine Geräte aber keine Probleme bei der Wiedergabe von 10bit haben, wende ich mich eher der 25/30 FPS Vs 60 FPS-Diskussion zu statt mich weiterhin an der Diskussion um die Bittiefe zu beteiligen...
 

jenstv

Otaku Experte
28 Juni 2014
147
23
18
hier in Sachsen
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Also im Augenblick braucht man 10 Bit pro Farbkanal wirklich nicht. Der einzig positive Effekt entsteht während der Bearbeitung und der Komprimierung.
Dazu muß aber von der Digitalisierung bis zum fertigen Produkt durchgängig mit 10 Bit gearbeitet werden. Wenn also Normalsterbliche eine Bluray kopieren und den 8 Bit Stream mit 10 Bit runterrechnen stellt sich die Frage wo die fehlenden Daten herkommen?
Die Monitore/Fernseher können eh nur 6+2 Bit (16,2 Mio. Farben). Einzige mir bekannte Ausnahme sind die neuen Benq VA Panels, die machen nativ 8 Bit (16,7 Mio. Farben).

Abhilfe ist aber angekündigt. Die nächste Bluray Generation kodiert mit H265 Hi10 als Standard, soll aber 8 Bit abwärtskompatibel sein (wie das gehen soll weiß ich nicht).
Dabei wird im Player ein 10 Bit dekodiertes Bildsignal erzeugt, welches dann per Deep Color über einen HDMI 2.0 oder DisplayPort an das Anzeigegerät übertragen wird, und auf einem 6+2 Bit Panel angezeigt wird. Alternativ erzeugt der Player ein 8 Bit Bildsignal welches über einen HDMI 1.X Port übertragen wird.

Lassen wir uns überraschen mit welchen Werbeversprechen man den Kunden zum Geldausgeben bringen will.
 

Windwusel

Invisible
Otaku König
25 Jan. 2015
243
48
28
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Ich würde gerne nur noch 60 FPS Videos schauen, aber gerade bei Anime mit Ger-Sub ist mir aufgefallen, dass es es viele Probleme gibt. Unter anderem werden die Untertitel komisch dargestellt oder der Ton wird asynchron. Dieses Problem hatte ich sowohl mit dem MPlayerX am Mac, als auch bei Stream via AirPlay.
 

Near

Phantom Thief
Nolife
25 Okt. 2014
713
270
63
Hamburg
www.instagram.com
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Was auch immer FPS jetzt mit der Farbdarstellung zu tun haben soll
17827 schrieb:
, aber okay… :P

7325 schrieb:
gebe ich in allen Punkten Recht. Mehr als 8Bit pro Farbkanal (=24bit = True Color) macht mit der derzeitigen Technik keinen Sinn.

Kurze Erklärung, für alle, die sich da nicht so gut auskennen:
RGB hat 3 Farbkanäle, Rot, Grün und Blau, jede dieser Farben hat 256 Abstufungen (8 Bit), die dargestellt werden können. Die Endgültige Farbe, die wir auf diesem Pixel sehen setzt sich aus der Mischung der 3 Farbkanäle zusammen. Das bedeutet es können 16,77 Millionen Farben angezeigt werden (256[SUP]3[/SUP]).

Gibt man einem Monitor/TV mit einer Farbtiefe von 24 Bit (8Bit pro Kanal) nun etwas mit höherer Farbtiefe ist es dem Monitor/TV logischerweise nicht möglich dies darzustellen. Es wird dann entsprechend angepasst und die Farbtiefe, die wir sehen ist unverändert bei 24 Bit.

Soweit ich weiß gibt es zwar bereits Geräte mit höherer Farbtiefe, allerdings nicht für Endverbraucher, heißt keine von uns könnte aktuell so etwas kaufen/besitzen ^^

Warum sollte man also eine Datei mit 10Bit pro Farbkanal anschauen, wenn man auch die mit 8Bit sehen kann? Genau! Es ist sinnlos.


Off Topic: Mamoru? Bester Avatar... :D
 
  • Like
Reaktionen: Sevion

Windwusel

Invisible
Otaku König
25 Jan. 2015
243
48
28
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Ach das hat nur mit der Farbe zu tun oO
Dann wundert es mich aber das gerade diese Files nicht problemlos bei mir liefen. Wenn es nur die Farbe gewesen wäre, würde es ja optisch bloß schlechter aussehen. Ich schätze die Files mit 10 Bit werden auch 60 FPS sein. Zumindest diese die ich geladen hatte.
 

Freeker

der nicht Langweiler
Otaku Gott
Ex-Mitarbeiter
25 Nov. 2013
1.133
98
48
Eifel
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

17827 schrieb:
Warum sollte es schlechter aussehen wenn du theoretisch mehr haben hast :D

Und nur weil es 10Bit Dateien sind, haben die keine 60 frames. Animes haben wie Kinofilme in der Regel 24 frames. In der Theorie nimmt das Auge nicht mehr als 24 Bilder pro Sekunde wahr.
Animes mit 60 frames sind zumindest hier im Forum mit dem Kürzel “HFR“ oder ähnlichem gekennzeichnet.
Allerdings sind diese zusätzlichen frames auch nur nachträglich eingefügt worden. Praktisch sieht man keinen wirklichen Unterscheid. Es läuft aber gefühlt angenehmer
 

Sevion

Otaku Experte
25 Aug. 2014
134
12
18
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

17827 schrieb:
: Nochmal zur Klarstellung; die Anzahl an Bildern pro Sekunde ist nicht an die Farbtiefe gekoppelt.
Es kann also sowohl Videodateien geben in 60 FPS in 8 bit als auch in 10 bit sowie auch Videodateien in ~24/25/30 FPS in 8 bit als auch 10 bit geben.
Das sind zwei Faktoren, die völlig getrennt von einander in eine Videodatei einfließen.

HFR steht nur für "High Frame Rate" und sagt nur aus, dass die Videodatei mehr als die "üblichen" ~24/25/30 FPS hat und ist eher ein Werbe-Kürzel.
Man kann HFR etwa gleichsetzen mit dem "HD", welches für 720p und 1080p steht. (Genauer: HDready ist 720p, FullHD ist 1080p)
i.d.R. wird HFR genutzt für 48 oder 60 FPS, und da HFR nicht für eine feste FPS-Anzahl steht, wird oftmals HFR/60FPS oder HFR/48FPS geschrieben.
48 FPS sind eher für Kinos geläufig, während 60 FPS genutzt werden um die Bildmenge synchron zu den 60 Hz der meisten Monitore zu halten.

Praktisch sieht man keinen wirklichen Unterscheid.
Nur weil es nachberechnete Frames sind, die zugegeben nicht immer "perfekt gezeichnet" sind, so sind es dennoch "echte" Bilder und der Unterschied ist absolut wahrnehmbar - sofern das eigene Wiedergabegerät die Leistung besitzt um keine Bilder bei der Wiedergabe verwerfen zu müssen.
 

Tet2

Otaku König
28 Dez. 2013
246
41
43
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Ich muss mich hier leider mal korrigieren.
Ich habe über die 2 Tage hinweg mehrmals ein Video Encodet und hab dieses blöde Dithering einfach nicht rausgefiltert bekommen.
Aus Verzweiflung meiner selbst habe ich es in die 10Bit_x264.exe reingeworfen und siehe da, deutlich weniger Dithering.
Das bedeutet wohl, wie ich auch schon oben sagte, dass es in diesem Bereich, dank des höheren Farbspektrums, zu deutlich verringertem Dithering kommt, was der Videoqualität zur gute kommt.
Ich mag es zwar nicht das zu sagen, aber ich werde wohl die Videos in 10Bit kodieren müssen, da mir dort die Qualität einfach mehr gefällt.
 

XRA9

Assrape America!
Nolife
Uploader
2 Aug. 2013
650
4.986
93
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Die Prozessorauslastung könnte man verringern, indem man die Unsitte, mit Level 5.1 und 16 Referenzframes zu komprimieren, nicht betreibt. Das hat so ziemlich den größten Einfluss auf die Systemressourcen, die verwendet werden. Auch darf man natürlich nicht vergessen, dass ein ARM immer noch schwächer ist als ein x86/64-Prozessor. Aber das nur am Rande.

10 bit pro Pixel helfen vor allem den Encodern, weniger den Zuschauern. Wie schon erläutert, können damit mehr Farben dargestellt werden. Das bedeutet aber auch, dass man Farbunterschiede exakter darstellen kann und das ist gut bei Farbverläufen ("Gradienten" im Fachjargon). Banding kommt ja genau dadurch zustande, dass ein Farbübergang an manchen stellen nicht die exakte Farbe, sondern den nächstbesten gerundeten Wert anzeigt. Der Unterschied zum nächsten Farbwert ist dann zu groß und das macht sich als Streifen bemerkbar. Mit 10 Bits statt 8 kann man hier Farben exakter darstellen und Dithering, Grain oder was auch immer man da sosnt nimmt, wird unnötig. Dasselbe gilt übrigens auch für ganz dunkle Szenen, die sehen mit 10 Bits pro Farbkanal besser aus. Auch andere Bildfehler kann man durch eine exaktere Darstellung von Farben beheben oder zumindest eindämmen und das alles ohne die Bitrate aufzublähen. Deswegen hält z.B. die US-Fansubszene große Stücke auf 10 bit.

Bzgl. Durchsetzen bei Hardwareherstellern: HEVC wird 10 bit zum Standard machen, d.h. die Geräte werden auch 10-bit HEVC unterstützen müssen. 10-bit AVC könnt ihr aber vergessen, das lohnt sich dann gar nicht mehr und den meisten Käufern ist dieser ganze Streit um die Bittiefe herzlich egal. Wartet dann einfach auf die 4K-Blu-ray.
 

midnighter

Shintō-Priester
Otaku König
25 Juli 2014
232
32
28
Shintō Schrein
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Ich möchte kurz aber knapp die Argumente meinerseits vorbringen.
Jedoch sei gesagt, ich Encode ca. 12 Folgen Anime die Woche für euch alle durch meine Fansubgruppen.
Ich setze sowohl 10Bit (Unfreiwillig) als auch hauptsächlich 8Bit ein.

1. - 10Bit hat zweifelsohne ein höheres Farbspektrum, über welches 8Bit nicht verfügt.
dadurch soll vor allem der Effekt "Dithering" vermieden werden, jedoch gibt es für
8Bit Problemlos Filter, die diesen Effekt viel besser beheben wie es 10Bit tut.

2. - Keine Hardware-Dekodierung. 10Bit wird nur durch Software Dekodiert, anderst als
8Bit. Somit hat man mehr Auslastung.

3. - Spielt auf 2. an. Jeder der sich ein wenig auskennt hat schon einmal etwas von
Raspberry Pi gehört, den man perfekt als Mediacenter unter z.B. OpenELEC oder
RasapBMC betreiben kann. Dieser kann dann 10Bit dekodieren, aber was entsteht
wohl dabei? Richtig, die schlimmsten Bildfehler die ich kenne.

4. - 10Bit hat keinen sichtbaren Vorteil außer die Zahl 10.

5. - Die Inkompatibilität zu vielen Geräten gibt es bereits. Z.B. ein Galaxy S3 kann ein
1080P 10Bit VIdeo nicht flüssig Abspielen, wenn es eine Größe von z.B. 1,1GB hat
(Accel World Folge z.B.)

6. - Es gibt keine Monitore, die 10Bit anzeigen können.

b732bdac73.png


Fazit: Wenn man sich schon die Mühe macht 10Bit (Hi10p) zu Encoden, sollte man am besten die Source-Datei Filtern um so ein
ohnehin besseres Ergebnis zu bekommen und die Kompatibilität zu allen Geräten zu gewährleisten.

ba861a2a02.png


a9ef7aa1cd.png

7325 schrieb:
; Was redest du da für ein Unsinn? Es gibt sehr wohl Monitore mit 10Bit. Und die kosten keine halbe million sondern um die 300-400€! Ich selber habe einen gekauft, daher muss ich es ja wohl wirklich wissen. Ich kaufe solche Technik ausschließlich direkt aus Südkorea. Aber was du sagst ist auf jeden Fall Unsinnn.

Ganz nebenbei, von welchem rpi sprichst du denn. Ich habe einen rpi b und der hat auch mit dem media center probleme bei 720p videos mit 8bit. Kannst du mir mal bitte erklären wo da ein "weniger" Problem vorliegt? Außerdem hat er noch mehr schwierigkeiten mit AC3, sollen wir dass dann auch weglassen oder wie jetzt?
Ich bevorzuge in jedem Fall 10biit!

Wenn ich dir ein paar Angebote für 10bit Monitore(undbis 30") zukommen lassen soll, schreib mir einfach eine PM^^

mid hat gesprochen xD
 
  • Like
Reaktionen: Rena_Chan

Tet2

Otaku König
28 Dez. 2013
246
41
43
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Danke mid, aber nein danke.
Deine Argumentation kann ich nicht ganz verstehen, da du meine kaum Ansprichst und selbst keine Gegenargumente bringst.
Von daher finde ich das momentan wenig konstruktiv zur Diskussion hin.
Mit meinem rpi habe ich keine Probleme 1080P @ 60FPS 8 Bit abzuspielen. Das funktioniert Problemlos. 10Bit ist das Problem.
Siehe: Hi10P - Kodi
Da es keine Hardwaredekodierung gibt außer bei den neu erscheinenden Grafikkarte Titan X bzw 390X Generation, braucht man Software,
die eben Leistung braucht. Ergo: Kein günstiges Mediacenter für 10-Bit dank Inkompatibilität.
AC3, FLAC, sogar DTS stellen bei mir kein Problem dar.

12094 schrieb:
Außerdem sollte ich dich darauf hinweisen, dass Vollzitate unerwünscht sind.
 
Zuletzt bearbeitet:

qooosy

Gesperrt
Abtrünniger
Seelenverkäufer
1 Juni 2013
396
4.295
93
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

btw
nicht alle User sind bereit, die momentanen Anforderungen zu folgen, denn dazu braucht mann viele €uros.
Von meiner Seite aus, bin ich auf Kedakai´s Seite.
Das Ganze wird so ablaufen, wie zB von avi zu mkv.

Still und ruhig...

und... tu nicht so überheblich, midnighter,
das nervt mich :mad:
 

midnighter

Shintō-Priester
Otaku König
25 Juli 2014
232
32
28
Shintō Schrein
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

1463 schrieb:
; Tschuldige qooosy, bin noch etwas angekratz. Es ging um die Monitore fü ne halbe Million. Ich halte den rpi für ne wirklich schlechten Grund denn die Animes sind nicht dafür geschaffen um auf den rpi zu laufen, oder etwa doch? Ich habe auf jeden Fall probleme mit ace denn ac3 wird garnicht erst abgespielt. Und auch noch andere Probleme wie verzögerter Ton und ähnliches habe ich bemerkt. Aus diesem Grund nehme ich auch wie gewohnt kein rpi sondern meinen Pc zum Betrachten von Animes. Das mit den Monitors für 400€(gibt auch 24" für 300€ is doch wirklich nen schnäppchen wenn sie doch sonst 500.000€ kosten oder etwa nicht?)
mid^^
 

Equinox

El Psy Congroo.
Ex-Mitarbeiter
Otaku König
4 Apr. 2014
287
29
28
Space
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

1463 schrieb:
; ..Es ging um die Monitore fü ne halbe Million...

Dieser Shoutbox Schnipsel ist leider aus etwas aus dem Kontext gerissen - hatte mich später auch korrigiert. Ich meinte zu dem Zeitpunkt 16-bit Farbtiefe. Man kann dennoch davon ausgehen, dass ein Otto-Normalverbraucher auch keinen 10-bit Monitor besitzt. Da diese eigentlich nur (zumindest noch) im professionellen Bereich eingesetzt werden.
 

Tet2

Otaku König
28 Dez. 2013
246
41
43
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

12094 schrieb:
Das ist aber trotzdem total Offtopic.
Es geht darum, dass man, wie jeder Normale Mensch, nicht viel Geld für z.B. Hardware ausgeben will, die es auch günstiger gibt.
Bzw. man will kein Feature bezahlen, dass man nicht oft benötigt.
RPi unter Kodi kann ohne Probleme jeden Audio und Videocodec abspielen, nur bei 10Bit entstehen Farbfehler bzw. Pixelfehler.
Also, wieso sollte ich 150+ für einen Mediaplayer Zahlen, wenn ich nen RPI mit Upnp Server, der mit USB-Strom funktioniert und 3 Watt braucht (Auch wenn 4 Watt angegeben sind), verbraucht und sowohl in der Anschaffung als auch im Betrieb mindestens 500% günstiger ist, für 30 Euro haben kann.
Fakt ist: 10Bit ist und bleibt eine Software-Dekodierung, was Kompatibilitätsprobleme aufwirft.
Wieso sollte man auch 400 Euro für ein 10 Bit Feature zahlen, wenn es 8Bit für 130 gibt, mit exakt gleichen Spezifikationen?
Ergibt keinen Sinn.
 

Lux49

Otaku Novize
23 Feb. 2015
38
0
0
[email protected]
AW: 10Bit, warum wir es eigentlich gar nicht brauchen.

Der einzige Unterschied, den ich bemerkt hab bei 10Bit ist, dass es viel mehr Leistung braucht als 8Bit. Es hat keinen Vorteil außer, dass es mein Media Center in die Knie zwingt (Kodibuntu x86 auf einem Core2Duo mit Radeon HD 5450). Wenn man ein 10 Bit Video auf 8 Bit runterrechnet, dann muss man die 4fache Bitrate nehmen um einigermaßen verlustfrei da zu stehen, wie der Link von
1574 schrieb:
gut zeigt. Aus einer 250 MB großen Datei wird also eine 1GB große Datei in Blender.
Mit meinem billig Monitor kann ich da sowieso keinen Unterschied erkennen, wenn ich beide Dateien nebeneinander abspiele. Vielleicht, wenn die Kompatibität wiederhergestellt ist, dass dann 10 Bit wieder mehr Sinn macht, aber momentan ist mein Handy nicht in der Lage, die oben genannte 10 Bit Datei abzuspielen.
Eventuell, dass 4K in 10Bit Sinn macht, da ja dort auf die Detailstärke geachtet wird, was ja 10 Bit besser erreichen kann. Vorallem würde 10 Bit bei 4K für keinere Dateien sorgen, was aber momentan eventuell eher unrelevant ist.
Im Moment ist 10 Bit allerdings sehr kompliziert und unvorteilhaft, was das praktische angeht.