Welcome to our Community
Wanting to join the rest of our members? Feel free to sign up today.
Sign up

Zukunft der Grafikkarten - Frames Per Second vs. Frame Time

elkeZ

Ex-Mitarbeiter
Otaku König
8 Okt. 2013
285
188
93
Da ich zwecks einer Anschaffung sehr viel Zeit mit Recherchen über aktuelle GPUs verbracht habe, bin ich auf ein paar interessante Denkanstöße gekommen. Hier wollte ich mal hören, was ihr von denen haltet.

Seit Jahren ist das klassische FPS-Benchmarking die Messlatte für jeden Grafikchip gewesen. "Wie viele Bilder pro Sekunde bekomme nich für mein Geld?"
Natürlich ist das auch nach wie vor das Hauptkriterium - neben Preis, Lautstärke und Stromeffizienz.

Doch seit Kurzem ist in vielen Zeitschriften und Blogs die Rede von der sogenannten "Frame Time". Was ist das?
Frame Time ist die genaue Zeit, die eine Grafikkarte braucht, um ein Bild zu berechnen und auszugeben.

AdvWarfare_2560x1440_PLOT_0.png


Warum gibt es das und warum ist es auf einmal so wichtig?

Nun, vor ein paar Jahren und Monaten fiel immer mehr und mehr Leuten auf, dass es bei moderneren und umfangreicheren Spielen häufig sogenannte "Mikroruckler" gibt. Diese erkennt man daran, dass man trotz hoher und stabilere Framerate zwischendurch kleine "Einbrüche" wahrnimmt. Für 1-2 Frames braucht die Grafikkarte oder ihr Treiber kurz eine weitaus längere Zeit als für die umliegenden Frames, was ein unangenehmes, kurzes Stocken verursacht. Bei der obigen Grafik kann man das sehr gut an den stecknadelartigen Ausschlägen erkennen. Meistens tauchen sie nur sehr kurz und vereinzelt auf, allerdings werden diese mittlerweile als störender als gleichmäßigniedrige Bildraten einstuft.

Die Ursache können sehr viele Faktoren sein, auf die ich auch nicht genauer eingehen kann.

Jedoch ist mir aufgefallen, dass der Speicher der Grafikkarte doch eine maßgebliche Rolle spielt.
Frametimes_GTX-980-Ti_Watch-Dogs_PCGH-07-2015-pcgh.png


Zum Beispiel ist hier zu erkennen, dass die Grafikkarten, die dem Spiel mehr als genug Grafikspeicher zur Verfügung stellen, den diesen Einbrüchen verschont bleiben. Wer die 970GTX und ihren Speicherfehler kennt, kann sich denken, wie dramatisch diese "Einbrüche" bei ihr ausfallen.
Übrigens waren bei allen Messungen, die ich bisher gesehen habe, die AMD Karten am schlechtesten. Sprich, sie hatten selten einen harmonische Bildrate.

Wer sich bei Google oder Youtube umsieht, wird viele Benchmarks finden, die sich stark auf diesen Frame Time Messung beziehen.

Was sagt ihr dazu? Habt ihr selber schon Erfahrungen mit solchen Mikrorucklern gemacht? Kennt ihr Spiele, in denen es besonders schlimm ist? Gebt einfach mal euren Senf dazu, vielleicht lerne ich ja noch was :)
 

Anhänge

  • Frametimes_GTX-980-Ti_Watch-Dogs_PCGH-07-2015-pcgh.png
    Frametimes_GTX-980-Ti_Watch-Dogs_PCGH-07-2015-pcgh.png
    360,8 KB · Aufrufe: 70
  • Like
Reaktionen: 4myAss

MachineDeth

Otaku Amateur
9 Jan. 2015
16
0
0
AW: Zukunft der Grafikkarten - Frames Per Second vs. Frame Time

Das was du hier ansprichst, kannte ich vorher unter dem begriff lag spikes. mikroruckler hab ich bis jetzt immer mit einem multiplen grafikkarten betrieb verbunden. voon frame times hab ich aber noch nichts mitgekriegt. ich werde auf jedenfall auch die von nun an in meine kaufentscheidung miteinbringen, falls es sich denn preistechnisch wirklich auszahlt!
danke sehr!
 

Silversurfer1402

Otaku Amateur
10 Okt. 2015
3
0
0
AW: Zukunft der Grafikkarten - Frames Per Second vs. Frame Time

Ja das kannte ich bisher auch nur im Zusammenhang mit Pc´s in denen 2 Grafikkarten verbaut sind.

Oft werden die Treiber auch auf bestimmte Benchmarks optimiert damit noch ein paar Bilder mehr raus kommen. Naja am besten bei verschiedenen Seiten die Benchmarks ansehen bevor man was kauft! Interressant sind auch G-Sync (nvidia) und Free-Sync(AMD). Damit wird die Bildwiederholrate des Bildschirms immer genau der Grafikkarte angepasst! Das geht aber nur bei entsprechenden Monitoren und Grafikkarten!
 

louizz10

Otaku Amateur
1 Okt. 2015
12
0
0
AW: Zukunft der Grafikkarten - Frames Per Second vs. Frame Time

Ich kenne den Begriff Mikrorukler genauso wie meine Vorredner nur im Zusammenhang von parallel Betrieb mehrer Grafikkarten. Doch auch hier haben sich Hersteller was einfallen lassen. Für mich selbst kamen solche nie in Erwägung, da ich lieber meine Alte verkauft habe und mit etwas Aufpreis die aktuellste Serie geholte habe.

Ich bin zwar an die FPS-Angabe gewöhnt, doch insgesamt die die Frame Time Angabe durchaus sinnvoller. Besonders wenn die Framerate bei ~30 oder leicht darüber liegt kann sich bei ungleichmäßiger Ausgabe der Bilder es rukelartig anfühlen, da es sich nur um einen Durchschnittswert handelt. Übertrieben gesagt könnten in der ersten halben Sekunde alle 30 Frames gezeigt werden, und in der nächsten hälfte sieht man ein Standbild. Natürlich wird das so extrem nicht passieren, doch bei einer FPS Angabe wird immer angenommen, dass die Frames gleichmäßig über den Zeitraum verteilt sind, was an sich nicht stimmt.
Ich wäre für beide Angaben. Denn mit einer Frame-Time von 20ms weiß ich persönlich nicht, ob es spielbar ist oder nicht^^
Wenn die Hersteller es auf die Reihe bekommen eine gleichmäßige Wiedergabe zu realisieren kann von mir aus gerne auf die Frame-Time verzichtet werden.
 

killerkappi

Otaku Novize
10 Feb. 2014
35
0
0
Schweiz
AW: Zukunft der Grafikkarten - Frames Per Second vs. Frame Time

Nun ich kann das leider bestätigen, wenn der Ram nahe am vollwerden ist bei der GTX970 gibt es teilweise solche lag spikes je nach game.Mit voll rede ich natürlich von den 3.5GB, welche normal angesteuert werden der Rest macht ja nach meinem wissensstand nach nur kleine arbeiten. Nun die Frametime ist eine Interessante Methode die Leistung zu messen aber ich glaube kaum das dies Massetauglich wird, da diese verwirrt wären warum ein kleiner Wert besser ist :yoyo87: