neuer PC.....+ Benchmarks

  • Nice...BF4 läuft entspannt mit mit 160 FPS....so soll es sein..;-)

    Leider kickt mich Punkbuster ständig und es ist jetzt nicht mehr die Zeit zum suchen....


  • Könnte daran liegen das Bf.4 im Gegensatz zu Bf.5 weniger Ressourcen frisst,,,


    entweder hat Dein NT ne Macke oder gar deine Graka hat ein Ding weg :oops



    Zu Punkbuster am besten per Hand löschen und dann Neu installieren

    und alles bis zum Ende durchlaufen lassen sowohl die pnkbstrA + B Installation :nicken:


  • HUNTшᴇʀᴋᴇʀ Ne, ich denke irgendwie mochte er den alten Settings Ordner nicht......wenn man alles neu installiert läuft ja alles ohne Probleme.....wüsste zwar nicht, was da stören könnte, zumal die Graka ja die gleiche ist, aber so läuft es jetzt ja......muss nur meine Einstellungen bzgl. Sensivity neu finden....

  • Ja natürlich...... :devil:

    Werde aber definitiv noch wieder BF4 spielen, dann kann ich nämlich jetzt tatsächlich mal ausprobieren, ob es wirklich stimmt, dass man mit 120 oder 140 FPS besser ist.....mein Monitor ist ja 144Hz

    Ich vermute da ja eher immer mehr Marketing & Placebo hinter....sonst bräuchte ja keiner immer die neueste Hardware....

  • Ja natürlich...... :devil:

    Werde aber definitiv noch wieder BF4 spielen, dann kann ich nämlich jetzt tatsächlich mal ausprobieren, ob es wirklich stimmt, dass man mit 120 oder 140 FPS besser ist.....mein Monitor ist ja 144Hz

    Ich vermute da ja eher immer mehr Marketing & Placebo hinter....sonst bräuchte ja keiner immer die neueste Hardware....

    Auf was beziehst Du diese Aussage :?:

  • Na ja, früher hies es "60FPS" müssen es sein, damit Du mitspielen kannst, dann wurde die Hardware wieder besser und es wurde suggeriert "120FPS müssen schon sein"....das nächste war dann 144 FPS....

    Es sagen hief ja auch manche, das das ein deutlicher Unterschied ist, und da bin ich eben gespannt, ob das Placebo durch gutes Marketing ist, oder ob ich auch tatsächlich einen deutlichen Unterschied merke.


    Ich habe ja bis jetzt immer gesagt, dass ich 60 FPS für absolut ausreichend halte

  • Na ja, früher hies es "60FPS" müssen es sein, damit Du mitspielen kannst, dann wurde die Hardware wieder besser und es wurde suggeriert "120FPS müssen schon sein"....das nächste war dann 144 FPS....

    Es sagen hief ja auch manche, das das ein deutlicher Unterschied ist, und da bin ich eben gespannt, ob das Placebo durch gutes Marketing ist, oder ob ich auch tatsächlich einen deutlichen Unterschied merke.


    Ich habe ja bis jetzt immer gesagt, dass ich 60 FPS für absolut ausreichend halte

    60Hz reichen auch bei weitem um ein normales Spielerlebnis zu haben.


    allerdings is der Sprung vom Spielgefühl her auf 144Hz enorm selbst ich merke

    das schon in Battlefield 3 mit 100Hz wie schön Sm00th das Game läuft :nicken:


    Is ein völlig anderes Spielerlebnis

  • Hab irgendwie nicht gefunden wo genau steht was das Problem ist... außer dass der PC einfach ausgeht. Was war mit dem Mainboard? Ist das was älter und war länger im Laden? Da Hawkeye etwas von PSU oder Mainboard Problem geschrieben hat.


    Eventuell ist die Mainboard Batterie fast leer? Sorgt auch manchmal für komische Phänomene.

  • Das hängt vom Spiel ab in kompetitiven Schooter ist die hohe FPS-Zahl ein Vorteil zum einem weil der Spieler der eher(Und sei es auch nur 0,5 Microsekunden) was sieht, der kann auch eher reagieren. Der zweite Verstärkende Vorteil ist die Verringerung des Lag, des eigenen Systems oder Reaktionszeit genannt. Je schneller der Monitor das Bild berechnet und dargestellt hat(ja auch Monitore berechnen ein Bild nur errechnen sie das nicht)umso schneller kann eine weitere Aktion ausgeführt werden. Der gleiche Monitor der ein Spiel in 60Hz(=60 FPS = neues Bild alle 16,6 ms) hat evtl. eine Reaktionszeit von 13 ms, bei 144 Hz nur noch 3 ms.


    Ja aber....Kino und TV lauft im Grunde doch auch nur mit 34/25 FPS und das menschliche Auge kann doch gar nicht mehr sehen bzw. wahrnehmen.

    Der Mythos stimmt nicht das geht auf das erste weltweite Kinoformat aus den 1920/1930 zurück, zuvor wurden zig verschieden verwendet. Erst mit diesem wurden 24 Voll-Bilder pro Sekunde gezeigt, die doppelt belichtet wurden womit wir 48 FPS haben. Deswegen "ruckeln" auch einige Kinofilme recht stark was man sieht wenn die Kamera sich auf zwei Achsen bewegt.[Twister ist so ein Beispiel ist gibt zu Beginn eine Kamerafahrt wo wir ein Auto durch die ländliche Gegend fahren sehen mit einer kreuzenden Straße in etwas weitere Ferne. Durch die beiden Strassen haben wir zwei gerade Linien im Bild, dabei fährt der Truck die eine lang, während die Kamera in einem Helikopter parallel zum Auto ist und mit dessen Geschwindigkeit sich vorwärts bewegt und langsam aufsteigt um so mehr und mehr von der Umgebung zu zeigen. Jeder der halbwegs sehen kann sieht das dies ruckelt] Allerdings sind wir damit groß geworden und empfinden das als normal und nehmen das gar nicht so sehr wahr.(Ähnlich wie mit der Lippensynchronität bei deutsch synchronisierten Filmen, ich sehe das sofort und nach 2 Minuten bin ich nur noch genervt, gehe ich auf die Straße und frage 20 Leute dazu sehen die das gar nicht)

    Jetzt kam aber das TV dazu das hierzulande in PAL und in den USA NTSC hatten. Weil wir denn Strom etwas anders als dort machen zeigen TVs in PAL 25 Bilder Pro Sekunde die der länge nach in Zeilen zerschnitten wurden und dann immer erst die ungeraden Zeilen, also Zeile 1+3+5+7..usw. und dann die geraden Zeilen, also Zeil 2+4+6+usw. gezeigt wurden, so das aus 25 Voll-Bildern 50 Halb-Bilder pro Sekunde wurden. Bei NTSC sind es eben 60 Halb-Bilder pro Sekunden dafür etwas weniger Zeilen insgesamt, als bei PAL. Also Kino zeigt 24 Bilder jedes allerdings zweimal hintereinander mit einer Schwarzblende zwischendurch und so dann 48 Voll-Bilder. TV zeigt hier dann die 50 Halb-Bilder. Nun wurden Kinofilme später auch im TV gezeigt, nun man kann hier ja einfach Bilder auch noch mal zeigen oder weglassen, aber was ist mit dem Ton der ist ja auch auf der Filmrolle und dann kann man nicht einfach einen laut wiederholen oder weglassen. Also trennt man Bild und Tonspur wieder auf bearbeitet die getrennt und fügt die wieder zusammen. Nun haben wir aber ein neues Problem, die Bildspur hat eine Laufzeitlänge von 91 Minuten und 37 Sekunden und die Tonspur aber 93 Minuten und 47 Sekunden. Also wird die Tonspur leicht beschleunigt, deswegen klingen die Schauspieler leicht anders(=höher) zu Hause als im Kino, mit dem Wechsel von NTSC zu PAL wird das nochmal stärker. Die Bilder werden im Pulldown 3 zu 2 zu 1 verfahren von 48 auf 50 bzw. 60 umgewandelt.(Das erläutere ich hier jetzt nicht) Später hatten wir dann noch die 100 Hz Tv's, bei KInofilmen war das egal wer allerdings viel Sportübertragung schaute, bei dem war das Bild nun wesentlich besser, denn TV-Studio-Kameras zeichneten auch mit den hohen Bildraten auf. Dann kamen die Laserdisc und DVD und die Bluray und plötzlich liefen TVs nicht nur in PAL und NTSC sondern in HD, Full-HD und UHD und das in i und p(Halb- und Voll-Bilder). Kino hatte mit der Auflösungserhöhung kein Problem, Zelluloid ist eh recht hoch aufgelöst aber es steckt noch bei 48 FPS. Erst der Hobbit wurde groß als HRF(High Refresh Rate) Film mit 60 FPS gemacht und gezeigt. Das kam aber nicht so an weswegen sich das nicht durchsetzen(Ich fand das auch übelst). Erst Avatar 2 und 3 sollen mit bis zu 120 FPS kommen so wie der erste 3D Revolutionierte soll die das mit HRF machen.

    Inzwischen ist vieles davon eigentlich überholt, in Halb-Bildern schaut niemand mehr und zeilenbasierte Übertragung von Bildsignalen (siehe VGA-Anschluss und DVI-Anschluss) nutz auch keiner mehr.[Im HDMI ist das aber drin das der eigentlich zurück geht auf ein zeilenorientiertes verfahren, DP eben nicht]

    Deswegen sahen TV-Produktionen oft anders aus als Kinofilme im TV, man spricht vom sogenannten Soap-Effekt von den Soapoperas im TV(Seifenopern).

    Man hatte als in den 1920/1930ern festgestellt das 48 Bilder pro Sekunde flüssig genug aussehen und eigentlich sogar "nur" 24 Bilder reichen. Durch die TV Formate PAL und NTSC wurden da 25/30 Bilder raus und das geht auf die Herz-Zahl im Stromnetz zurück. Ergo leben wir mit der Mythe mehr als 25 FPS nimmt man eh nicht wahr und 60 FPS reichen dicke.

    Das tierische und damit auch das menschliche sehen arbeitet aber nicht im Polling-Verfahren( also alle xx-Zeitabstände werden Informationen übertragen, sprich alle 10 Millisekunden ein neues Bild) sondern im Interrupt Verfahren(Sobald eine neu Information Vorliegt wird alles laufende angehalten und die neue Information übertragen). Das kann es tun weil der "sehbereich" exklusiv nur dafür da ist. Und Natürlich hat das irgendwo eine Grenze aber so schnell ist die Technik noch lange nicht. Oder anders gesagt, begebt euch in einen komplett unbeleuchteten Raum, und lässt dort für ein Mini-Zeitraum ein Licht auf blitzen so das es unter 25 HZ passiert. Was meint ihr habt ihr das Licht gesehen oder nicht?^^


    Langer Exkurs bei 60 FPS hast du eigentlich alle 16,6 ms ein neues Bild, bei 120 FPS alle 8,3 ms, das ist ein gewaltiger Unterschied. Beim Sprung 120-144 oder gar 240, ist der Unterschied in Frametime wesentlich geringer, deswegen sind ja 360 Hz Monitore der letzte schrei.

    060=16,6666666666666666666666666666666666666

    120=08.3333333333333333333333333333333333333

    144=06,9444444444444444444444444444444444444

    240=04,1666666666666666666666666666666666666

    360=02,7777777777777777777777777777777777777

    Du siehst der Sprung von 120 zu 240 oder dazwischen ist unerheblich erst bei 360 hättest du einen vergleichbaren Effekt. 60 zu 120 macht allerdings ordentlich was aus.

    Eigentlich sollte nicht die durchschnittliche FPS angegeben werden sondern die durchschnittliche Frametime, denn das was wir als störend empfinden nämlich plötzliche Ruckler und Stotterer, schlagen sich in den FPS angaben nicht so wieder in den Frametimes schon.

    Aber FPS ist man gewohnt und mehr ist besser, aber es bleibt halt wichtig die 1% oder gar auch die 0,1% Lows zu zeigen da sich dort die Ruckler und Stotterer zeigen.

    In Singleplayer ist das egal solange die FPS über einem Wert wie sagen wir 48 liegt das wird als flüssig genug empfunden ;)

  • Mir ging es ähnlich T-Otto.


    Wechsel von WQHD auf 4k --> WOW

    Wechsel von 75Hz auf 144Hz --> Desktopbetrieb: WOW - Ingame: Hmm


    In Spielen hatte ich zu Beginn nicht den von vielen beschriebenen WOW Effekt bei 144Hz. Im Dektopbetrieb schon, wie weich sich alles bewegte. Heute merke ich den Unterschied sofort wenn das mal unter 80 FPS fällt. Daher nun der Wechsel auf 4k 144 Hz, denn nun ist die Hardware potent genug die Leistung auch zu liefern.