neuer PC.....+ Benchmarks

  • Beste Gamerzeit aller Zeiten.

    Man wie vermisse ich das.

    Ja, da war die persönliche soziale Komponente noch dabei, man hat da ja noch ganz andere Sachen gemacht als nur gedaddelt, zumindest bei den dezenten Privat Happenings weit unterhalb von Hundertschaften LAN Parties. :thumbs up:

  • Ja, da war die persönliche soziale Komponente noch dabei, man hat da ja noch ganz andere Sachen gemacht als nur gedaddelt, zumindest bei den dezenten Privat Happenings weit unterhalb von Hundertschaften LAN Parties. :thumbs up:

    Also hier in Braunschweig, ich glaube ich habe das mal erzählt. Wir waren in einer alten Fabrikhalle. Ich war mit im Orga Team und 1 mal im Monat ging die Party ab. So ca. bis zu knapp 100 Suchtis. Immer von Freitag bis Sontag Abend.

    Und ja es wurde auch gespielt, aber das andere drum herum war viel viel wichtiger.

    Eben die Sozialen echten Kontakte, und vor allem auch der "Legale" Austausch von Daten über das Netzwerk. :joint:

    Es war einfach nur Fun Pur über die 3 Tage und es war jeden Monat eben die Haupt Einnahme Quellle unseres Stamm Pizza Lieferanten.

    Und damals gab es ja noch nicht so viele Pizza Bring Dienste, oder fast gar keine. Wir hatten unsere eigene Pizzeria mit der wir das vorher abgesprochen hatten. Natürlich eine echte Italo Pizzeria. :dance:


    Gespielt wurde Quake 3, UT 99, CS, FiFa und Starcraft im Wettbewerbsmodus. Dafür gab es dann auch Preise am Ende. und die waren teils richtig Fett.

    Aber auch viele andere Spiele wurden gegeneinander gezockt und vor allem auch Eigengebaute Maps im Netzwerk getestet. Vor allem dank der UEngine ging es da bei UT99 richtig ab bei den eigenen Maps die man gebaut hatte.


    Oh man wie ich diese Zeit wirklich vermisse.

  • Eine andere Erklärung hätte ich dafür halt einfach nicht. :verzweifelt:

    Ich denke das es in einigen Titeln echt nerviger ist jedes mal ein paar Millisekunden auf das JIT Compile der Shader zu warten als ein mal 10 Minuten vor dem Spielstart. TLOU schießt da allerdings den Vogel ab.

  • Ich denke das es in einigen Titeln echt nerviger ist jedes mal ein paar Millisekunden auf das JIT Compile der Shader zu warten als ein mal 10 Minuten vor dem Spielstart. TLOU schießt da allerdings den Vogel ab.

    Ohne Frage, aber ich bin mir auch nicht ganz sicher ob die eingesetzten Shader mittlerweile zu komplex sind aus Bequemlichkeit der Abläufe wegen.

    Solche Aussetzer sind schließlich auch nicht allumfassend und die Häufung seit UE4 wird vermute ich zumindest Ablaufbedingt sein, sonst müßten es ja quasi alle Engines aufweisen, was aber auch nicht der Fall ist. :roll:


    Ich meine das HDD mit der Datenflut Zugriffszeit bedingt Probleme haben, geschenkt.

    Aber SSD schaufeln wie Weltmeister und die MehrkernCPUpower ist so exorbitant hoch das es eigentlich fast unmöglich sein müßte die Daten nicht rechtzeitig zu liefern.

    Kommt mir so vor wie am Anfang von C wo alle Welt sinnlos bequem in "Hochsprachen" Power verschwendet hat anstelle ultraperformant und kompakt in Assembler zu Coden mit etwas mehr Gedankenschmalz.

    Wenn man heutige Programmgrößen nur auf dem Handy anguckt die quasi nichts können, da bekam man damals hunderte Spiele inkl. GFX und SFX unter. :angst:

  • Der Datentransfer vom Massenspeicher ist nur ein Faktor der Speichertransfer RAM<->PCI<->VRAM und eben die Compile-Berechnung schlägt da rein, es sind halt nimmer tausende sondern Millionen von Shader-Pixel zu berechnen zu jedem Frame.

    Und klar unterschiedliche Spiele und Engines handeln das unterschiedlich.

    Yo mir scheint auch das vieles an Qualität und Optimierung in der Programmierung verlorenes Wissen ist, verglichen zu früher, eben nicht nur im Grafik und Effekte-Department. Ich glaube die sollte statt mit Java eher mal wieder mit Fortran und Lochkarten ran ^^

  • Kommt mir so vor wie am Anfang von C wo alle Welt sinnlos bequem in "Hochsprachen" Power verschwendet hat anstelle ultraperformant und kompakt in Assembler zu Coden mit etwas mehr Gedankenschmalz.

    Und genau da scheint auch das Problem zu liegen. Die meisten haben doch gar nicht mehr gelernt die Hardware direkt anzusprechen. Man schreibt bequem alles in Hochsprache mit diversen Tools/Visual Studio die es dann compilieren. Mag ja alles gar nicht schlecht sein und ist wirklich eine Erleichterung, aber der Code der dann bei rauskommt ist eben extrem aufgebläd. Da wird einfach massig an Resourcen verschwendet.

  • @TLOUP1:


    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
  • Bevor ich es wieder vergesse: die RTX 4070 soll nun 12 GB VRAM haben und am 13. April erscheinen preis ca. 599 $!


    Ich vermute sie wird mit dem Pathtracing in CP 2077 das am 11. April frei reingepatcht wird, und mit 8 GB VRAM wären ihr wohl in 1440p die Luft ausgegangen. Ich schätze das die RTX 4070 in 1440p mit DLSS Framegeneration 60 FPS+ durchhalten wird in 4K so eher 45 FPS+.


    Pathtracing wird nicht ein "exklusives" Nvidia Feature sein sondern auf GPUs aller Hersteller funktionieren laut CD Projekt Red. Nvidia sieht da nur ihre 40er GPUs für gerüstet da diese sehe "Powerfull" sein und dank DLSS-Framegeneration.


    DLSS-Framegeneration ist ein Feature von DLSS, allerdings kann es ohne das Upsampling von DLSS betrieben werden. AMD arbeitet an FSR 3.0 mit Framegeneration und obwohl diese Quartal eine API und SDK dafür erscheinen soll, würde damit nicht vor Ende Q4 rechnen.

    Framegeneration selbst ist wie RTX seltsam. Es soll mehr FPS liefern, und das tut es auch. Schafft das aber nur wenn befriedigende FPS bereits hat. Im Idealfall würde man die FPS-Zahl verdoppeln, aber so wie es derzeit umgesetzt wird(auch AMDs Lösung macht das nicht anders) erreicht es maximal 50% mehr Frames, da zwischen zwei errechneten Frames einer interpretiert und eingefügt wird. Nun wissen wir diese interpretierten Frames sind häufiger Fehlerhaft, was aber kaum auffällt da sie nur kurz zu sehen sind. Hat man nur weniger FPS sind die Frametimes länger, und damit der Zeitraum wie lange der Frame angezeigt wird und so werden die Fehler besser sichtbar. Zusätzlich müsste man darauf achten das, die interpretierten Frames nicht später als Quelle für weitere interpretierte Frames dienen damit die Bildfehler sich nicht weiter verbreiten. Natürlich gibt es noch einige Optimierungsanssätze für Framegeneration in Videospielen aber mir scheint das ein Nischenansatz mit absehbarere Sackgasse zu sein in der Laufer der Zeit zu sein.

  • Also im Multicore ist dank acht statt sechs Kerne, ne Ecke schneller im Singlecore nicht, was zu erwarten war.

    Da PBO bei den 3D CPUs nicht so einfach ist wie bei den anderen, sehe ich erst mal davon ab da der dank des Kühlers nicht an die 80° Marke kommt und entsprechend hoch boostet (4562 MHz auf einem Kern bei Singlecore, der Rest so bei 4249 MHz bei Multicore), höher geht er nicht da die CPU da so zwischen 82 bis 84 Watt verbraucht.


    R75800X3D_wo_PBO.jpg

  • Also im Multicore ist dank acht statt sechs Kerne, ne Ecke schneller im Singlecore nicht, was zu erwarten war.

    Da PBO bei den 3D CPUs nicht so einfach ist wie bei den anderen, sehe ich erst mal davon ab da der dank des Kühlers nicht an die 80° Marke kommt und entsprechend hoch boostet (4562 MHz auf einem Kern bei Singlecore, der Rest so bei 4249 MHz bei Multicore), höher geht er nicht da die CPU da so zwischen 82 bis 84 Watt verbraucht.

    Mein Problem bei den Ryzen CPUs ist, dass sie generell gerne in diesen generischen Benchmarks sehr schnell sind aber nur die mit 3D wirklich den Intel Pendants bei Games auch schlagen können. Nur die mit 3D kosten dann auch gleich wieder mehr, insbesondere wenn man Mainboards und RAM etwa bei der aktuellen Generation mit einbezieht. Dann sind die Systeme gleich richtig teuer.


    Das sah ich beim Ryzen 5 3600, dem Pendant zu meinem i7 8700k damals. Im Cinebench und Co schlägt der Ryzen meinen Core i7 bei fast allen Benchmarks (minimal). In Spielen wiederum liegt der i7 in den meisten Titeln 5 FPS vorne, in einigen sogar 10, nur bei ganz wenigen Titeln konnte der Ryzen mithalten aber in keinem einzigen war er schneller.

    Genau deswegen gebe ich auch absolut nichts mehr auf Cinebench, Geekbench, Blender oder 7ZIP Benchmarks. Ob ich eine Datei in 5 oder 7 Sekunden entpacke ist mir völlig egal, außerdem kommt es da auch stark auf die HDD / SDD an.


    Auch wenn es viele nicht gerne hören, meine Erfahrung ist, dass die Intel CPUs im täglichen Einsatz einfach stabiler laufen und vor allem auch nicht so heiß werden, was das Kühlen merklich einfacher macht.


    Bei den Grafikkarten ist es mir eigentlich recht egal, ich mochte AMD da immer schon gerne und hatte auch jahrelang nur AMD, aber momentan ist das einzige was für AMD spricht der minimal günstigere Preis. Ich meine, wenn ich mir eine neue GPU hole, dann soll die gefälligst auch gut Raytracing können, denn wenn ich dann Spiele mit Raytracing zocke, dann sollen die auch vernünftig aussehen und laufen. Solange die das nicht hinkriegen gebe ich keine 500+ Euro für eine neue Grafikkarte aus.



    Wo mir AMD vor ca. drei Jahren unsympathisch wurde war bei einer Ryzen Präsentation, wo sie hervorgehoben haben, dass der Ryzen 10 Mal schneller bei der Videokodierung ist als Intel. Da dachte ich nur "WTF!? Wer kodiert Videos per CPU (in Software)? Selbst meine Grafikkarte ist 100 Mal schneller als der Ryzen".