RX 7900 GRE gebenched

  • Hier mal die Performance-Werte meiner RX 7900 GRE, im stock Zustand.
    Der Stresstest im Furmark fördert nach ca. 14 Minuten 66° Celsius am Globalmesspunkt und 79/80° Celsius am Hotspot zu Tage, die alte RX 6750 XT hatte ein Delta von Global zu Hotspot von 30°(Allerdings Undervoltet und Overclocked), was dafür spricht das die Kühllösung der Steel Legend besser als der Challenger ist(hat fast nichts mit dem Chips zu tun). Dafür ist die neue Karte auch brachialer, schwerer und größer obwohl beide 2,5 Slot Karten sind kann ich nun die M.2 SSD unter der Karte nicht mehr sehen. Die SSD wird im stresstest der GPU übrigens 10° wärmer obwohl sie nur idelt. Die Lüfter gehen maximal bis 73% RPM, im Stresstest erreichen sie nur 28% und gehen bei 53° in den Stillstand über, den die Karte nach ca. 20-30 Sekunden nach beenden des Stresstest erreicht. Ein Spulenpfiepen kann ich nicht vernehmen bei der Karte.
    Der Verbrauch wurde in Spielen so mit 250W bis maximal 310W(Stresstest, Spiele meist so um die 270W) gemessen.(nur Graka nicht System)
    Getestet wird immer in 1440p Auflösung(2560*1440), mit dem, falls vorhanden, Benchmark der Spiele, per Treiber sind die maximal FPS auf 142 eingestellt da 144 Hz Monitor. Gefällt mir die Leistung im Spiel nicht wird upscaling getestet und der Performace Verlust durch RT an und aus.

    Cyberpunk 2077
    Meine "optimized" Settings(XeSS Ultra Quality) 96 aFPS. Zusätzlich mit RT Reflections On, dafür SSR(Screen Space Reflections) Off 61-76 aFPS, ich denke in Dogtown(Phantom Liberty-Level) reicht das nicht da dort ca. 20 FPS mal gern wegfallen.

    Overwatch 2
    Schon mit der RX 6750 XT liefen die Matches in 142 aFPS nur in einigen Heldenwahlscreens auf den neuen Maps ging die aFPS auf 125-138 zurück. Mit der RX 7900 GRE liegt die GPU-LOAD dort bei 80% mit nicht mal einsekündigen Spitzen bis 100% ca. 3-5 pro Minute, die FPS bleiben aber wo sie sind.

    The Witcher 3
    Mit XeSS in UQ alle Einstellung Maximiert (Hoch/Höchstens/Höchstens++) und alles an RT an 62 aFPS, RT Off 120-138 aFPS (Presets High-Medium-Low). Mit FSR Quality und zusätzlich den RT Presets On konnte ich 90-111 aFPS erreichen. Einen Bildqualitätsunterschied zwischen XeSS UQ und FSR Q ist mir nicht aufgefallen.

    Diablo IV
    Meine optimierten Settings meistens Ultra bis auf ein paar die visuell keinen Unterschied machen. In der Open World mit hoher Monsterdichte und vielen Kampfeffekten 120-142 aFPS, dabei werden 12,85 GB VRAM genutzt.

    Jusant
    Maximale Settings und TSR(Temporal Super Resolution Build-in Upscaler in UE5) 71-96 aFPS. Zuvor spielte ich nur in hohen Settings mit ca. 71 aFPS.

    Spider-Man Remastered
    Maximale Details nur Temporal Anti Aliasing, 138-142 aFPS RT off, RT Very High 71-96 aFPS. (RT Wert nicht so repräsentativ da nicht in der Open World gemessen.)

    Horizon Zero Dawn
    Max Details locked to 120 FPS, Compilation Stutter in First Run in Benchmark, Gameplay stays locked 120.

    Palworld
    Max Details 71-95 aFPS, zuvor nur High Details ca. 75 FPS.

    Alan Wake II
    Max Details, RT Off Upscaling off 55-65 aFPS, FSR Q Upscaling 65-90 aFPS, Optimized Settings FSR Q RT Off 91-121 aFPS all tested in Wood-Scenes.

    Marvel's Guardians of the Galaxy
    Max Details RT On 90-130 aFPS

    Atomic Heart
    Max Details, Anfangs in Oberwelt-Gebieten 70-110 aFPS, später in Gewölben 142 aFPS

    Shadow of the Tomb Raider
    Max Details RT Ultra 74 aFPS, RT High 76 a FPS, RT Medium 93 aFPS, RT Off 103 aFPS.
    SOTTR benutzt "nur" Schatten in RT On Settings, die Qualität ändert sich selbst nicht mit den Einstellung sondern die Entfernung in der die Qualitätsstufen der Schatten eingeblendet werden. Sprich Etwas wirft einen Schatten und steht 5m Meter neben euch da wird dieser Schatten in höchster Stufe gerendert, in 5-10 Meter eine Stufe drunter und 10-30 Metern noch ne Stufe drunter in 30-50 Metern in der niedrigsten Stufe bei 50+ Metern halt nur als Punktstatten oder gar ohne. Wenn ihr jetzt eine höhere Stufe wählt dann werden Schatten eine Stufe höher auch etwas weiter weg gerendert. Eine Ausnahme sind die Haarschatten von Lara auf Ihrem Schultern, Hals und Gesicht die in Medium und Off flackern, in Off wesentlich stärker.
    Am besten finde ich XeSS UQ mit RT High in 101 aFPS, aber da es nur der Benchmark war kann ich nichts zu Eindruck im Spiel sagen, Die unterschiedlichen RT Stufen machen nur die vielen Pop-Ins in Weitsicht viel(Medium) oder weniger(High) auffälliger.

    Remnant II
    Max Details No Upscaling 60-140 aFPS, das hohe Delta liegt am Tunneldesign <-> Open-World Hub Design, trotzt hoher FPS steuert sich das wie ich finde bescheiden zwar besser als mit der RX 6750 XT die mit FSR Q nur so 70-90 AFPS hinbekam, wo ich es aber für mich nicht spielbar befand, jetzt ist das nicht mehr so nur nicht so das ich es auch so spielen möchte.

    Last Epoch
    Max Details 140-143 aFPS bei 80% GPU-Load kein Wunder bei dem Miniauschnitt und der Grafik.

  • Jesus diese Auto-Settings in den Forza Spielen, so schlecht.


    @Spider-Man Remastered

    TAA aus FSR Q und RT Very High 90-142 aFPS.


    Starfield

    Nach 10 Minuten Shader Compilation (CPU 100%), Alt+TAB ging Problemlos und alles unter Windows lief, Habe ich alles gemaxxed und so 60-142 aFPS, wieder so ein hohes Delta da ich wie in Spider-Man in einem Savebereich feststecke und nicht von Vorn anfangen möchte. Daher 142 aFPS in kleinläufigen Bereichen und Dialogen und knapp über 60 aFPS in weitläufigeren Abschnitten.


    Forza Motorsport

    Technisch was nen schlechtes Game, Shader Compilkation "nur" ca. 5 Minuten (CPU ca. 50% last), recht geringes Performance Uplift durch Upscaling und bessere Nutzung, aber immer noch sehr geringer Uplift, erst nach Neustart.

    Ich hänge die ganzen Benchmarks-Screenshots mal gerared an 5,62 MB.

    Am besten fand ich das Setting: (Max Details RT Car Reflections und FSR Q 94 aFPS)

    Screenshot 2024-02-12 005216.jpg


    Irgendwelche Settings auf Auto zu lassen zieht die Performance nur runter, RTAO kostet auch nur und macht visuell Null Differenz, zumindestens im Benchmarkrun.


    Forza Horizon 4

    Hier hat der Shader Compile nur ca. 2 Minuten gedauert, die Automatik war grausig max 72 FPS in 1080p und dann kriegt sie das nicht mal hin (65 aFPS), danach alles aufgedreht(=High oder Ultra oder Extrem) in 1440p und liegt mit 142 aFPS im Treiber-Limit.

    Screenshot 2024-02-12 012222.jpg

  • Halo Infinite

    Kampagne: Max Details (Hoch oder Ultra), in der Open World 101-120 aFPS, in Gebäuden 142 aFPS

  • Ich weiß, du hast einen 144Hz Monitor und deswegen auf 142FPS max eingestellt. Ist aber ein wenig schade nicht zu sehen, wieviel wirklich maximal möglich wäre.


    Ich hatte mal so ältere Titel aus Spaß getestet und da dann 1000 FPS und mehr zu sehen war schon lustig.

  • Man kann im Adrenalin-Treiber recht simple im kleinen Rahmen Undervolten und Overclocken, dazu geht man auf den Oberreiter Leistung und den Untereiter Konfiguration. Dort muss man noch die Schalter umlegen was man per Hand ändern möchte.

    GPU-Tuning->Erweitertes Steuerung, für die GPU-Taktraten, VRAM-Tuning, Lüfter-Tuning und Leistungs-Tuning.

    An der Lüftersteuerung habe ich nichts auszusetzen als muss ich da auch nichts ändern und las das unangetastet. Dort könnte man das Stillstehen der Lüfter ausschalten und die Temperatur einstellen ab wann das geschieht , so wie die Kurve der RPM/Temp einstellen.

    Unter GPU-Tuning: kann man den Minimal und Maximal Takt einstellen, so wie die Spannung in Millivolt. Die fest integrierte Logik wählt die Taktrate trotzdem weiterhin und außerhalb von Spielen werden die dort hinterlegten Takte auch unterschritten. Als Standard sind Minimal Frequenz: 500 MHz und Maximal Frequenz: 2455 MHz, sowie 1050mV bei Spannung vorgesehen. Ich habe jetzt 1587 und 2803 (der maximal mögliche Wert), so wie 970 mV (weil ich in OW2 sehe das es dort ab und an mal abgefragt wird habe ich das nicht tiefer getestet) stabil laufen. Das irgendein Spiel die Maximaler Frequenz ausnutzt habe ich bisher noch nicht beobachten können meist nur so bis 2670 MHz.

    Beim VRAM-Tuning lasse ich die Speicherzeitgabe auf Standard und schiebe den Regler ganz nach rechts so das der Takt von ursprünglich 2250 MHz auf 2316 MHz steht. Beim Leistungs-Tuning erhöhe ich die Leistungsgrenze um 15 %, mehr geht eh nicht. Die Karte war vom Hersteller, im VGA-BIOS, um 100 MHz Boost und 213 MHz Basis-Takt bereits erhöht. Sie läuft Problemlos, sollte der PC mal nicht einwandfrei starten oder abstürzen, wird Adrenalin automatisch die Default-Werte wieder aktivieren, man kann die gemachten Einstellungen als Profil exportieren und könnte sowas dann wieder importieren und hat mit wenig Mausklicks die Übertaktung wieder aktiv.

    Bei der RX 6750 XT hatte ich nicht so einen guten Chip erwischt, dort konnte ich die Karte stabil nur bis 1130mV Undervolten und den GPU-Takt nur um 270 MHz hoch schrauben, zwar lief sie Anfänglich mit mehr Undervolt und Overclock stabil, dann stürzte der PC aber immer nach ner Stunde oder so spielen ab. Und danach verkraftet die Karte auch nicht noch mehr Undervolting und Overclocking, als das wo ich dann gelandet bin.

    Die Leistungsgrenze kann man eigentlich immer so anheben und inzwischen VRAM-Takt auch maxxen da die RDNA2 und RDNA3 gute Bins an VRAM-Modulen haben die das abkönnen und AMD da recht viel Sicherheitsabstand lässt. Beim Undervolting sollte man mit 1040 mV anfangen und sich dann in 10er-Schritten nach unten tasten was geht 1040 sollte eigentlich auch jede Karte schaffen. Bei Takt kann man so 1000-500 Mhz drauf schlagen und geht dann so in 50-100er Schritten runter. Das Ergebnis des dortigen Stresstest fand ich nicht so verlässlich besser ein Spiel laufen haben da man falls es nicht crasht, die Werte zur Laufzeit anpassen kann.


    In OW2 habe ich nun in 1440p mit allem gemaxxed und Up- und Render-Scaling aus und 100% so im Match 210-260 aFPS je nach Karte auf der gespielt wird und action im Match, in einigen Maps im Heldenauswahlscreen fällt die FPS bis in den 170er-Bereich runter.