neuer PC.....+ Benchmarks

  • Die hat aber auch "nur" 12GB RAM...


    Ich weiß nicht was genau Capcom da z.B. bei den Resident Evil Remakes macht, aber man kann selbst bei 1080p den Grafikspeicher bis auf 24GB aufblasen für die besten Texturen.


    Die RX 6750 XT wird als gute 1440p Karte genannt aber ein wenig zu schwach für 4k. Für den Preis ist sie allerdings nett. Die vergleichbaren GF 3070 haben alle nur 8GB RAM. (Was natürlich dämlich ist, da es sogar die 3060 in einer 12GB Version gibt). Abstriche muss man halt beim Raytracing machen.


    Persönlich bin ich immer noch mit meiner 1070 TI zufrieden, wenn ein neuer Monitor kommt, dann muss natürlich auch eine neue Grafikkarte her.

  • NVidias Karten sind a) viel viel zu teuer und haben b) zu wenig GDDRAM um längerfristig Leistungsstark zu bleiben und schwächeln schon jetzt vereinzelt, gerade mit RTX on.

    a) Ja

    b) Naja. Sie schwächeln bestimmt nicht so wie eine Radeon Karte bei RTX und auch längerfristig werden sie "leistungsstark" bleiben. Wo ich zustimmen würde ist, dass sie einfach zu wenig GDDRAM für den aufgerufenen Preis haben.


    Die 4090 hat wieder mein Interesse geweckt, da die Preise langsam aber sicher sinken und spätestens wenn sie bei 1500 ankommt werde ich zuschlagen. Am liebsten in Verbindung mit einem Ryzen 7900 (non X) und einem winzigen Case... wo die Verpackung der GPU schon größer ist. :lol:

  • b) RX 6800 schlägt RTX 3070 bei TLOU in 1440p und 4K mit RTX On wegen der Rams auf der GPU. Auf der RTX 3070 läufts du in ein GRam Limit obwohl da GDDR6X statt GDDR6 verbaut ist. RTX 4090 24 GB, RTX 4080 16 GB, RTX 4070 Ti 12 GB, RTX 4070 ca. 8 GB (~600$), RTX3080 10 GB, RTX 3070 8 GB, RX 6700 XT 10 GB, RX 6er drüber 12-16 GB(desktop), RX 7900 XT/X 20/24 GB. Vermutlich 8 GB einfach zu wenig. Klar derzeit sind es "nur" Hogwarths Legacy und TLOU, wo die da in die Limits laufen, aber wie sieht das in 6+ Monaten aus?


    Ha wie passend:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.
  • Du sagst es: bei 1440p und 4k. Gerade wenn jemand vernünftig auf 4k spielen möchte wird zu den großen Modellen greifen und nicht so schnell in das Problem laufen. Selbst mit meiner RTX 3090 komme ich auf WQHD selten auf 144Hz mit max Grafikeinstellungen.


    Ich vergesse das auch immer, aber ~65% (zumindest laut Steam Umfrage) spielen immer noch auf FullHD und wahrscheinlich auch noch mit 60Hz. Denen reichen auch 8GB und das auch längerfristig (nicht jeder ist so ein Suchti/Zocker wie wir).


    Versteh mich nicht falsch, aber auch ich finde 8GB RAM in 2023 unverschämt. Mittlerweile sollten 12 mindestens verbaut sein.

  • Ich vergesse das auch immer, aber ~65% (zumindest laut Steam Umfrage) spielen immer noch auf FullHD und wahrscheinlich auch noch mit 60Hz. Denen reichen auch 8GB und das auch längerfristig (nicht jeder ist so ein Suchti/Zocker wie wir).


    Versteh mich nicht falsch, aber auch ich finde 8GB RAM in 2023 unverschämt. Mittlerweile sollten 12 mindestens verbaut sein.


    Das ist der Knackpunkt. Ich hätte nichts dagegen in 4k mit 120FPS oder so zu spielen, finde aber, dass die Hardware, weder bei Grafikkarten noch bei Monitoren richtig da ist. Klar, mit ca. 2500 Euro Geldeinsatz könnte ich das, zumindest annähernd, aber das ist es mir dann einfach nicht wert, und ich spiele selten das neuste, könnte also grafisch super aufwendige Titel auch notfalls erst mal auf Halde legen und sie dann in ein paar Jährchen für 1000 Euro genießen.


    Ich liebäugle z.B. mit OLED Monitoren, die gut zum Arbeiten und Zocken taugen. Ich will jetzt inzwischen nicht mehr unbedingt noch auf IPS, das wäre beim aktuellen Stand wieder nur eine Zwischenlösung.

  • [...] finde aber, dass die Hardware, weder bei Grafikkarten noch bei Monitoren richtig da ist. [...]


    Ich liebäugle z.B. mit OLED Monitoren, die gut zum Arbeiten und Zocken taugen. Ich will jetzt inzwischen nicht mehr unbedingt noch auf IPS, das wäre beim aktuellen Stand wieder nur eine Zwischenlösung.

    Ja leider.


    Hätte zwar auch supergern einen OLED Monitor, aber bisher hat mich keiner so richtig überzeugt und zum anderen sind beim PC zu viele statische Elemente, so dass man über kurz oder lang definitiv von Burn In betroffen sein wird. Am liebsten aktuell MiniLED, aber auch hier nicht überzeugendes zu horrenden Preisen.

  • Du sagst es: bei 1440p und 4k. Gerade wenn jemand vernünftig auf 4k spielen möchte wird zu den großen Modellen greifen und nicht so schnell in das Problem laufen. Selbst mit meiner RTX 3090 komme ich auf WQHD selten auf 144Hz mit max Grafikeinstellungen.

    Yo drunter ist es ähnlich, da wirst du jetzt mit ner RX 6090 XT besser dran als der RTX 3090.

    Ich habe das so erwähnt da die NVidia Karten in RTX Off in den Auflösungen besser bzw. ähnlich waren als AMD dank dem GDDR6X, das wird nun durch die geringe Menge an VRAM so weggefressen das die Karten die 40+% hinter den RTX-Karten mit RTX on lagen diese nun überholen. Und das dies so kommen wird war abzusehen nur nicht das wann.

    Ja generell ist RTX imho nicht so brauchbar weil man meist dafür die Topmodelle von Nvidia braucht damit die FPS in hohen Bereichen bleiben und damit meine ich nicht Average und Highs sondern die Lows.


    Wenn du dir eine RTX 4090 holen willst oder auf die wohl bald kommende RTX 4090 Ti liebäugelst, dann mach das, ich mag dir das nicht ausreden bzw. abreden. Das sind eh zu einem Halo-Produkte und zum anderen in Preisregionen die ich so abgehoben finde, das ich da keinen richtigen Bezug zu habe, und solche Produkte in meinen Überlegungen nicht beachtet werden.

    Wenn du die für 1700 € kaufst dann hast du über 40% mehr Geld für eine GPU ausgeben als ich für einen kompletten Gaming-PC. Wenn du dir das leisten kannst und willst mach das ist doch schön. Ich freu mich für dich.


    Mal abgesehen von der Intel ARC 750 und wenn ich etwas die Augen zudrücke der AMD RX 6650 XT, gibt es imho nix aktuelles auf dem Markt wo das Preis/Leistungsverhältnis einiger Maassen stimmt. Und würde ich nicht schon 2,5 Jahre auf was brauchbares warten würde ich auch nichts kaufen derzeit. Wäre die jetzige GPU plötzlich verreckt hätte ich ne Intel ARC 750 gekauft als Ersatz. Bis was schnelleres gekauft werden kann.(Achtung die Intel ARC brauchen aktiviertes Rebar/SAM)


    Auch die RTX 4080 sieht Leistungsstark aus ist nur viel, viel zu teuer für die angebotene Leistung. Die RTX 4070 Ti sieht derzeit auch ganz nett aus und ist nur ein wenig zu teuer. So wie es derzeit scheint kann die bis in nem Jahr gut von ner RX 7900XT überholt werden ohne Framegeneration, da stellt sich halt die Frage ob man da jetzt drauf setzt das Framegeneration sich bis dahin bessert und zahlt mehr dafür, oder das AMD mal nicht in sechs Monaten aus den Treibern ca. 30% mehr Performance raus kitzelt plus das VRam-Problem nicht so zu tragen kommt bei NVidia. Auch kann man sagen mir doch Scheissegal kaufe ich halt in 12 Monaten noch eine neue GPU um 1000 €.

    Die RTX 4070 soll 8 GB haben die RTX 4060Ti schon nur 6 GB.


    Ich vergesse das auch immer, aber ~65% (zumindest laut Steam Umfrage) spielen immer noch auf FullHD und wahrscheinlich auch noch mit 60Hz. Denen reichen auch 8GB und das auch längerfristig (nicht jeder ist so ein Suchti/Zocker wie wir).

    Das ist der Punkt, 8 GB VRam die reichen eben nicht mehr um 60 HZ in FullHD, in den Titeln zu erreichen.


    @OLED: Arbeiten und Zocken vermute ich kommt nimmer diese Jahr. Gut Zocken kann man schon aber durch das Subpixel-Layout, die Leuchtkraftbegrenzung (ich nehme mal an du willst nicht im verdunkelten Büro/Räumlichkeiten arbeiten) und obendrauf die Ungewissheit des Burn-ins. Ist das Arbeiten an OLEDs oft etwas eingeschränkter bzw. unschöner. Da muss sich an der OLED-Bildschirm Technik bzw. deren Herstellungs-Prozess was ändern damit würde ich kurzfristig nicht rechnen. Da selbst wenn da plötzlich was wäre es wohl Minimum sechs Monate schätze eher zwei Jahre Dauer bis da Produkte der Massenanfertigung vom Band rollen.

    Für reines PC Zocken würde ich zu LG greifen, für Arbeiten und Zocken zum günstigeren Alienware oder Samsung(gleiches Panel). Vorher würde ich mir allerdings ansehen wie sehr das geänderte Subpixel-Layout einem beim Schriftrendering auffällt. Ich fand den LG da ih bähh und die QD-OLED besser aber recht unschön, würde immer nen IPS als gespiegelten Moni mit dran haben und dank UWQHD ist das schon ne Hausnummer.

  • Das ist der Punkt, 8 GB VRam die reichen eben nicht mehr um 60 HZ in FullHD, in den Titeln zu erreichen.

    Sorry, aber das halte ich für totalen Blödsinn und weit weg von der Normalen Gamer Realität.

    Nenn mir bitte die Titel die mehr brauchen?

    Also ich selbst habe eine "nur 2070" und ich kann alles zocken auf 1080p in weit mehr als 60HZ, und alles in Max aufgestellt.

    Bitte mal ein wenig runterkommen.

    Nur weil von Hunderten/Tausenden von Spielen der ein oder andere Ausrutscher ist die weil eben schlecht Programmiert, so eine Aussage zu treffen ist schon ziemliche Werbung.

    In 2k oder auch 4k mag es anders aussehen, aber doch bitte nicht in 1080p.

    Wie gesagt, mal ein wenig runterkommen.

  • Das ist der Punkt, 8 GB VRam die reichen eben nicht mehr um 60 HZ in FullHD, in den Titeln zu erreichen.

    Das stimmt natürlich nicht wirklich. Bei Full HD Texturauflösung reichen sogar 6 GB mehr als nur aus, eigentlich sogar 4, die sind dann aber meist voll ausgelastet. Das Problem tritt ja nur dann auf, wenn man 2k, 4k oder 8k Texturen nutzt, damit das FHD Bild schärfer wird.


    Was ja auch so eine komische Sache ist, eigentlich sollten die FHD Texturen exakt detailreich genug sein, dass sie auch perfekt für FHD geeignet sind, und der Schirm kann ja gar kein 4k darstellen. Die Begründung ist wahrscheinlich, dass die Texturen komprimiert sind und deswegen an Details verlieren. Was aber in der Foirtführung bedeuten würde, bei 4k Auflösung würde man dann von 8k Texturen profitieren. Und das bedeutet, dass Grafikkarten für 4k Gaming MINIMUM 32GB Speicher haben sollten. Am besten sogar 128GB, um wirklich Zukunftssicher zu sein.

  • 1. Yo drunter ist es ähnlich, da wirst du jetzt mit ner RX 6090 XT besser dran als der RTX 3090.


    2. Wenn du dir das leisten kannst und willst mach das ist doch schön. Ich freu mich für dich.

    1. Meinst du die RX 6900 XT? Ich habe hier noch meine "rumfliegen" :box: Die hatte weniger VRAM und war auch in RTX deutlich langsamer oder habe ich die Aussage falsch verstanden? Ich mochte sie aber dennoch lieber, da leiser und genügsamer. Wenn DLSS nicht gewesen wäre, wäre ich bei der geblieben.


    2. Können ja, aber möchte es nicht bzw. sehe es auch nicht ein. Ich würde bei höchstens 1400€ zuschlagen bzw. überlegen. Habe lange genug davor eine "alte" Möhre gehabt und bin auch damit wunderbar zurechtgekommen (i7 6700K mit einer GTX 1070 und 32GB RAM).

    Dann kam die Pandemie. Keine Ausgaben, viel Zeit und ich habe 4k für mich entdeckt :stumm: Jetzt gibt es kein zurück.



    EDIT

    Zum Thema hochauflösende Texturen: Ich hab die immer in CoD genutzt und war bei 4k ruck zuck auf 20GB VRAM Auslastung, aber wenn ich ehrlich bin fand ich es danach auch nicht "viel schöner". Ok, man hat natürlich nicht den direkten Vergleich Seite an Seite, aber dennoch kein Wow Effekt eingetreten.

  • Farrinah :
    Nochmal Hogwarths Legacy und The Last of Us Part 1 und lies doch mal genauer ich hatte geschrieben es gibt jetzt erste Titel wo da so ist, nicht das es bereits Usus ist.


    1. Jein und mein Fehler haben den fetten VRAM der RTX 3090 nicht bedacht und WAR ist da das von mir gedachte Stichwort die RTX 3070 war eben auch viel viel schneller als die RX 6800. Da ist ja die Krux zu einem hat AMD bei RDNA1 mal erneut in 6-12 Monaten ca. 30 % mehr Perfomance mit Treiberupdates rausgekitzelt, zum anderen kommt nun die VRAM-Größe zum tragen. War es Anfangs "nur" in Doom Eternal in 4K mit HighRes-Texturen und "nur" so 1-20 FPS. Ist es nun bei den oben genannten Titel in FullHd mit HighRes Texturen angekommen. Klar man kann argumentieren die sind ja auch extrem hungrig und fast gar nicht optimiert. Ähnlich ist es auch beim The Witcher III Remake, da aber noch in 4K.


    2. Wie geschrieben mach ruhig ist dein Bier lass dir schmecken. Ging mir nur darum das mal so in Relation zu meinem Blickwinkelverhältnis zu setzen. Irgendwie münzt hier viele ein: "...ich habe für mich entschieden.. aus dem und dem Grund.." anscheinend immer ein JEDER sollte sich dafür entscheiden um. Ich habe extra "nur" 1440p Monitore weil ich noch keine bezahlbare sonstige HW für mehr gesehen habe und UW mich eh nicht so reizt. Obwohl die XBOX Series X ja bis zu 120 HZ in 4K schaffen könnte. Cool ich spiel eh so gut wie gar nicht mit dem Teil und da meist im Quality statt Performance Mode in 1440p. Konsole ist auch eigentlich der Faktor da die PS5 "nur" über 16 GB Ram verfügt werden wir meist auch nicht mehr VRAM in Spielen benötigen bis sich die nächste NextGen verbreitet hat. (und an alle anderen das heißt jetzt bitte NICHT:" mehr wie 16 GB VRAM brauchen alle Spiele in der Zeit nicht!", sondern 16 GB VRAM sollten zukünftige Mid bis Hinghend Karten ungefähr haben)


    Texturen in TLOU siehst man wie ich finde recht große Unterschiede in den Texturen, Multiplayer-Shooter da zu referenzieren finde ich nicht das gelungenste Beispiel. Und ja die meisten Spiele sehen auf Ultra fast so aus wie auf High fressen aber viel viel mehr Performance.


    Textur-Vergleich in TLOU Leider nur Ultra vs. Low:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.


    VRAM, Performance und Auflösungsvergleich in TLOU:

    Externer Inhalt www.youtube.com
    Inhalte von externen Seiten werden ohne Ihre Zustimmung nicht automatisch geladen und angezeigt.
    Durch die Aktivierung der externen Inhalte erklären Sie sich damit einverstanden, dass personenbezogene Daten an Drittplattformen übermittelt werden. Mehr Informationen dazu haben wir in unserer Datenschutzerklärung zur Verfügung gestellt.