• Ob der Mehrpreis von guten 80% ausgehende von der 4080 jetzt aber die 25% Mehrleistung rechtfertig ? :gruebel:

  • Ob der Mehrpreis von guten 80% ausgehende von der 4080 jetzt aber die 25% Mehrleistung rechtfertig ? :gruebel:

    Wenn man nur zockt sicher nicht. Wenn man aber andere Sachen macht, CAD, AI, Videoenkoding etc. dann kann sich die 4090 schnell lohnen, das ist am Ende dann nämlich tatsächlich eine recht günstige Profi-Workstation-GPU, die eben ja auch die Dinge der teils über 10k kostenden Karten abdeckt, die normale Gaming-Karten eben nicht können.

  • Gerade im 4K Bereich ist die Karte schon Geil aber bei diesem Preis war sie halt nie Thema für mich. Gilt auch für kommende Karten mit ähnlichen Preisen. Schade aber das unterstütze ich nicht.

  • Ist das jetzt ein Test damit die User den SpeedWay AddOn kaufen um ihren Rechner zu vergleichen mit den CB Testergebnissen?

    Also selbst ich mit der Vollversion muss da nachkaufen. Ist doch voll beschiss. Und außerdem dann auch noch ein wenig unfair gegenüber den AMD Karten weil es ein spezieller RT Test ist wo doch jeder weis das AMD da hinterher hingt.


    Beim Test selbst, wie kann Eine Graka so weit da vorne allein stehen? Irgendwas stimmt doch da nicht bei Nvidia. Ja das Top Model stand schon immer weit vorne, aber das sind doch Lichtjahre wie die entfernt ist.

  • Die RTX 4090 ist ca. 30%-40% schneller als die RTX 4080, das ist bekannt seit Release-Reviews, aber auch die RTX 4090 erreicht im Pathtracingmodus von CP2077, nur in nativer 1440p Auflösung ca. 70 aFPS.


    Die RTX 4080 hat 9728 Cores, die RTX 4090 hat 16384 Cores, unterstützt wird das von einem Speicherbandbreite von 384 Bit zu 256 Bit, auch hat die RTX 4090 fast 60% mehr Tensorcores und Shadereinheiten, als die RTX 4080. Auch ist der GPU-Chip der RTX 4090 62% größer als der GPU-Chip der RTX 4080.

    Die RTX 4090 verwendet ca. 60% mehr Resourcen um maximal 40% mehr Leistung zu erbringen und kostet daher im aktuellen Markt auch ca. 60% mehr. Normalerweise würde der Markt das auf 40% runterregeln aber da sie keine Konkurrenz hat hält Nvidia das so hoch.


    Und ja, in reiner Rasterisation steht AMD besser da als NVidia, da RDNA dort besser parallelisiert, und Nvidia leicht mehr Pipelining betreibt um die Tensorcores zu nutzen, die aber dann mit RTX ihren Kernfunktion erfüllen können und so wesentlich effizienter sind als die allgemeineren Kerne der RDNA-GPUs.


    RTX ist halt kein allgemeines Feature sondern das was Nvidia programmiert hat um das in Hardware der Tensorcores zu nutzen. RDNA muss das quasi simulieren. Kann man in etwa vergleichen ein 4K Video in einem Codec abzuspielen wo eine CPU dafür nen HW-Encoder hat und die andere nicht. Während erstere nicht mal warm wird, quält sich letztere ab und da stottert das Video wie blöde.


    Was SpeedWay angeht keine Ahnung was UL da macht ich habe den drin, habe eine Vollversion von 3DMark aber auch diese Jahr erst erhalten.