Diese Woche: Neue Ryzen CPUs, Stadia wird abgeschaltet und mehr

  • Tja, wer mag das wohl sein ? Da kommen quasi die selben Chips rein die es sonst auch von AMD gibt, das sollte doch bekannt sein.

    Ergo: keinerlei Geschwindigkeitsvorsprung a la den NV Systemen die da sich was Eigenes "gehäckelt" haben.

    Ohne Geschwindigkeitsvorsprung wiederum bröckelt Deine Argumentationskette zum Thema GameStreaming aber sehr erheblich. :gruebel:

    Echt dann kauf das mal den selben von AMD, hm bekommt man nicht komisch, Selbst die Chips AMD in der PS5 und XBoxen sind unterschiedlich auch komisch. Hm hat AMD die etwa nach den Vorgaben der beiden Kunden MS und Sony fertigen lassen?

    Öhm dir ist klar das in der MS Xbox Cloud Gaming, Xboxen als HW verwendet und MS erst Mitte letzten Jahres dort komplett von Xbox One auf Xbox X umgestiegen ist obwohl die schon länger auf dem Markt waren?

    Wer braucht einen Geschwindigkeitsvorteil und vor allen in was genau muss man schneller sein?

    Und welches GameStreaming? Bitte drücke dich präziser aus! Und welche Argumentationskette, bitte vermische nicht immer alles?!

    Ich habe gesagt das deine Argumentation im Grunde einen Fehler hat weil du davon ausgehst, das die spezielle Serverhardware der cloudbasierten Videospiele-Streaminganbieter nur wenig performanter wäre als die für Endverbraucher erhältliche Hardware, und das sich das deshalb nicht rechne könne. Und ich habe dazu gesagt das ist grundlegendfalsch da diese Annahme nicht zutrifft. Darauf sagtest du, du glaubst das nicht und ich sagte da bin ich raus, weil ich kein Missionar bin, bzw. sein möchte und mit andere nicht um ihren Glauben frage.

    Dann hatten wir den Punkt der wirtschaftlichen Tragbarkeit und das dies laut dir in der Vergangenheit eindeutig nicht tragbar war, aber auch die Tragbarkeit in der Gegenwart ausschließt zu beachten, was dann per se jedes Beispiel aus der Vergangenheit das in der Gegenwart noch aktiv ist nicht in Betrachtung reinfällt.

    Dabei konntest du imho nur einen Fall nennen, bzw. nennen lassen der nicht mehr wirtschaftlich tragbar war. Ich bin mir nicht sicher ob dir das klar ist nur weil der eine oder andere Dienst eingestellt wurde, liegt das generell nicht daran das die Betriebskosten höher sind als Einnahmen sein könnten, aber wenn man die noch laufenden Dienste, die sich tragen und daher auch noch laufen, nicht betrachtet kann diese Gedankenkonstrukt ja schön aufgehen und als bewiesen angesehen werden.


    Nicht ganz ernst gemeinte Gegenfrage auf selben Niveau:

    Wieviel Jahrzehnte ist da Jemand wohl gewillt dort reinzubuttern ? 😜


    Natürlich rechnet man mit ein paar Jahren Minu,s um dann aber umso deutlich mehr herauszuziehen.

    Wie ich schon ausführte ist das Hardwareleistung-Kosten-Gewinnverhältnis dafür aber nicht ernsthaft geeignet.🤨

    Keine Ahnung viele haben schon eins auf dem Buckel, da es das aber nicht schon mehrere Jahrzehnte gibt, ist das schwer zu beantworten.


    Nein man rechnet für gewöhnlich nicht mit einem temporären Minus sondern mit Investitionskosten und Wachstumsquoten und dann mit Gewinnen, dein Punkt ist von viel darin informieren Leuten schon vorher durchgerechnet worden und diverse Break or Make Points wurden errechnet.

    Das gilt wohl eher für Dich !

    "Eigene Hardware" wie eingekaufte "Generika" a la Switches, Datenspeicher und Server, nichts ernsthaft speziell entwickelt abgesehen von der Software.

    Du schmeißt echt gerne selber Dinge in einen Topf die nicht zusammengehören !

    Ne ich entwickele und baue keine HW wie SW.

    Yo wird nur extra für die nach deren Spezifikation so gebaut, und ist halt eben keine eingekaufte "Generika", aber das wer auf Auftrag was für jemanden Herstellt scheint dir komplett neu zu sein.

    Was schmeiße ich hier dann in einen Topf das Samsung, GF, TSMC und Co. sich die die Designs selber ausdenken.

    NVidia hat wegen ihrem speziellen Kerngeschäfts wegen eine Hauseigene Chipentwicklung !

    Wie ich schon sagte produzieren wiederum tun das andere spezialisiert "Chipmanufakturen".

    Die AMD Chips nebst dem anderen Gerümpel wie IO-Chips drumherum sind allesamt zugekauft.

    Ah ich verstehe ich vermische da was nämlich Entwicklung von Chips und deren Zusammenbau. Nur frage ich mich wo das anfängt und wo hört das dann bei dir auf. Selbst auf deiner NVidia Karte sind Bauteile Designet von Dritten und in den NVidia Server-Racks Prozessoren von Intel.

    Ich habe eher den Verdacht das du nur auf reine GPU Komponenten und deren vermuteten Leistung konzentrierst und davon ausgehst die machen das alles plus ein paar generische IO-Chips möglich.

    Da empfehle ich dir nochmal dir mehr und explizitere(=meint weitere, als von dir wohl Gedacht)Informationen einzuholen, welche Komponenten da wie und wo zusammenspielen.

  • Firmen wie Intel, AMD oder NVidia entwickeln die Chips und die Technologie. Ob die jetzt selbst Fabriken haben oder ob die eine Fabrik mit der Technologie ausstatten und die beauftragen spielt keine Rolle.


    Was zu Konsolen oder Computern generell zu sagen wäre, keiner der Konsolenhersteller baut die Hardware selbst. Das ist eine Mischung aus Eigenentwicklung und Fremdbeauftragung. So haben Microsoft, Sony und Valve z.B. AMD beauftragt für sie eine APU zu entwickeln. Wie bei allen Produkten werden die Einzelteile dann in verschiedenen Fabriken rund um die Welt fabriziert und dann zu einem Endmontageort geschifft wo die Geräte letztlich zusammengebaut werden.


    Das geht ja sogar so weit, dass Firmen wie Apple einige Teile von ihren großen Konkurrenten wie Samsung zukaufen (etwa die iPhone Displays).


    Als Auftragsfertiger von Chips ist TSMC mit über 50 Prozent der weltweiten Fertigung die absolute Nummer 1 auf dem Markt. Aber TSMC ist eine reine Fabrik, die nur für andere produziert. Zum Großteil lustigerweise in China.


    Aber, was nur wenige wissen, die wahre Nummer 1 und absoluter Monopolist in der Computerchipproduktion ist die holländische Firma ASML. Ohne die geht aktuell gar nichts. Denn die sind es, welche die Lithografiemaschinen entwickeln und nur sie alleine sind es, die immer ein paar Nanometer kleiner als sämtliche Konkurrenten fertigen können. Wenn also Schlagwörter wie "die aktuelle Chipgeneration wird in 7nm produziert, die kommende in 5nm" dann ist es ASML, die das überhaupt erst ermöglichen. Die meisten Konkurrenten schaffen mal gerade 12nm, viele andere sind sogar immer noch auf 20nm beschränkt.


    Einer der größten Kunden von ASML ist übrigens Intel, mit z.T. Exklusivverträgen, die es Intel erlaubt ein Jahr vor AMD oder NVidia mit 5nm Fertigung zu beginnen. Dadurch haben die kommenden Core i Prozessoren einen deutlichen Vorsprung vor AMD, die erst 2024 wirklich mit 5nm beginnen können.


    Die Sache ist also die, Firmen wie AMD (als Beispiel) entwickeln Chips, teils sogar als Auftragsarbeit, kaufen dann die Maschinen von ASML, schaffen die zu TSMC und lassen dort dann produzieren. Diese Chips werden dann an Sony oder Microsoft für deren Konsolen verkauft oder halt an die Hersteller von Grafikkarten wie etwa Sapphire.

    Und klar, natürlich sind auf den Platinen wo die Chips drauf verbaut werden Bauteile von einer Vielzahl verschiedener Firmen. Die größten Hersteller von elektrischen / elektronischen Widerständen als Beispiel in Reihenfolge sind: Cressall, KOA, Murata, TE Connectivity, Vishay, ROHM, Arcol, Ohmite und erst dann kommt mit Panasonic die erste in der Öffentlichkeit bekannte Firma.

  • Einer der größten Kunden von ASML ist übrigens Intel, mit z.T. Exklusivverträgen, die es Intel erlaubt ein Jahr vor AMD oder NVidia mit 5nm Fertigung zu beginnen. Dadurch haben die kommenden Core i Prozessoren einen deutlichen Vorsprung vor AMD, die erst 2024 wirklich mit 5nm beginnen können.


    Kewl dann sind die neuen AMD Zen 4 CPUS gar nicht in 5nm, und das ist gelogen? Oder die neuen NVidia RTX 40er GPUs, gut gibt ja nur die RTX 4090 ab übermorgen. Oder kommen die doch erst nächste Jahr und wenn man den Jetzt kauft kriegt man nur einen Gutschein?

    Und wegen den Exklusiverträgen mit ASML und Intel kann TSMC gerade nicht 4 nm+ an AMD liefern und nicht weil Apple die Kontingente alle gekauft hat? Und warum wird dann Raptor Lake in 10 nm sein oder kommt da noch die 14. Generation von Prozessoren auf den Markt in 2023.

    So viel widersprüchliche Informationen zu den bisherigen, da wird mir schwindelig!

  • Ah, okay, wir sind schon einen Schritt weiter, es geht tatsächlich um 3nm und nicht mehr um 5nm, sorry.


    Raptor Lake wird laut aktuellem Stand in 7nm gefertigt nicht in 10. Da AMD aktuell Mobilprozessoren in 6nm und die neuen Desktop Prozessoren in 5nm fertigt will Intel da eben wieder vorlegen.

  • Verwechselt du hier Intels Process 7 mit 7nm. Intel betreibt die sogenannte Tick-Tock Strategie. Und Raptor Lake sollte der Tick zum Tock von Alder Lake sein und daher sich auf eine Verkleinerung und damit einhergehend Performanceerhöhung zum Stromverbrauch mit sich bringen, allerdings hatte Intel etwas Schwierigkeiten ihr geplanten Verkleinerung der Gategröße einzuhalten und wurde für ihre Namensgebung 14->14+->...14+++ lächerlich gemacht. 2019 entschied man daher die Größe der Processnodes gar nicht mehr zu vermarkten und hier nur noch allgemein von dem "Herstellungsverfahren" im Marketing zu reden. Technisch gesehen ist wird Alder Lake den zwei mal verbesserte 10 nm (alte Namensgebung:10++) haben.

    Interessant bzw. bemerkenswert finde ich das Intel in dem wahrscheinlich ziemlich gleichen Bereich bei Performance per Watt in 10 nm spielt wie AMD mit 5 nm!

    Inzwischen beginnt nun auch Intel einen kleinen Teil in TSMC's Fertigungskapazitäten zu ordern. Ich schätze um dort zukünftig wie AMD auch mehr zu ordern, aber ich denke das wird erst in 10 Jahren oder so richtig einschlagen und ist eher ungewiss wie sich das entwickelt.

  • Du hast Recht, Meteor Lake wird jetzt in 7nm gefertigt und nicht Raptor Lake. Raptor Lake wird mittels Intel 7 in 10nm gefertigt, Meteor Lake mit Intel 4 in 7nm. Die Namensgebung ist da absichtlich gedacht um Verwirrung zu stiften.


    Spannend bei Meteor Lake wird dann, dass deren APUs kein Intel HD oder Iris mehr haben sondern ARC für die Grafik verwenden und sogar Raytracing unterstützen sollen. Auch den Apple M1 hat man sich angeschaut und verbaut dazu laut Gerüchten noch eine Neural Engine.