star wars jedi: survivor

  • Jetzt zum dritten mal ich retiziere keine Texte wenn ich zitiere mache ich das kenntlich!

    Wenn du das Gefühl immer hast liegt es vielleicht daran, das ich oft Fakten wiedergebe.

    Ich wüsste nicht warum ich einzelne Objekte aus einer Szene im Spiel extrahieren sollte und ich weiss auch nicht wie du von x00.000 Polygone auf xx0.000/Objekt kommst. Mir ist nicht ganz klar wovon du dann redest vervierfacht da FullHD->4K und mit Fläche meinst du ein Polygon. Und die DXTs werden nicht mal doppelt so groß obwohl wir nun mehr Polygone, im Faktor 10-100 haben und 4-5-fach das texturieren, stramme Leistung der Kompression.

    Ah also Objekte die gerade nicht gezeichnet sind weil der Spieler aus seiner Perspektive nicht sieht, können einfach aus dem Speicher gelöscht werden? Hm ich wunder mich warum die beste Trick vom Iphone war einfach Sachen zu rendern die man gerade nicht sieht, um flüssig dahin zu scrollen, was für eine Witzidee.

    Yo die Devs mir ist nicht ganz genau klar welche Gruppe der Devs(Grafiker, Designer, SW-Entwickler, usw.) du da meinst kriegen imo eine Engine vorgeschrieben und diese haben ein gewisses Resourcen Budget, also wieviel Polygone und Effekte in einer Szene zeitgleich genutzt werden können. Und wenn sie das Budget ausnutzen sind sie faul?

    Sie können sich meisten sehr wohl beschränken mit den Resourcen, aber mir gefällt Hogwarts: Legacy auf nen Highend-PC wesentlich besser als auf der Switch/Last-Gen-Konsolen, vor allem auf nem 27" Monitor. Wie könnte das wohl aussehen wenn noch mehr Resourcen nutzen könnte?

  • Ich hatte vor vielen Jahren mal ein Image von einem Dreamcast Spiel in der Hand. Entpackt war es knapp 800MB groß, es war mehrfach gepackt, keine Ahnung wie die das gemacht haben, aber das Endergebnis war stolze 4MB klein. Und ja, es war ein 3D Game mit Texturen etc. also allem drum und dran.

  • Jetzt zum dritten mal ich retiziere keine Texte wenn ich zitiere mache ich das kenntlich!

    Wenn du das Gefühl immer hast liegt es vielleicht daran, das ich oft Fakten wiedergebe.

    Dann hast Du also in der Spielesoftwareentwicklung (wo?) gearbeitet, oder woher kommt die fachliche "praktische Expertise" deinderseits, die Du als "Fakt" wiedergibtst ?

    Oder hat da doch jemand wen nachgeplappert ? :gruebel:

    Ich wüsste nicht warum ich einzelne Objekte aus einer Szene im Spiel extrahieren sollte und ich weiss auch nicht wie du von x00.000 Polygone auf xx0.000/Objekt kommst.

    Du faselst hier von x00.000 Polygone/Objekt (soll wohl mehrere Hunderttausend heissen), hast aber kein Beleg oder praktische Erfahrungen )

    Ich habe da nur mehrere Zehntausend bis zu Hunderttausend draus gemacht, realistisch angepasst.

    Und die DXTs werden nicht mal doppelt so groß obwohl wir nun mehr Polygone, im Faktor 10-100 haben und 4-5-fach das texturieren, stramme Leistung der Kompression.

    DXTs wurden größer, weil das Detail der Texturen sich in der Tat etwa zumeist in der Kantenlänge verdoppelt hat, praktisch sind die DXT komprimiert aber nur ca. doppelt so groß.

    Wo kommt dein Faktor 10-100 her bzw 4-5 bei den Texturen ?

    4fach durch Pixelerhöhung wäre realistisch in der Bildpunkteanzahl der Texturen, praktisch wurden die Texturen aber nur ca. doppelt so groß weil eben DXT Kompression.

    (Praktische Anwendung bei den Texturen von ArmA2 bzw ArmA3 wo ich jahrelan gemoddet habe bzw bei ArmA2 mitgearbeitet als externer Entwickler.)

    Ah also Objekte die gerade nicht gezeichnet sind weil der Spieler aus seiner Perspektive nicht sieht, können einfach aus dem Speicher gelöscht werden? Hm ich wunder mich warum die beste Trick vom Iphone war einfach Sachen zu rendern die man gerade nicht sieht, um flüssig dahin zu scrollen, was für eine Witzidee.

    Natürlich nicht, wer hat das behauptet? (bitte Zitat)

    Was soll das Iphone Geschwafel hier ?

    Es werden Ewigkeiten vor 2007 bereits sogar diese Technik angewandt wehr zu laden weil man es vielleicht in Kürze verwenden wird.


    Yo die Devs mir ist nicht ganz genau klar welche Gruppe der Devs(Grafiker, Designer, SW-Entwickler, usw.) du da meinst kriegen imo eine Engine vorgeschrieben und diese haben ein gewisses Resourcen Budget, also wieviel Polygone und Effekte in einer Szene zeitgleich genutzt werden können. Und wenn sie das Budget ausnutzen sind sie faul?

    Du benutzt hier zuerst DEVS ohne jede Präzision, ich habe es als Oberbegriff für Developer/Entwickler verwendet.

    Im Falle der Überwachung von Objektgrößen im Speicher macht das idR Software oder der "Leveldesigner" hat das Softwareunterstützt im Auge damit in einer Szene eben nicht bei der Darstellung mehr Speicher benötigt wird als das angepeilte Maximum.

    Wird das ignoriert machen sie ihren Job nicht richtig.

    Das ist aber natürlich nur ungefähr, in der Praxis kann es durchaus zu kurzen Überbeanspruchungen kommen, das regelt dann die Engine (mehr oder minder gut :roll: )


    Sie können sich meisten sehr wohl beschränken mit den Resourcen, aber mir gefällt Hogwarts: Legacy auf nen Highend-PC wesentlich besser als auf der Switch/Last-Gen-Konsolen, vor allem auf nem 27" Monitor. Wie könnte das wohl aussehen wenn noch mehr Resourcen nutzen könnte?

    Wer unnötig hohauflösende Texturen für Objekte benutzt oder Objekte nutzt die für das Spiel unnötig detailliert sind verschwendet Resourcen,

    man kann zb. einen Würfel im Spiel als Quadrat modellieren und dem via Texturen/Shader ein Detail verpassen das er aussieht als würde er deutlich feiner modelliert mit quasi keinen Texturen aber exorbitant mehr Polygonen.

    IdR macht das Software, die z.B. ein Charaktermodell mit exorbitanten Datenmengen so umrechnet das bei deutlich geringeren Aufwand eine ähnliche optische Qualität dabei herauskommt.


    Wenn die zig Extrapolygone dann aber im Spiel in der Nahansicht alle im selben Pixel gerendert werden, hat man Resourcen verschwendet,

    jedoch kann es (im Rahmen natürlich) sinnvoll sein wenn Darstellungszeit&Speicherverbrauch unproblematisch sind.


    Mehr bringt aber nur dann Mehr wenn man es wie bislang benutzt, ansonsten ist es nur Verschwendung!


    "Pressesprecher" tönen dann gerne von den Rohzustand der Modelle die mal jemand gebaut hat, im Spiel werden dann aber die "Sparversionen" genutzt welche aber idR gleich aussehen sofern die Arbeit gut gemacht wurde.

  • Ich hatte vor vielen Jahren mal ein Image von einem Dreamcast Spiel in der Hand. Entpackt war es knapp 800MB groß, es war mehrfach gepackt, keine Ahnung wie die das gemacht haben, aber das Endergebnis war stolze 4MB klein. Und ja, es war ein 3D Game mit Texturen etc. also allem drum und dran.

    Das sind teilweise Techniken aus der Demoscene wo es Competitions in 4KB, 8KB, 64KB ... gibt.

    Guck Dir mal die ".Krieger" Demo an, da werden Sounds und Graphiken (hier natürlich im Speicher) entpackt, generiert etc (hier ein "einfacher" 3D Shooter mit Sound und Graphik in 96Kilobytes!)

  • Ich denke nicht das man irgendwo in der Entwicklung arbeiten muss um sich etwas mit der Materie auszukennen. Wissen kann man sich auch so drüber aneignen. es gibt wesentlich mehr Methoden als Trial and Error. Von fachlicher Expertise schrieb ich nichts. Lies bitte noch mal den von dir gequoteten Text, der ist allgemein auf deine Aussage meiner Posts gegenüber gehalten, nicht explizit auf die Thematik der Diskussion.


    Ich habe nicht von x00.000 Polygone von Objekten gesprochen als ich die Zahl zuerst postete sondern vom gesamt Bild, du hast das als Objekt-Polygon-Anzahl aufgefasst. Das war doch mein Punkt in dem Satz wir sind von x0.000 Polygonen pro Szene wie in Unreal/Half-Life und Co. lange weg. Und du bringst das /Objekt da rein, nicht ich. Du hast da anscheinend was im Kopf gelesen was ich nicht geschrieben und auch nicht gemeint habe.

    Ich beziehe mich nicht auf Objekte u. a. weil es eben unterschiedliche Möglichkeiten gibt deren Fidality darzustellen und zwischen diesen oft variiert wird.


    Der Faktor 10-100 kommt vom Anzahl der Erhöhung der Polygone, oder werden die alle mit der gleichen Textur belegt und inzwischen sogar mit vier bis fünf Texturen, aber Hey was in Arma2 und Arma3 gemacht wurde, das muss auch heute nur gemacht werden damit man heute die gleiche grafische Fidality der aktuellen Games erreicht, ohne so viel HW-Resourcen zu verschwenden, wenn die Devs nicht so faul wären.


    Du hast geschrieben das nicht alles gezeichnet/genutzt wird und wenn das dann "aufwendiges Zeugs" genutzt wird der Speicher voll wird, ergo schließe ich man löscht das aus dem Speicher weil man es ja gerade in der Millisekunde nicht benötigt. Dies suggeriert meine Wissens nach ein falsches Bild der Situation und versuche klar zu machen das vieles im Speicher liegen muss und warum man so viel davon benötigt.

    das Iphone-Beispiel zeigt we erfolgreich es sein kann einfach genügend Speicher zu (auszu-)nutzen.

    Komisch genau mein Punkt man nutzt das seit Ewigkeiten.^^


    Ich habe gefragt wenn du mit DEVS genau meinst weil du denen zu Gute hälst zu Faul zu sein und ich da für meinen Teil finde das du dort den falschen Baum anbellst und mir nicht ganz klar war wenn du da explizit mit meinst da DEVS ja viele Position enthält. Hier ging es um mein Verständnis deiner Aussage, um das für mich in ein besseres Licht zu rücken. Also sind für dich die Leveldesigner zu faul, habe ich das richtig verstanden?


    Yo das ist nun eine Geschmacksfrage und wenn dir das so schmeckt, dann gönn dir. Ich mag es "aufwändiger" das schmeckt mir besser, da finde ich ich den erhöhten Resourcenaufwand durchaus gerechtfertigt, bei dem Geschmack.

    (Persönliche Note, mir scheint du hast dich mit den verwendeten technischen Aufwänden der aktuellen Titel noch nicht so richtig beschäftigt, ich verweise hier nochmal als Beispiel Switch/LastGen<->PC/ActualGen von Hogwarts: Legacy)

  • ch denke nicht das man irgendwo in der Entwicklung arbeiten muss um sich etwas mit der Materie auszukennen. Wissen kann man sich auch so drüber aneignen. es gibt wesentlich mehr Methoden als Trial and Error. Von fachlicher Expertise schrieb ich nichts. Lies bitte noch mal den von dir gequoteten Text, der ist allgemein auf deine Aussage meiner Posts gegenüber gehalten, nicht explizit auf die Thematik der Diskussion.

    Man kann sich einarbeiten was aber ohne grundsätzliches Rahmenbedingungen (was ist für ein Objekt x der Größe y vertretbar) muß man praktisch erlernen.

    Aber natürlich sind Deine "Fakten" wieder einmal anderweitig gemeint wenn Du dich in eine Ecke manövert hast. :kopfnuss:


    Ich habe nicht von x00.000 Polygone von Objekten gesprochen als ich die Zahl zuerst postete sondern vom gesamt Bild, du hast das als Objekt-Polygon-Anzahl aufgefasst. Das war doch mein Punkt in dem Satz wir sind von x0.000 Polygonen pro Szene wie in Unreal/Half-Life und Co. lange weg. Und du bringst das /Objekt da rein, nicht ich. Du hast da anscheinend was im Kopf gelesen was ich nicht geschrieben und auch nicht gemeint habe.

    Warum präzisierst Du es dann nicht ?

    Nein Du stellst es als "Hans-Dampf-in-allen-Gassen" mal wieder einfach irgendwie da und machst auf dicke Hose ohne praktisches Wissen dazu zu haben, alles was Du weißt, vermutest Du weil Du es irgendwo mal gelesen hast.


    Ich beziehe mich nicht auf Objekte u. a. weil es eben unterschiedliche Möglichkeiten gibt deren Fidality darzustellen und zwischen diesen oft variiert wird.

    Bitte was ? :gruebel:


    Der Faktor 10-100 kommt vom Anzahl der Erhöhung der Polygone, oder werden die alle mit der gleichen Textur belegt und inzwischen sogar mit vier bis fünf Texturen, aber Hey was in Arma2 und Arma3 gemacht wurde, das muss auch heute nur gemacht werden damit man heute die gleiche grafische Fidality der aktuellen Games erreicht, ohne so viel HW-Resourcen zu verschwenden, wenn die Devs nicht so faul wären.

    Du würdest Dich wundern wie häufig Modelle durchaus mit weiderkehrenden Texturen "beklebt" werden.

    Aber dazu muß man haöt mal nachgucken und das willst Du ja nicht. :kopfnuss:

    Das muß allerdings auch geplant werden und wenn der Entwickler kein Bock darauf hat / zu Faul ist dann hängt der in der Tat immer wieder die gleiche Textur in den Objektdateien, das die dann mehrfach die vorhandenen Resourcen belegten "ist dann halt so", dafür braucht man ja mehr Resourcen. :lachen:

    Da schleißt sich der Kreis !


    Du hast geschrieben das nicht alles gezeichnet/genutzt wird und wenn das dann "aufwendiges Zeugs" genutzt wird der Speicher voll wird, ergo schließe ich man löscht das aus dem Speicher weil man es ja gerade in der Millisekunde nicht benötigt. Dies suggeriert meine Wissens nach ein falsches Bild der Situation und versuche klar zu machen das vieles im Speicher liegen muss und warum man so viel davon benötigt.

    Objekte werden innerhalb einer gewissen Range komplett im Speicher gehalten, egal ob sie gerade voll oder teilweise genutzt werden, sogar was hinter einem liegt um auf plötzliche Bewegungen des Spielers/Veränderungen des Viewports reagieren zu können.

    Ansonsten kommen da die von HDD üblichen Ladeeffekte ins Spiel wo zudem die Objekt-Lods von der Engine falsch skaliert werden.

    Die Engine zeichnet die Lods ausegehend von der Notwendigkeit und den zu erwartenden Gesamtresourchen der Szene.

    Z.B kann ein großes Haus durchaus im ersten Lod Hunderttausende Polygone haben, sind da aber noch jede Menge andere "Brocken" zu sehen wird die Engine je nach Priorität ein oder mehrere Lods mit deutlich weniger Details zeichnen um nicht so viel zu verschwenden um ein gewisses Gleichgewicht zu wahren.

    Entladen wird da erst recht spät, z.B. hat Operation Flashpoint noch die gesamte 16x16Km Karte komplett im Speicher gehalten und nur Objekte die nicht mehr in der Reichweite sind wirklich aus dem Speicher geschmissen.

    Deswegen sehen auch viele Engines in der Entfernung saubescheiden aus wenn man ein Auge dafür hat.

    Gerade durch Konsolen ist es eingerissen das alles im Nahbereich sehr detailiert wirkt und die Fernsicht qualitativ massiv leidet.


    Aber dies ist keine Innovation von Apple !


    Also sind für dich die Leveldesigner zu faul, habe ich das richtig verstanden?

    Nicht zwangsläufig, es können Leveldesigner sein die nicht darauf achten - wenn keine Mechansimen vorhanden sind die das "im Auge" behalten bzw. diese einfach ignorieren.

    Ober das mittlere Management wenn sie es nicht für nötig erachten die Leute auf entsprechendes Mitdenken zu trimmen bzw. derartige Mechanismen nicht berücksichtigen.

    Oder das obere Management wenn es finanziell nicht gewünscht ist weil "Gründe" (aka das kann man sich sparen)


    An mindestens irgendeiner Stelle bei den Devs wird halt der Job nicht gemacht, aber man kann einfach mal den schwarzen Peter weiterschieben und mehr Resourcen einfordern. :traurig:



    Yo das ist nun eine Geschmacksfrage und wenn dir das so schmeckt, dann gönn dir. Ich mag es "aufwändiger" das schmeckt mir besser, da finde ich ich den erhöhten Resourcenaufwand durchaus gerechtfertigt, bei dem Geschmack.

    (Persönliche Note, mir scheint du hast dich mit den verwendeten technischen Aufwänden der aktuellen Titel noch nicht so richtig beschäftigt, ich verweise hier nochmal als Beispiel Switch/LastGen<->PC/ActualGen von Hogwarts: Legacy)

    Ich mag es auch "aufwändiger" wenn die Rahmenbedingungen dann stimmen.

    Wenn man aber 32GB VRAM braucht obwohl bei gleichen Ergebnis es auch mit 4GB hätte erreicht werden können, dann bringt es nichts nach mehr zu schreien.

    Es ist dann so als würde man ein Sportwagen nur im ersten Gang fahren und sich über die mangelnde Motorleistung beklagen. :kopfnuss:


    Das aktuelle Spiele einen höheren Aufwand betreiben steht gar nicht zu Debatte, zum einen ist es heutzutage ein Overkill an Abwechselung , der aber ohenhin nie gleichzeitig zum Einsatz kommt, was die Sache von der Spielgröße massiv loslöst.

    Ob ich nun statt 1 Region 10 habe stört die Darstellung nicht weil ich eh nur maximal eine im Speicher habe, trotzdem liegt auf der Platte dann das 10fache herum. ;)


    Und ja, für unterschiedliche Hardwaregenerationen muß man unterschiedliche Lösungen finden, idR werden schwache Lösungen dann massiv abgespeckt, zB. werden die ersten 1-x Lods aus den Objekten entfernt, die Texturgrößen heruntergerechnet etc. um mit weniger etwas Ähnliches zu erreichen.

    Oder man entwickelt für "weniger" und es sieht dann bei den "Großen" bescheiden aus.

  • Man kann sich einarbeiten was aber ohne grundsätzliches Rahmenbedingungen (was ist für ein Objekt x der Größe y vertretbar) muß man praktisch erlernen.

    Okay, meine Frage dazu warum muss ich das durch TandE(TRial and Error) erlernen warum , kann mir das nicht auf anderem Weg vermittelt werden?


    Aber natürlich sind Deine "Fakten" wieder einmal anderweitig gemeint wenn Du dich in eine Ecke manövert hast. :kopfnuss:

    Lies noch mal nach vielleicht hast du Sprachverständlichkeiten, ich habe da nie gesagt das ich da Fakten wiedergebe sondern das die Aussagen für dich wie übernommen klingen weil eventuell diese Aussagen Fakten wiedergeben. Genau so sagt der vorherige Satz NICHT aus das ich keine Fakten geäußert habe. In welche Ecke soll ich mich den manövriert haben?

    Ich habe nur dir klar zu machen wovon ich rede und was ich meine wovon du redest damit wir wissen worüber wir sprechen.

    Warum präzisierst Du es dann nicht ?

    Yo jetzt weiss ich es besser, hätte ich machen sollen. Ich bin nicht davon ausgegangen das es jemand so anders auffast, dazu war ich so in in meinem Gedankenbild gefangen das ich überhaupt daran denken würde, das jemand bei xx0.000 von einem Objekt in einer Szene in einem Spiel ausgehen würde. Das war für mich so Absurd das ich daran gar nicht gedacht habe.


    Nein Du stellst es als "Hans-Dampf-in-allen-Gassen" mal wieder einfach irgendwie da und machst auf dicke Hose ohne praktisches Wissen dazu zu haben, alles was Du weißt, vermutest Du weil Du es irgendwo mal gelesen hast.

    Okay danke für deine Meinungsäusserung über meine Person, kurze Frage was hat das mit dem Thema zu tun?

    Kannst du in dem Kontext mal praktisches Wissen aus deiner Sichtweise definieren. Ich benutze und erlebe Spielegrafik und deren Engines täglich aus meiner Sicht, aber du scheinst das anders zu sehen.

    Hm mir ist total unklar wie man etwas vermutet, weil man es irgendwo gelesen hat, da hätte ich auch noch klärungsbedarf. Und wo ist da der Unterschied wenn ich mit Ninjaripper ein Modell aus einem spiel "rippe" und da lese das hat nur x000 Polygone und dann schließe alle Modelle haben nur so viele Polygone?


    Bitte was ? :gruebel:

    Sorry da muss mein Copy'n'Paste nen Fehler gemacht haben Fidelity ist die korrekte Schreibweise.

    Und dazu kommst du noch später. Es gibt oft unterschiedliche LODs und auch andere Darstellungsmöglichkeiten um Ähnliches aussehen zu erreichen, das ich mich frage was mir das bringt auf einen Momentauschnitt zu schauen und darauf auf das Gesamtprodukt zu schließen.

    Du würdest Dich wundern wie häufig Modelle durchaus mit weiderkehrenden Texturen "beklebt" werden.

    Aber dazu muß man haöt mal nachgucken und das willst Du ja nicht. :kopfnuss:

    Das muß allerdings auch geplant werden und wenn der Entwickler kein Bock darauf hat / zu Faul ist dann hängt der in der Tat immer wieder die gleiche Textur in den Objektdateien, das die dann mehrfach die vorhandenen Resourcen belegten "ist dann halt so", dafür braucht man ja mehr Resourcen. :lachen:

    Da schleißt sich der Kreis !

    Warum sollte ich mich da wundern das war eine der ersten Sachen die ich in generell gezeichneter Darstellung erlernt habe das ist mir bereits bekannt und ich kann das auch sehen.

    Ah also ist der Entwickler zu faul weniger Arbeit zu machen und macht sich lieber mehr Arbeit und verbraucht so mehr Resourcen, und alles weil er nicht planen mag?

    Und deswegen stehen wir wieder am selben Punkt wie zu Beginn?


    Was genau beinhaltet das Objekte nur das Polygon-Modell oder noch mehr?

    Okay nur HDD zeigen die Effekte das die Level of Detail falsch skaliert werden, ich dachte immer die hoch aufgelösten Texturen können von HDD nicht so schnell nachgeladen werden, weswegen zuerst nur die niedrig aufgelösten Texturen gezeigt werden. Mir war nicht klar das die Abstände zwischen den "ecken" eines Polygones falsch skaliert werden.

    Hey Engines haben ein Budget an Polygonen für eine Szene, ja davon rede ich doch die ganze Zeit(man erinnere sich v and x0.000->x00.000 Vergleich)! Das sollte den "Devs" bekannt sein und das sollten sie (aus)nutzen.

    Spät inwiefern aktuelle Uhrzeit oder Verweildauer im Speicher?(<- Das ist keine Frage, sondern der Hinweis auf Begrifflichkeiten, spät beschreibt einem temporalen Zustand, ich vermute aber stark du meinest einen Distanz Zustand)


    Okay ich habe auch nie behauptet das Apple das erfunden hat! Ich habe nur geäussert das Apple erste Iphone so erfolgreich war, weil es eine bekannte und vielfältig genutz Technik genutzt hat.

    Der Gedanken dahinter ist Iphone war so erfolgrteich weil es sich als Touchphone so flüssig bedienen lies. Die Ursache(das ist in meiner Erfahrung was oft übersehen wir, der eigentliche Kern auf den das Meiste zurück geht), das es so Flüssig war das es eben schon alles was es Darstellen sollte fertig im Speicher gerendert hat. ES war die geringe Reaktionszeit und Darstellung Flüssigkeit die das Iphone so gegenüber anderen Vergleichsprodukten hervor stechen ließ. Hier in der Diskussion ging es nur um den Punkt der Speichernutzung und das da mehr Daten drin liegen als man gerade sehen kann. Der Verweis auf das Iphone und Apple ist ironisch gegenüber Apple auf der einen Seite auf der anderen Seite haben sie Unsummen an Geld daraus gemacht.


    Nicht zwangsläufig, es können Leveldesigner sein die nicht darauf achten - wenn keine Mechansimen vorhanden sind die das "im Auge" behalten bzw. diese einfach ignorieren.

    Ober das mittlere Management wenn sie es nicht für nötig erachten die Leute auf entsprechendes Mitdenken zu trimmen bzw. derartige Mechanismen nicht berücksichtigen.

    Oder das obere Management wenn es finanziell nicht gewünscht ist weil "Gründe" (aka das kann man sich sparen)


    An mindestens irgendeiner Stelle bei den Devs wird halt der Job nicht gemacht, aber man kann einfach mal den schwarzen Peter weiterschieben und mehr Resourcen einfordern. :traurig:

    Wie geschrieben mir ging es um Klarstellung wenn du da als zu "faul" titulierst. Weil ich von deinen Äußerungen den Eindruck hatte das es imo an die falsche Stelle geht. Deswegen schrieb ich die Devs kriegen zu wenig Resourcen und damit meinte ich nicht HW-Resourcen. Ich denke eben auch das "Entscheider" (so nenn ich die mal) den Devs nicht genügend Zeit und/oder Geld einräumen.


    "...der Job halt nicht gemacht..." das sehe ich anders es werden halt Ergebnisse erwartet die mit den gegeben Bedingungen nicht so zu erfüllen sind. Der Entscheider hat das richtig gemacht weil er jetzt ein großen Geldregen hat den die Finanzierer wollten ohne noch mehr Geld und Zeit zu investieren. Alle anderen haben das Möglichste mit den Resourcen gemacht die sie zur Verfügung hatten.

    Die Ursache, sind wir depperten Spieler die den Scheiß gleich noch immer kaufen, das ist meine Meinung und da würde ich den Blame hin setzten.

  • Das ist aber nicht der Fall die abgespeckten Varianten sehen nicht so aus wie die anderen Varianten, was DEVS so äussern und worauf ich da bezog: Momentan sind wir an 16 GB shared RAM der Konsolen gebunden, sie könnten schon jetzt 32 GB VRAM füllen das Polygonbudget der Engines ist dafür da, und sie entwickeln Momentan mit dem 32 GB VRAM Ziel an Titeln die in ein paar Jahren erscheinen werden.

    Das ist Momentan der Ruf nach 16 GB VRAM derzeit um alles in High laufen zu lassen und 32 GB VRAM um mittelfristig gerüstet zu sein.

    Echt ich weiss nicht die Sportwagen die ich gefahren bin erreichten im 1. Gang ganz andere Geschwindigkeiten, als die normalen PKW im 1. Gang, aber das muss dann Fahrgestell oder so gelegen haben, aber ich baue ja keine Autos daher habe ich null Ahnung von Autos, gebe als Hans Dampf in allen Gassen ständig meine dicke Hose dazu.


    Oh ich denke du willst den Installation Größen Zuwachs mit der Zuwachs der Anzahl an Inhalten begründen, okay da stellt sich mir die Frage warum dann überhaupt VRAM in den Masen erhöhen? Ich mein meine erste dedizierte GK hatte so 512 KByte VRAM, war aber nur ein "Windows-Beschleuniger", meine erste 3D-GK hatten so 2 MB ich mein der Sprung auf deine minimal geforderten 4 GB ist gigantisch, der Sprung von 4->32 GB sieht da eher sehr verhalten im Vergleich(2MB->4GB) zu aus. Sollten dann nicht auch die Sprünge von 2 MB -> 4 GB kleiner sein.

    Es gibt eben nicht nur Zuwächse an der Anzahl der Polygone sondern auch der Anzahl der geleichzeitig Verwendeten Texturen und deren Auflösung, aber das regelt ja DXT so gut das Nvidia sich die Entwicklung von NTC sparen hätte können. Aber das ist doch wurscht das Texturen das den Großteil des VRAM belegen, wir diskutieren lieber um die Polygonmenge von Objekten. Und bevor du jetzt damit kommst das ich das ursprünglich eingebracht hätte: Polygonanzahl Budget der Szene nicht eines Objekts! -> Budget der Szene steigt -> Texturen steigen -> VRAM Bedarf steigt entsprechend!

    Yo mein reden mit dem HGL Lastgen Beispiel, es ist das gleiche Spiel, sieht gleich genug aus geht man etwas an den Bildschirm ran himmelweite Unterschiede.

    Entweder verstehe ich den Kontext für den letzten Satz nicht richtig oder sagst das ungefähr gleiche wie ich, das wir für mehr Fidelity mehr HW-Resourcen brauchen.



    Sorry für die Zweiteilung bin ins Zeichenlimit gestoßen.

  • Das ist aber nicht der Fall die abgespeckten Varianten sehen nicht so aus wie die anderen Varianten, was DEVS so äussern und worauf ich da bezog: Momentan sind wir an 16 GB shared RAM der Konsolen gebunden, sie könnten schon jetzt 32 GB VRAM füllen das Polygonbudget der Engines ist dafür da, und sie entwickeln Momentan mit dem 32 GB VRAM Ziel an Titeln die in ein paar Jahren erscheinen werden.

    Das Problem ist halt das je mehr sie mit Resourcen verschwenderisch umgehen die nächste Barriere nur ein Bruchteil halten wird.

    Um auf mein beliebtes Thema mit Programmen zurück zu kommen, was da heute abgegeben wird ist im Verhältnis zu den 80ern "verschwenderischer Müll"

    Natürlich nicht bezogen auf "taucht nix" sondern es könnte um Längen schneller und obendrein kompakter sein.

    Man profitiert nur durch die Entwicklungssprünge bei Rechenleistung und möglichen Speicher.


    Echt ich weiss nicht die Sportwagen die ich gefahren bin erreichten im 1. Gang ganz andere Geschwindigkeiten, als die normalen PKW im 1. Gang, aber das muss dann Fahrgestell oder so gelegen haben, aber ich baue ja keine Autos daher habe ich null Ahnung von Autos, gebe als Hans Dampf in allen Gassen ständig meine dicke Hose dazu.

    Beschleunigungen sind keine Geschwindigkeiten :lachen: und nur wenn man ein Autoi bauen kann ist man auch kein toller Fahrer, auch wenn man meint das es so wäre. ;)



    kay da stellt sich mir die Frage warum dann überhaupt VRAM in den Masen erhöhen? Ich mein meine erste dedizierte GK hatte so 512 KByte VRAM, war aber nur ein "Windows-Beschleuniger", meine erste 3D-GK hatten so 2 MB ich mein der Sprung auf deine minimal geforderten 4 GB ist gigantisch, der Sprung von 4->32 GB sieht da eher sehr verhalten im Vergleich(2MB->4GB) zu aus. Sollten dann nicht auch die Sprünge von 2 MB -> 4 GB kleiner sein.

    Es geht nicht darum das man mit mehr Speicher auch mehr erreichen kann, das Problem ist das es nicht in Relation steht mit dem

    4fachen das doppelte zu erreichen weil man das so bequemer abfrühstücken konnte.

    Das ist so als ob ein Bauer nicht bessere Pflanzen züchtet um höhere Erträge zu erhalten, sondern die Rechnung aufmacht das er mit den 4fachen seiner Felder die doppelte Ernte einfahren kann indem er die Saat einfach nur "im vorbeifahren" (Bequemlichkeit) auf das Feld schmeißt.



    Es gibt eben nicht nur Zuwächse an der Anzahl der Polygone sondern auch der Anzahl der geleichzeitig Verwendeten Texturen und deren Auflösung, aber das regelt ja DXT so gut das Nvidia sich die Entwicklung von NTC sparen hätte können. Aber das ist doch wurscht das Texturen das den Großteil des VRAM belegen, wir diskutieren lieber um die Polygonmenge von Objekten. Und bevor du jetzt damit kommst das ich das ursprünglich eingebracht hätte: Polygonanzahl Budget der Szene nicht eines Objekts! -> Budget der Szene steigt -> Texturen steigen -> VRAM Bedarf steigt entsprechend!

    Du verstehst mich nicht oder willst es nicht verstehen ?

    Klar sind an diversen Fronten die Anforderungen gestiegen und eine Aufstockung ist sinnvoll ...

    ABER

    ... ein besserer Umgang damit (als alles noch so knapp war das man sparen mußte) bringt viel mehr.

    Besagte zigfach geschichtete Texturen werden oftmals nur aus Bequemlichkeit durch einen Performance fressenden Shader gejagt weil "geht ja" obwohl an deren Stelle auch eine simple, performantere Lösung das exakte! Endergebnis liefern würde.


    Genau da ist unser Problem, wenn eine App am Handy zig Megabyte groß ist aber quasi nur ein Bild anzeigt braucht es eigentlich nur wenige Kilobyte, aber warum, das andere geht etwas schneller zu bauen und man hat es ja. :kopfnuss:

  • Um nicht noch einige Fragen zu vergessen/übergehen, möchte ich das nachholen:

    Okay, meine Frage dazu warum muss ich das durch TandE(TRial and Error) erlernen warum , kann mir das nicht auf anderem Weg vermittelt werden?

    Es ist ein Mix aus selbst Lernen, viel Herumprobieren (wie es Modder machen), klare Aufgabenstellung und die Anleitung von erfahrenen Kollegen die einem Rahmenbedingungen näherbringen können.

    z.B.

    Ein sehr talentierter CGI Modeller (war mal sein Hobby) wird zB. idR immer Modelle machen die deutlich über ein für ein Spiel benutzbares Ziel hinausschießen wenn er Modelle erstellt.

    Da muß man ihm die Grenzen vorgeben.


    z.B.

    Ein Leveldesigner muß entweder durch extrem viel "learning by doing" herausfinden das er zu viel unterschiedliche Objekte in eine Szene unterbringt, sieht dann zwar sehr gut aus, das kann aber keine Engine auf dem angepeilten Hardwareniveau wuppen.



    Lies noch mal nach vielleicht hast du Sprachverständlichkeiten, ich habe da nie gesagt das ich da Fakten wiedergebe sondern das die Aussagen für dich wie übernommen klingen weil eventuell diese Aussagen Fakten wiedergeben.

    Wenn ich allerdings das lese:

    Wenn du das Gefühl immer hast liegt es vielleicht daran, das ich oft Fakten wiedergebe.

    Damit sagst Du aus/implizierst Du das deine Aussagen entweder Fakt waren oder (wegen dem "oft") einfach ignorierst.


    Möglicherweise habe ich den Satz halt so verstanden das Du dich auf Fakten beschränkst, oder aber der Satz sah mal anders aus ? :gruebel:

    KA, aber das ist aber letztendlich egal, da will ich jetzt mal nichts unterstellen, ich bin auch nicht unfehlbar.


    Okay danke für deine Meinungsäusserung über meine Person, kurze Frage was hat das mit dem Thema zu tun?

    Kannst du in dem Kontext mal praktisches Wissen aus deiner Sichtweise definieren. Ich benutze und erlebe Spielegrafik und deren Engines täglich aus meiner Sicht, aber du scheinst das anders zu sehen.


    Ich habe bei ArmA2 + Operation Arrowhead (Addon) als "External Enviroment Developer" für BIS gearbeitet nachdem ich seid Operation Flashpoint heftig gemoddet habe und auch etwas für deren Ableger BIA (damals deren Sitz in Australien mit Schnittstelle zum Militär) etwas mitentwickelt habe.

    Dabei habe ich im Rahmen meiner Möglichkeiten (ich nehme nicht für mich im Anspruch an schier "allen" Bereichen Fachkompetenz zu besitzen) fast vollen Zugriff auf alle Entwicklungsdaten dazu gehabt und konnte z.B. Modelle Maps und vieles Andere im Entwicklungszyklus beobachten.

    Was da alleine einige Modeller geliefert haben bei vergleichsweise extrem sparsamen Polygonen war der Oberhammer, viele "Diskussionen/Anweisungen" habe ich dort mitbekommen, Vorschläge und optimierungen zu Shader, und und und ...


    und wo ist da der Unterschied wenn ich mit Ninjaripper ein Modell aus einem spiel "rippe" und da lese das hat nur x000 Polygone und dann schließe alle Modelle haben nur so viele Polygone?

    Die Polyponanzahl der Objekte ist massiv unterschiedlich plus diverse Varianten aka LODs.

    Der Ninjaripper zeigt Dir nur die Lods&Texturen die für diese Szene gerade genutzt wurden, je nach Szene kann das dann Hoch oder Niedrigauflösend sein.

    Es bedarf einiges an Arbeit (zumindest in der damaligen Verion) um alle Lods eines Objektes damit zu erhalten.


    Was genau beinhaltet das Objekte nur das Polygon-Modell oder noch mehr?

    Okay nur HDD zeigen die Effekte das die Level of Detail falsch skaliert werden, ich dachte immer die hoch aufgelösten Texturen können von HDD nicht so schnell nachgeladen werden, weswegen zuerst nur die niedrig aufgelösten Texturen gezeigt werden. Mir war nicht klar das die Abstände zwischen den "ecken" eines Polygones falsch skaliert werden.

    In den DXT befinden sich übrigens Texturen in unterschiedlichen Qualitäten, sogenante Mipmaps, das sieht dann so aus:

    undefined

    Da wird dann ggf. ersteinmal auf schlecht auflösende Varianten zugegriffen wenn das Zeitbudget zum Rendern unklar ist.


    Es gibt oft unterschiedliche LODs und auch andere Darstellungsmöglichkeiten um Ähnliches aussehen zu erreichen, das ich mich frage was mir das bringt auf einen Momentauschnitt zu schauen und darauf auf das Gesamtprodukt zu schließen.

    Die Summe der Lewrnerfahrung damit fügt sich zu einem Gesamtbild nebst besseren Verständnis dafür zusammen, man kann aber eben auch durchaus Tricks sehen wie einige Entwickler arbeiten oder Verschwendung bei anderen.


    Hey Engines haben ein Budget an Polygonen für eine Szene, ja davon rede ich doch die ganze Zeit(man erinnere sich v and x0.000->x00.000 Vergleich)! Das sollte den "Devs" bekannt sein und das sollten sie (aus)nutzen.

    Genau, nur die beste Engine kann eben nicht alles, man muß schonb selektieren was man ihr zum Fressen gibt wenn man mit System x ein Minimum von n Frames haben möchte.

    Überdehnt man die Vorauswahl geht da einiges nach hinten los, simple Texturen in unnütz hochauswändige Shader zu stopfen ist da nur ein Fall, übertrieben hohe Texturauflösungen oder Polygonanzahlen ein anderes.

  • Das Problem ist halt das je mehr sie mit Resourcen verschwenderisch umgehen die nächste Barriere nur ein Bruchteil halten wird.

    Um auf mein beliebtes Thema mit Programmen zurück zu kommen, was da heute abgegeben wird ist im Verhältnis zu den 80ern "verschwenderischer Müll"

    Natürlich nicht bezogen auf "taucht nix" sondern es könnte um Längen schneller und obendrein kompakter sein.

    Man profitiert nur durch die Entwicklungssprünge bei Rechenleistung und möglichen Speicher.

    Da bin ich in etwa bei dir nur habe ich da einen etwas anderen Blickwinkel drauf, für mich ist der generelle Resourcenverbrauch der Menschen größer als er sein müsste in sämtlichen Bereichen, nur im Zeit sparen bzw. Zeit für etwas Aufzuwenden scheinen wir die Zeitinvestition für einzelne Sachen immer mehr und mehr zu verringern.

    Letzten Satz würde ich nicht so unterschreiben, eher abändern man profitiert zu viel statt nur durch.


    Beschleunigungen sind keine Geschwindigkeiten :lachen: und nur wenn man ein Autoi bauen kann ist man auch kein toller Fahrer, auch wenn man meint das es so wäre. ;)

    Wo habe ich das behauptet, das Beschleunigungen Geschwindigkeiten seien? Ich fand dein Beispiel so unpassend und fehlerhaft, das ich lange gegrübelt habe was du da vergleichst. In meiner Erfahrung, beschleunigen Sportwagen schneller und erreichen höhere Geschwindigkeiten als normale PKWs das ist unabhängig vom gewählten Gang. Wenn du von einem Sportwagen der nur im 1. Gang betrieben wird mit einem normalen PKW vergleichst der in allen Gängen angetrieben wird, dann ist deine Testmethode schon grundlegend fehlerhaft. Also arbeitest du mit total fehlerhaften Daten in dem Vergleich oder meine Erfahrungen mit Sportwagen waren alles ungewöhnliche Ausnahmen.

    Ich verstehe dich da nicht, ich habe doch klar gesagt das ich denke das meine Erfahrungen mit Autos und deren Erlebnis beim fahren, für dich nicht zählen da ich die so verstanden habe das man nur Expertise haben kann wenn man das auch professionell geschaffen hat.

    Einen Zusammenhang von Fahrkünsten und sich überzeugten Autobauern habe ich nicht geäußert, noch wüsste ich wo diese Dinge das Beispiel Sportwagen tangieren.

    Es geht nicht darum das man mit mehr Speicher auch mehr erreichen kann, das Problem ist das es nicht in Relation steht mit dem

    4fachen das doppelte zu erreichen weil man das so bequemer abfrühstücken konnte.

    Das ist so als ob ein Bauer nicht bessere Pflanzen züchtet um höhere Erträge zu erhalten, sondern die Rechnung aufmacht das er mit den 4fachen seiner Felder die doppelte Ernte einfahren kann indem er die Saat einfach nur "im vorbeifahren" (Bequemlichkeit) auf das Feld schmeißt.

    Siehst du da bin ich etwas andere Auffassung, Wo erreichen wir mit 4-fachen Resourcenbedarf in Spielen nur das 2-fache Ergebnis. Wenn man mal genau hinsieht sind wir afaik von 1280*768 = 983.040 Pixel auf 2560*1920 = 4.915.200 Pixel als Auflösungsziel in Spielen gestiegen, das ist eine Verfünffachung und keine Verdopplung und das sind erst mal nur für die Anzahl der Polygone interessant. Dann erhöht sich auch die maximale Auflösung der Texturen und der Anzahl der Menge an benötigten Texturen. Trotz der "Tricks" das man durch entsprechende Texturierung Polygone ein sparen kann die ja seit ca. 30 Jahren Industriestandard sind und die Engines heute Plugins haben die sowas mit einem Klick automatisch machen.

    Wieder so ein dummes Beispiel mit 4-facher Feldergröße, hat der Bauer wohl auch 4-fache Arbeit und nicht die gleiche oder weniger wenn der Bauer('tschuldigung Agrarwirtschaftsexperte) nicht total verblödet ist wird er das wohl auch nicht für etwas mehr Ernte machen. Und die Bauern die ich kenne arbeiten ja so schon 16 Stunden 7 Tage die Woche, aber da ich selber keiner bin oder war watt weiss ich schon.


    Du verstehst mich nicht oder willst es nicht verstehen ?

    Klar sind an diversen Fronten die Anforderungen gestiegen und eine Aufstockung ist sinnvoll ...

    ABER

    ... ein besserer Umgang damit (als alles noch so knapp war das man sparen mußte) bringt viel mehr.

    Besagte zigfach geschichtete Texturen werden oftmals nur aus Bequemlichkeit durch einen Performance fressenden Shader gejagt weil "geht ja" obwohl an deren Stelle auch eine simple, performantere Lösung das exakte! Endergebnis liefern würde.

    Ne deswegen hatte ich ja so viel nachgefragt, damit mir das eventuell klarer wird. Ich denke das mein nachfragen einen Willen eindeutig zeigt.


    Bei der Aussage mit den Umgang geh ich wieder konform, beim Rest leider nicht. Für mich sieht das unter gleichen Bedingungen bei weitem eben nicht gleich aus. Nach meinen Erfahrungen werden deine geschildeten performanten Tricks heutzutage schon automatisch genutzt.

    Hast du die angesehen was HGL da wofür an Texturlagen benutzt? Oder andere aktuelle Spiele für Texturvarianzen und für welchen optischen Effekt, also warum sie das so machen um das zu erreichen?

    Irgendwie beschleicht das Gefühl das du mit Heaven-Benchmarks Aufwand, Time Spy Benchmark Ergebnisse in Fidelity gleich setzt.

    Genau da ist unser Problem, wenn eine App am Handy zig Megabyte groß ist aber quasi nur ein Bild anzeigt braucht es eigentlich nur wenige Kilobyte, aber warum, das andere geht etwas schneller zu bauen und man hat es ja. :kopfnuss:

    Yo unter 10" bitte spiegele das Bild vom Handy mal auf deinen Monitor und dann sag mir das sieht da genau so gut aus, du musst Dinge schon unter gleichen Rahmenbedingungen vergleichen, dann kannst du auch deren Resourcenverbrauch vergleichen.

    Um nicht noch einige Fragen zu vergessen/übergehen, möchte ich das nachholen:

    Yo finde ich super danke dafür!


    Das sehe ich anders, mir fällt spontan nichts digitales ein was nicht auf anderem Wege vermittelt werden könnte, es sind eher handwerkliche/körperliche Tätigkeiten die man praktisch erlernen/trainieren muss. Spontan würde mir dann noch Zutatenmischung und Geschmack des Mischergebnis einfallen.

    Erstes Beispiel ja da hat man ihm die Grenzen nicht zuvor erklärt, so funktioniert aber AAA-Spielentwicklung heute nicht, da werden ziemlich genaue Vorgaben und Grenzen gemacht.

    Zweites Beispiel bleibt wieder die Frage warum muss er das austesten, das Budget ist im Vorhinein festgeschrieben, er sieht sofort den aktuellen Verbrauch der erstellten Szene im Engine Editor. Die Berechnung des Bedarf des Verbrauch der Resourcen ist so aufwendig wie der Bremsweg beim fahren zu berechnen, das sollte ein Profi können wenn man den gerade aus dem Tiefschlaf weckt.

    Wenn ich allerdings das lese:

    Tust du das zuvor "eventuell" und im Quote dann "vielleicht" die man dann einfach ignoriert. Eventuell hab ich die ja nur zur Verzierung da verwendet! ^^


    Damit sagst Du aus/implizierst Du das deine Aussagen entweder Fakt waren oder (wegen dem "oft") einfach ignorierst.


    Möglicherweise habe ich den Satz halt so verstanden das Du dich auf Fakten beschränkst, oder aber der Satz sah mal anders aus ? :gruebel:

    KA, aber das ist aber letztendlich egal, da will ich jetzt mal nichts unterstellen, ich bin auch nicht unfehlbar.

    Was denn jetzt ich sage das meine Aussagen Fakt waren oder ich meine gemachten Aussagen ignoriere?


    Ne das war eine mögliche Hypothese das sie deshalb so ähnliche klingen wie von anderen Texten, weil wir uns beide auf die gleichen Daten in diesem Beispiel Fakten beziehen, über die Aussagekorrektheit dieser Hypothese habe keine Stellung bezogen. Das sollte einfach einen alternative Lösungsmöglichkeit für das durch dich beobachte Phänomen vermitteln, damit du nicht immer meinst ich würde das abschreiben.


    Sorry ich habe nicht nach deinen "Credentials" gefragt sondern wie du praktisches Wissen definierts, damit ich nachvollziehen kann wovon wir genau reden und nicht wieder aneinander vorbei. Zudem fragte ich was deine Meinung über mich mit dem Thema zu tun hat, auch da erkennen ich null Zusammenhang mit den "Credentials".