Genau das wollte ich eigentlich auch noch loswerden, war aber nach 2 Monaten Gelaber über das Thema zu "matt" dazu. Wenn sich aber schon jemand die Mühe macht, sich genau in den Kram einzulesen, und was dazu zu schreiben, muss ich doch wenigstens meine Zustimmung posten - auch wenn ich das Thema für mich eigentlich abschließen wollte.
thwidra hat geschrieben:Hier dürfte womöglich ein kleines Missverständniss vorliegen. Natürlich schafft die Xbox360 kein HDRR, weil sie nur eine Integergenauigkeit von 32 bit hat. Für HDRR werden aber Gleitkomma-Units benötigt, die mindestens eine Genauigkeit von 64 bit mit speziellen FP16-Formaten beherrschen müssen, wie es die neuen Ati-Karten bieten und wie sie Nvidia schon seit rund einem Jahr hat. "Spezielle" FP16-Formate deshalb, weil 16 bit je Farbraum noch einen Tick zu knapp für HDRR sind, weshalb dafür noch zusätzliche Denorms auf diesen Grafikkarte benötigt werden. Besser ist es aber, gleich eine Farbtiefe von 32 bit je Farbraum für die Gleitkomma-Genauigkeit anzusetzen und damit ein 128 bit-Rendering zu erhalten, wie es die PS3 bieten wird. Dann ist HDRR ohne die zusätzlichen Denorms problemlos möglich.
Oh je, ich hoffe, ich habe das soweit halbwegs richtig aufgefasst und erklärt.
Ich hab es genauso verstanden. In den englischen Artikeln stand in etwa dasselbe drin. Nur was "Denorms" sind ist mir nicht richtig klar.
Das bedeutet jedenfalls, dass die neuen Ati-Karten der Xbox360 in der Theorie nicht nur annähernd ebenbürtig sind, sondern sogar ein gutes Stück voraus.
Ich wollte nach deiner anfänglichen Behauptung schon fragen, ob eine PC-Grafikkarte denn tatsächlich den doppelten RAM, doppelte Speicherbandbreite und doppelte Rechengenauigkeit aufbieten muss, um mit dem heiligen XB360-Grafiksystem gleich ziehen zu können.

Denn Anti-Aliasing schaffen diese Karten schon lange, während Nvidia diesen Effekt auf Kosten des HDRR "geopfert" hat. Wenn ich das richtig verstanden habe, führt die Nutzung von HDRR und Anti-Aliasing zu Performanceeinbrüchen auf Nvidia-Karten.
Ob es jetzt nur im Treiber ausgeschalten ist oder überhaupt nicht funktioniert, weiß ich auch nicht. In der Praxis gehts jedenfalls gar nicht erst. Sobald man in FarCry die HDRR-Variable setzt, ist AA aus.
Da es bei HDRR um eine akkurate Lichtberechnung, bessere Kontraste und ein größeres Farbspektrum als im Truecolor-Format geht, bin ich mal gespannt, ob die Spieleentwickler diese Möglichkeit für die PS3 auch tatsächlich ausnutzen werden und die PS3 mit einem "neuen Look" daher kommt.
Ich eben auch! Wäre schon toll, gerade auf dem Wohnzimmer-Fernseher, wo eben noch ein Pixar-Film lief, Spiele zumindest mit derselben Beleuchtungsoptik zu sehen.
Denn bis es auf dem PC geeigneten HDRR-Content geben wird, dürfte noch eine ganze Menge Zeit vergehen.
Ja, denn bis man sich tatsächlich die Mühe macht, Texturen in diesen HDR-Formaten zu erstellen, müssen die Karten nicht nur verfügbar, sondern auch weit verbreitet sein. Allerdings siehts da auf der PS3 auch schlecht aus - die Speicherbandbreite ist kaum höher als die der XB-360 und damit eben auch nur halb so groß wie die der PC-Karten. Das wird für HDR-Texturen nicht reichen. Und selbst auf PC-Karten dürfte es sehr eng werden.
(FarCry ist eine Ausnahme.)
Nicht wirklich. Der HDRR-Modus verwendet auch nur die 32-Bit Texturen des Standard-Renderers. Aber das sieht schon beeindruckend genug aus. Ich persönlich glaube auch nicht, dass der Sprung zu HDR-Texturen nochmal so einen Unterschied machen wird. Die 32-Bit der jetzigen Texturen korrekt und ohne Rundungsprobleme durch die zahlreichen Rechenschritte der HDRR-GPUs zu führen und am Ende per Dynamikkompression ein Bild mit - je nach Anzeigegerät - optimalem Kontrast zu erzeugen, ist sicher der wichtigere Schritt.
Bei der PS3 kann dagegen gleich HDR-Content produziert werden ohne auf Abwärtskompatibilität zu achten.
Siehe oben. Ist fraglich, ob RAM-Ausbau und Bandbreite für HDR-Texturen reichen. Ich wäre aber schon froh, wenn der FP16-Modus so performant wäre, dass die Spieleentwickler nicht gleich wieder zu FX8 o.ä. greifen. Polygonanzahl und Texturauflösung sieht man nämlich auf Bildschirmfotos stärker als HDRR. Wenn ersteres zu Gunsten von zweiterem zu stark beschnitten werden muss, wird sichs nicht durchsetzen, weil jeder Screenshot schlechter als einer von der XB-360 aussehen wird. Sonys Commitment zu den ganz hohen HDTV-Auflösungen schmeckt mir in diesem Zusammenhang gar nicht. Insgeheim hoffe ich, dass das eine Ente ist und sie sich auch auf 720p beschränken. Denn zaubern können wird auch deren Hardware nicht.
Hm, wie wird das bei Crossplattform-Titeln sein?
Man kann aus den HDR-Texturen automatisiert welche mit geringerer Farbtiefe errechnen lassen - zumindest wenn auf der Zielplatform HDRR verfügbar ist. Imho wirds erst aufwändig, wenn das nicht der Fall ist. Dann müssen die Kontraste angepasst werden.
So oder so bin ich da nun doch mal gespannt, ob die PS3-Spiele HDRR bieten werden. Wenn ja, dann setzt wohl zum ersten mal seit EGA-Zeiten eine Konsole einen neuen Grafikstandard in der elektronischen Spielewelt.
Ganz meine Meinung. (Dass ich das bei diesem Thema nochmal schreiben darf...

)
Ciao,
Doc SoLo