• 1
  • 2
  • 3
  • 4
  • 5
  • 8
 
Benutzeravatar
fflood
lange Leitung
All Star
All Star
Beiträge: 11179
Registriert: Mo, 8. Apr 2002, 15:02

Do, 2. Feb 2006, 11:18

thwidra hat geschrieben:
"Generationen" ist heutzutage kein solch qualitativer Sprung mehr, wie noch zu Zeiten von 3Dfx und Co. Jedenfalls da, wo ich gelegentlich Artikel lese. Heute werden einfach die Taktraten ein bißchen erhöht und sonstige Kleinigkeiten gemacht, damit die Karte mehr Frames ausspuckt. Eigentlich müsste von "Baureihen" geredet werden, bis es dann zwischendurch auch mal einen richtigen neuen Chipsatz gibt, bei dem das Spielchen von vorne losgeht.


Von einer Generation würde ich persönlich nur dann reden, wenn es sich wirklich um einen neuen Chipsatz handelt.
 
Benutzeravatar
KylRoy
1 R 1337
Büttenredner
Büttenredner
Beiträge: 5062
Registriert: Di, 2. Dez 2003, 10:09
Wohnort: 4th Rock from the Sun
Kontaktdaten:

Do, 2. Feb 2006, 14:30

...es ist auch schwierig die performance der karten zu vergleichen. z.b. ist mir nur sehr ungefaehr bewusst um wieviel meine ATI X700SE jetzt schneller ist als die GF5200. da waere mal eine tabelle was feines. kennt jemand sowas?
----------------------------------------------------------
Ich bin echt dankbar fuer 8 jahre PCPlayer-Abo. das GameStar Abo hab ich gekuendigt. die PCPowerplay fand ich auch nicht so richtig brauchbar. jetzt suche ich mein heil in online mags wie gamona.de, escapistmagazine.com, rockpapershotgun.com
 
Benutzeravatar
Frogo
Krötenhüter
Superreicher
Superreicher
Beiträge: 7757
Registriert: So, 7. Apr 2002, 14:56
Wohnort: Kiel
Kontaktdaten:

Do, 2. Feb 2006, 14:35

In einer PCG vom letzten Jahr war mal ein riesengroßer GraKa-Vergleich. Frag mich bitte nicht, welche Ausgabe das genau war... ich weiß aber noch, dass meine (9500 Pro) da immer noch erstaunlich gut (für ihre Verhältnisse) abgeschnitten hatte :)
______________________
<robbe> ichhatteeinenstreitmitmeinerleertasteundjetztredenwirnichtmehrmiteinander (GBO)
 
Benutzeravatar
Nackter Onkel
Obdachloser
Obdachloser
Beiträge: 713
Registriert: Mo, 23. Feb 2004, 14:09
Wohnort: Tiefstes Hessen
Kontaktdaten:

Do, 2. Feb 2006, 16:56

Toms Hardware ist immer gut für sowas.

Insbesondere die Benchmarks.
Zuletzt geändert von Nackter Onkel am Do, 2. Feb 2006, 16:59, insgesamt 2-mal geändert.
Cheers,
Nackter Onkel

___________________________________________
"Erst wenn die letzte Ölplattform versenkt, die letzte Tankstelle geschlossen ist, werdet Ihr merken, daß man bei Greenpeace nachts kein Bier kaufen kann"
 
Benutzeravatar
Frogo
Krötenhüter
Superreicher
Superreicher
Beiträge: 7757
Registriert: So, 7. Apr 2002, 14:56
Wohnort: Kiel
Kontaktdaten:

Do, 2. Feb 2006, 17:40

Tequila! hat geschrieben:
Toms Hardware ist immer gut für sowas.

Insbesondere die Benchmarks.

Stimmt, besonders, da seine erwähnten Karten dort nicht aufgelistet sind :green:
______________________

<robbe> ichhatteeinenstreitmitmeinerleertasteundjetztredenwirnichtmehrmiteinander (GBO)
 
Benutzeravatar
KylRoy
1 R 1337
Büttenredner
Büttenredner
Beiträge: 5062
Registriert: Di, 2. Dez 2003, 10:09
Wohnort: 4th Rock from the Sun
Kontaktdaten:

Do, 2. Feb 2006, 18:12

Tequila! hat geschrieben:
Toms Hardware ist immer gut für sowas.

Insbesondere die Benchmarks.


...jo, danke. da gibt's interessante artikel. leider kein vergleich in dem die X700SE auftaucht. ist wohl zu obskur, aber sie ist jedenfalls deutlich schneller als meine alte GF5200.

ich werd wohl selbst mal nen benchmark machen muessen, wobei ich dachte die zeiten seien vorbei. :lol:
----------------------------------------------------------

Ich bin echt dankbar fuer 8 jahre PCPlayer-Abo. das GameStar Abo hab ich gekuendigt. die PCPowerplay fand ich auch nicht so richtig brauchbar. jetzt suche ich mein heil in online mags wie gamona.de, escapistmagazine.com, rockpapershotgun.com
 
Benutzeravatar
Nackter Onkel
Obdachloser
Obdachloser
Beiträge: 713
Registriert: Mo, 23. Feb 2004, 14:09
Wohnort: Tiefstes Hessen
Kontaktdaten:

Sa, 4. Feb 2006, 16:40

Stimmt, besonders, da seine erwähnten Karten dort nicht aufgelistet sind Green

Schwund ist immer. :green:

Davon ab: Irgendwo auf der Seite findet man auch Benchmarks zu den obskursten Kümmelkarten a la 3dfx vs. matrox millenium ... oder so ähnlich. ;)
Zuletzt geändert von Nackter Onkel am Sa, 4. Feb 2006, 16:42, insgesamt 1-mal geändert.
Cheers,

Nackter Onkel



___________________________________________

"Erst wenn die letzte Ölplattform versenkt, die letzte Tankstelle geschlossen ist, werdet Ihr merken, daß man bei Greenpeace nachts kein Bier kaufen kann"
 
Benutzeravatar
KylRoy
1 R 1337
Büttenredner
Büttenredner
Beiträge: 5062
Registriert: Di, 2. Dez 2003, 10:09
Wohnort: 4th Rock from the Sun
Kontaktdaten:

...

Sa, 4. Feb 2006, 19:50

...ich werd dann mal den 3D-benchdings installieren, wenn keiner eine bessere software weiss.
----------------------------------------------------------

Ich bin echt dankbar fuer 8 jahre PCPlayer-Abo. das GameStar Abo hab ich gekuendigt. die PCPowerplay fand ich auch nicht so richtig brauchbar. jetzt suche ich mein heil in online mags wie gamona.de, escapistmagazine.com, rockpapershotgun.com
 
Benutzeravatar
thwidra
Inventar
Inventar
Beiträge: 3405
Registriert: Do, 27. Jun 2002, 16:26

Di, 7. Feb 2006, 13:37

thwidra hat geschrieben:
Wer sich für einige technischen Details zu HDRR interessiert, der findet einen sehr guten Artikel bei 3DCenter. In der neuesten Generation schaffen nun auch Ati-Karten echtes HDRR, allerdings sind die so monströs teuer, dafür lässt sich schon ein kompletter Low-Class-PC zusammenstellen. Immerhin sind die PC-Grafikkarten von Ati damit dem Grafikchip der Xbox360 nahezu ebenbürtig, hat ja gerade mal 2 Monate gedauert.

Hier dürfte womöglich ein kleines Missverständniss vorliegen. Natürlich schafft die Xbox360 kein HDRR, weil sie nur eine Integergenauigkeit von 32 bit hat. Für HDRR werden aber Gleitkomma-Units benötigt, die mindestens eine Genauigkeit von 64 bit mit speziellen FP16-Formaten beherrschen müssen, wie es die neuen Ati-Karten bieten und wie sie Nvidia schon seit rund einem Jahr hat. "Spezielle" FP16-Formate deshalb, weil 16 bit je Farbraum noch einen Tick zu knapp für HDRR sind, weshalb dafür noch zusätzliche Denorms auf diesen Grafikkarte benötigt werden. Besser ist es aber, gleich eine Farbtiefe von 32 bit je Farbraum für die Gleitkomma-Genauigkeit anzusetzen und damit ein 128 bit-Rendering zu erhalten, wie es die PS3 bieten wird. Dann ist HDRR ohne die zusätzlichen Denorms problemlos möglich.
Oh je, ich hoffe, ich habe das soweit halbwegs richtig aufgefasst und erklärt.
Das bedeutet jedenfalls, dass die neuen Ati-Karten der Xbox360 in der Theorie nicht nur annähernd ebenbürtig sind, sondern sogar ein gutes Stück voraus. Denn Anti-Aliasing schaffen diese Karten schon lange, während Nvidia diesen Effekt auf Kosten des HDRR "geopfert" hat. Wenn ich das richtig verstanden habe, führt die Nutzung von HDRR und Anti-Aliasing zu Performanceeinbrüchen auf Nvidia-Karten.
Da es bei HDRR um eine akkurate Lichtberechnung, bessere Kontraste und ein größeres Farbspektrum als im Truecolor-Format geht, bin ich mal gespannt, ob die Spieleentwickler diese Möglichkeit für die PS3 auch tatsächlich ausnutzen werden und die PS3 mit einem "neuen Look" daher kommt. Denn bis es auf dem PC geeigneten HDRR-Content geben wird, dürfte noch eine ganze Menge Zeit vergehen. (FarCry ist eine Ausnahme.) Auf dem PC müssen die Entwickler die Abwärtskompatibilität berücksichtigen und der LDR-Content wird uns deshalb noch eine Weile erhalten bleiben. Bei der gleichzeitigen Bereitstellung von LDR- und HDR-Content steigen wiederum Entwicklungsaufwand und -kosten. Bei der PS3 kann dagegen gleich HDR-Content produziert werden ohne auf Abwärtskompatibilität zu achten. Hm, wie wird das bei Crossplattform-Titeln sein?
So oder so bin ich da nun doch mal gespannt, ob die PS3-Spiele HDRR bieten werden. Wenn ja, dann setzt wohl zum ersten mal seit EGA-Zeiten eine Konsole einen neuen Grafikstandard in der elektronischen Spielewelt.
Zuletzt geändert von thwidra am Di, 7. Feb 2006, 13:43, insgesamt 3-mal geändert.
 
Benutzeravatar
Doc SoLo
Ghost Doc
Hauptmann
Hauptmann
Beiträge: 2111
Registriert: Mo, 8. Apr 2002, 11:19
Wohnort: Mittweida

Di, 7. Feb 2006, 15:05

Genau das wollte ich eigentlich auch noch loswerden, war aber nach 2 Monaten Gelaber über das Thema zu "matt" dazu. Wenn sich aber schon jemand die Mühe macht, sich genau in den Kram einzulesen, und was dazu zu schreiben, muss ich doch wenigstens meine Zustimmung posten - auch wenn ich das Thema für mich eigentlich abschließen wollte.

thwidra hat geschrieben:
Hier dürfte womöglich ein kleines Missverständniss vorliegen. Natürlich schafft die Xbox360 kein HDRR, weil sie nur eine Integergenauigkeit von 32 bit hat. Für HDRR werden aber Gleitkomma-Units benötigt, die mindestens eine Genauigkeit von 64 bit mit speziellen FP16-Formaten beherrschen müssen, wie es die neuen Ati-Karten bieten und wie sie Nvidia schon seit rund einem Jahr hat. "Spezielle" FP16-Formate deshalb, weil 16 bit je Farbraum noch einen Tick zu knapp für HDRR sind, weshalb dafür noch zusätzliche Denorms auf diesen Grafikkarte benötigt werden. Besser ist es aber, gleich eine Farbtiefe von 32 bit je Farbraum für die Gleitkomma-Genauigkeit anzusetzen und damit ein 128 bit-Rendering zu erhalten, wie es die PS3 bieten wird. Dann ist HDRR ohne die zusätzlichen Denorms problemlos möglich.
Oh je, ich hoffe, ich habe das soweit halbwegs richtig aufgefasst und erklärt.

Ich hab es genauso verstanden. In den englischen Artikeln stand in etwa dasselbe drin. Nur was "Denorms" sind ist mir nicht richtig klar.

Das bedeutet jedenfalls, dass die neuen Ati-Karten der Xbox360 in der Theorie nicht nur annähernd ebenbürtig sind, sondern sogar ein gutes Stück voraus.

Ich wollte nach deiner anfänglichen Behauptung schon fragen, ob eine PC-Grafikkarte denn tatsächlich den doppelten RAM, doppelte Speicherbandbreite und doppelte Rechengenauigkeit aufbieten muss, um mit dem heiligen XB360-Grafiksystem gleich ziehen zu können. ;)

Denn Anti-Aliasing schaffen diese Karten schon lange, während Nvidia diesen Effekt auf Kosten des HDRR "geopfert" hat. Wenn ich das richtig verstanden habe, führt die Nutzung von HDRR und Anti-Aliasing zu Performanceeinbrüchen auf Nvidia-Karten.

Ob es jetzt nur im Treiber ausgeschalten ist oder überhaupt nicht funktioniert, weiß ich auch nicht. In der Praxis gehts jedenfalls gar nicht erst. Sobald man in FarCry die HDRR-Variable setzt, ist AA aus.

Da es bei HDRR um eine akkurate Lichtberechnung, bessere Kontraste und ein größeres Farbspektrum als im Truecolor-Format geht, bin ich mal gespannt, ob die Spieleentwickler diese Möglichkeit für die PS3 auch tatsächlich ausnutzen werden und die PS3 mit einem "neuen Look" daher kommt.

Ich eben auch! Wäre schon toll, gerade auf dem Wohnzimmer-Fernseher, wo eben noch ein Pixar-Film lief, Spiele zumindest mit derselben Beleuchtungsoptik zu sehen.

Denn bis es auf dem PC geeigneten HDRR-Content geben wird, dürfte noch eine ganze Menge Zeit vergehen.

Ja, denn bis man sich tatsächlich die Mühe macht, Texturen in diesen HDR-Formaten zu erstellen, müssen die Karten nicht nur verfügbar, sondern auch weit verbreitet sein. Allerdings siehts da auf der PS3 auch schlecht aus - die Speicherbandbreite ist kaum höher als die der XB-360 und damit eben auch nur halb so groß wie die der PC-Karten. Das wird für HDR-Texturen nicht reichen. Und selbst auf PC-Karten dürfte es sehr eng werden.

(FarCry ist eine Ausnahme.)

Nicht wirklich. Der HDRR-Modus verwendet auch nur die 32-Bit Texturen des Standard-Renderers. Aber das sieht schon beeindruckend genug aus. Ich persönlich glaube auch nicht, dass der Sprung zu HDR-Texturen nochmal so einen Unterschied machen wird. Die 32-Bit der jetzigen Texturen korrekt und ohne Rundungsprobleme durch die zahlreichen Rechenschritte der HDRR-GPUs zu führen und am Ende per Dynamikkompression ein Bild mit - je nach Anzeigegerät - optimalem Kontrast zu erzeugen, ist sicher der wichtigere Schritt.

Bei der PS3 kann dagegen gleich HDR-Content produziert werden ohne auf Abwärtskompatibilität zu achten.

Siehe oben. Ist fraglich, ob RAM-Ausbau und Bandbreite für HDR-Texturen reichen. Ich wäre aber schon froh, wenn der FP16-Modus so performant wäre, dass die Spieleentwickler nicht gleich wieder zu FX8 o.ä. greifen. Polygonanzahl und Texturauflösung sieht man nämlich auf Bildschirmfotos stärker als HDRR. Wenn ersteres zu Gunsten von zweiterem zu stark beschnitten werden muss, wird sichs nicht durchsetzen, weil jeder Screenshot schlechter als einer von der XB-360 aussehen wird. Sonys Commitment zu den ganz hohen HDTV-Auflösungen schmeckt mir in diesem Zusammenhang gar nicht. Insgeheim hoffe ich, dass das eine Ente ist und sie sich auch auf 720p beschränken. Denn zaubern können wird auch deren Hardware nicht.

Hm, wie wird das bei Crossplattform-Titeln sein?

Man kann aus den HDR-Texturen automatisiert welche mit geringerer Farbtiefe errechnen lassen - zumindest wenn auf der Zielplatform HDRR verfügbar ist. Imho wirds erst aufwändig, wenn das nicht der Fall ist. Dann müssen die Kontraste angepasst werden.

So oder so bin ich da nun doch mal gespannt, ob die PS3-Spiele HDRR bieten werden. Wenn ja, dann setzt wohl zum ersten mal seit EGA-Zeiten eine Konsole einen neuen Grafikstandard in der elektronischen Spielewelt.

Ganz meine Meinung. (Dass ich das bei diesem Thema nochmal schreiben darf... ;))

Ciao,

Doc SoLo
 
Benutzeravatar
Ganon
Ganonenfutter
All Star
All Star
Beiträge: 14374
Registriert: Mo, 8. Apr 2002, 17:40
Wohnort: Frankfurt am Main

Di, 7. Feb 2006, 15:32

Denn Anti-Aliasing schaffen diese Karten schon lange, während Nvidia diesen Effekt auf Kosten des HDRR "geopfert" hat. Wenn ich das richtig verstanden habe, führt die Nutzung von HDRR und Anti-Aliasing zu Performanceeinbrüchen auf Nvidia-Karten.

Ob es jetzt nur im Treiber ausgeschalten ist oder überhaupt nicht funktioniert, weiß ich auch nicht. In der Praxis gehts jedenfalls gar nicht erst. Sobald man in FarCry die HDRR-Variable setzt, ist AA aus.

Bei Splinter Cell 3 ist das genau so. Bei HL2 Lost Coast kann man aber beides gleichzeitig einschalten. Zumindest auf meiner GF6800 ist das dann aber unspielbar, wenn die HDRR-Effekte im Bild sind. Kann sein, dass Ati-Karten das besser hinkriegen.
Zuletzt geändert von Ganon am Di, 7. Feb 2006, 15:32, insgesamt 1-mal geändert.
_______________________________
Leland Yee, the Senator that decided that violent videogames were so dangerous to society that he needed to propose a law that banned selling them to minors, was arrested recently for weapons trafficking. He was buying shoulder-mounted rocket launchers from an extremist Islamic group and accidentally sold them to a member of the FBI. I mean, thank God he doesn't play videogames or he might have really become a threat to society.

-- Extra Credits Episode 200
 
Benutzeravatar
thwidra
Inventar
Inventar
Beiträge: 3405
Registriert: Do, 27. Jun 2002, 16:26

Mi, 8. Feb 2006, 14:42

Doc SoLo hat geschrieben:
Nur was "Denorms" sind ist mir nicht richtig klar.

Was Denorms exakt sind, weiß ich auch nicht. Der Begriff kam mir bsher nur im 3D-Center-Artikel unter. Demnach sorgen diese Denorms für den Ausgleich, der dem FP16-Format für den hohen Dynamikbereich fehlt. Wie ich mitlerweile gelesen habe, ist es aber Ansichtssache, ob das FP16-Format schon HDRR ist oder nicht. Streng genommen liegt die Dynamik knapp unterhalb des Definitionsbereiches für HDRR. Der 3D-Center-Artikel veranschaulicht das ganz gut (Seite 3 oben).

Ich wollte nach deiner anfänglichen Behauptung schon fragen, ob eine PC-Grafikkarte denn tatsächlich den doppelten RAM, doppelte Speicherbandbreite und doppelte Rechengenauigkeit aufbieten muss, um mit dem heiligen XB360-Grafiksystem gleich ziehen zu können. ;)

Nun ja, ich bin tatsächlich davon ausgegangen, dass die Xbox360 HDRR kann. Mein Fehler. Bin schon froh, dass ich es selbst gemerkt habe. So ganz stimmt es aber trotzdem nicht, dass die Xbox360 "einfach nur" mit Integergenauigkeit von 32 bit rechnet. Tatsächlich kann sie mit mehr Formaten umgehen, laut Ati sogar mit dem FP16-Format, nur kann dieses nicht angewendet werden, weil die Speicherbandbreite und der passende Framebuffer fehlt. Deshalb muss es wieder auf FX8 gerundet werden. Die Xbox360 rechnet intern mit einem speziellen FP10-Format für die drei Farbräume und FP2 für Alpha/Transparenz (32 bit zusammen). Was das konkret bringen soll, ist mir schleierhaft, aber ich glaube, dass es darauf basiert, dass man an allen Ecken und Enden lesen kann, die Xbox360 sei HDRR-fähig. Ich halte das jedenfalls für eine Sackgassen-Entwicklung, bei den PC-Grafikkarten setzen Ati und Nvidia ja auf das FP16-OpenEXR-Format.

Da es bei HDRR um eine akkurate Lichtberechnung, bessere Kontraste und ein größeres Farbspektrum als im Truecolor-Format geht, bin ich mal gespannt, ob die Spieleentwickler diese Möglichkeit für die PS3 auch tatsächlich ausnutzen werden und die PS3 mit einem "neuen Look" daher kommt.

Ich eben auch! Wäre schon toll, gerade auf dem Wohnzimmer-Fernseher, wo eben noch ein Pixar-Film lief, Spiele zumindest mit derselben Beleuchtungsoptik zu sehen.

Du hast uns schon auf der GC davon erzählt. Bis jetzt hatte ich diese Aussage nicht verstanden. ;)
Zur PS3 konnte ich leider keine exakte Aussage finden, ob Nvidia dort ebenfalls das OpenEXR-Format verwendet. Ich gehe aber mal stillschweigend davon aus, dass es FP32-OpenEXR sein wird. Na ja, jedenfalls rate mal, wer das OpenEXR-Format für die Bit-Definitionen der Farbräume entwickelt hat. Weißt du vermutlich schon. Es kommt von ILM und Pixar, Nvidia und jetzt auch Ati haben das nur auf ihre Grafikkarten gesetzt. ;)
http://www.openexr.com/

Denn bis es auf dem PC geeigneten HDRR-Content geben wird, dürfte noch eine ganze Menge Zeit vergehen.

Ja, denn bis man sich tatsächlich die Mühe macht, Texturen in diesen HDR-Formaten zu erstellen, müssen die Karten nicht nur verfügbar, sondern auch weit verbreitet sein. Allerdings siehts da auf der PS3 auch schlecht aus - die Speicherbandbreite ist kaum höher als die der XB-360 und damit eben auch nur halb so groß wie die der PC-Karten. Das wird für HDR-Texturen nicht reichen. Und selbst auf PC-Karten dürfte es sehr eng werden.

Die Speicherbandbreite hatte ich bei meinen Überlegungen nicht berücksichtigt. Das wird natürlich ein Flaschenhals sein. Immerhin hat HDR-Content aber den Vorteil, dass für unterschiedliche Helligkeitsstufen nur noch eine Textur bereit gestellt werden muss. Theoretisch sollte das die Arbeit des Designers sogar einfacher machen. Für eine Tag-/Nacht-Szene werden für die Nacht einfach die Lichtquellen reduziert und die selbe Textur ist im Dunkeln zu sehen. Das schafft jedenfalls Platz im Grafikkarten-Speicher.

(FarCry ist eine Ausnahme.)

Nicht wirklich. Der HDRR-Modus verwendet auch nur die 32-Bit Texturen des Standard-Renderers. Aber das sieht schon beeindruckend genug aus. Ich persönlich glaube auch nicht, dass der Sprung zu HDR-Texturen nochmal so einen Unterschied machen wird. Die 32-Bit der jetzigen Texturen korrekt und ohne Rundungsprobleme durch die zahlreichen Rechenschritte der HDRR-GPUs zu führen und am Ende per Dynamikkompression ein Bild mit - je nach Anzeigegerät - optimalem Kontrast zu erzeugen, ist sicher der wichtigere Schritt.

Das sehe ich genauso. Der Sprung zur HDR-Textur wird nicht so viel mehr sein, wie der Sprung von HighColor zu TrueColor, also eher geringfügig. Wichter sind in der Tat die Lichtberechnungen, damit der Kontrastreichtum steigt und Iris-Effekte möglich werden. Außerdem wird eine bessere Dreidimensionalität suggeriert. Die hohe dynamische Lichtberechnung ist es im Grunde auch nur, die in FarCry gemacht wird. Die Engine hatte von vorneherein eine dynamische Beleuchtungsberechnung und hat das nun in den HDR-Bereich angehoben. Im Grunde ist das auch alles, was der Lost Coast-Level macht. In den alten Steam-News spricht Valve von High Dynamic Range Lighting Rendering. Der ganze Lost Coast-Level bietet ebenfalls nur die 32 bit-Texturen, nur hier zusammen mit einer Reihe Lightmaps, die die HDR-Lichtberechnung optisch unterstützen und es nur nach HDRR aussehen lassen. Es ist also HDRR, wie bei Far Cry, aber ohne eigentlichen HDR-Content.
Mittlerweile wünsche ich mir Doom3 als HDRR-Spiel. Für eine "Dunkelsimulation" ist das Spiel perfekt geeignet. Anstatt völliger Dunkelheit sollten nach kurzer Zeit Schemen sichtbar sein, wenn sie das Auge angepasst hat.
Zuletzt geändert von thwidra am Mi, 8. Feb 2006, 16:33, insgesamt 2-mal geändert.
 
Benutzeravatar
ButtSeriously
Code RED
Forumskrieger
Forumskrieger
Beiträge: 1778
Registriert: Mo, 8. Apr 2002, 18:41
Wohnort: Bochum

Mi, 8. Feb 2006, 17:22

thwidra hat geschrieben:
Es kommt von ILM und Pixar...


Auch Pixar? Komisch, in dem Variety-Tech-Artikel war seinerzeit nur etwas von ILM zu lesen, und soweit ich das überblicke, ist es auf der von Dir verlinkten Seite genauso. Vielleicht sehe ich aber auch nur mal wieder den Wald vor lauter Bäumen nicht. ;)

Grüße von
ButtSeriously
In memoriam PC Player 1/93 - 6/2001
 
Benutzeravatar
fflood
lange Leitung
All Star
All Star
Beiträge: 11179
Registriert: Mo, 8. Apr 2002, 15:02

Mi, 8. Feb 2006, 19:06

ButtSeriously hat geschrieben:
thwidra hat geschrieben:
Es kommt von ILM und Pixar...


Auch Pixar? Komisch, in dem Variety-Tech-Artikel war seinerzeit nur etwas von ILM zu lesen, und soweit ich das überblicke, ist es auf der von Dir verlinkten Seite genauso. Vielleicht sehe ich aber auch nur mal wieder den Wald vor lauter Bäumen nicht. ;)


Auf der Seite steht weiter unten auch ein paar mal was von Pixar.
 
Benutzeravatar
ButtSeriously
Code RED
Forumskrieger
Forumskrieger
Beiträge: 1778
Registriert: Mo, 8. Apr 2002, 18:41
Wohnort: Bochum

Mi, 8. Feb 2006, 19:36

Simmt, mit Ctrl.-F habe sogar ich es dann auch noch gefunden. ;)

Daß sie anscheinend erst später neue Code-Teile dazu beigetragen haben, erklärt natürlich, warum sie im ursprünglichen Variety-Artikel nicht erwähnt wurden.

Grüße von
ButtSeriously
In memoriam PC Player 1/93 - 6/2001
  • 1
  • 2
  • 3
  • 4
  • 5
  • 8

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 5 Gäste