Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

So, 29. Feb 2004, 18:25

Doc SoLo hat geschrieben:
Den Vorab-Trubel um PCI-Express und die angebliche "Entwertung" der AGP-Grafikkarten kann ich überhaupt nicht verstehen.

Die Vorteile werden sich in den ersten Karten kaum zeigen. Wenn dann in der 2., 3. Kartengeneration die Entwickler lernen, die Bandbreitenvorteile besser auszunutzen, wird das sicher auch zu entsprechenden Spieleentwicklungen führen, die dann von solchen Karten profitieren werden. Insofern ist zur Zeit tatsächlich kein Anlaß für heftige Gefühlsregungen. ;)

Gemeinsame Grafik- und Hauptspeicher funktionieren für Bürorechner sehr gut, extreme Spieleleistung wird sicher auf absehbare Zeit immer noch lokalen Grafikspeicher erfordern und mitbringen. Auch bei AGP ist eine gemeinsame Nutzung von Haupt- und Grafikspeicher spezifiziert, dennoch bringen die heutigen Grafikkarten mehr lokalen Speicher mit als früher Server hatten. Nur weil es spezifiziert ist, muß man es ja nicht nutzen.
 
Benutzeravatar
Doc SoLo
Ghost Doc
Hauptmann
Hauptmann
Beiträge: 2111
Registriert: Mo, 8. Apr 2002, 11:19
Wohnort: Mittweida

So, 29. Feb 2004, 22:57

Ssnake hat geschrieben:
Die Vorteile werden sich in den ersten Karten kaum zeigen. Wenn dann in der 2., 3. Kartengeneration die Entwickler lernen, die Bandbreitenvorteile besser auszunutzen, ...

Das halte ich jetzt aber für bloßes Gerede. Bereits heutige Grafikkarten erreichen zwischen GPU und RAM über 30GB/s. Bei der nächsten Generation wird das noch deutlich mehr. Die Bandbreite von 4GB/s, die PCI Express bietet, ist dagegen bereits heute ein Witz. Ich bin jedenfalls sehr gespannt, wie die Spieleentwickler die gesparten 3 Zehntelsekunden beim Laden des Levels in Spielspass umsetzen werden.

Auch bei AGP ist eine gemeinsame Nutzung von Haupt- und Grafikspeicher spezifiziert, dennoch bringen die heutigen Grafikkarten mehr lokalen Speicher mit als früher Server hatten. Nur weil es spezifiziert ist, muß man es ja nicht nutzen.
Selbstverständlich nicht. Auch AGP8X ist für Echtzeit-Texturauslagerung viel zu langsam - PCI-Express ebenso.

Ciao,

Doc SoLo
 
Benutzeravatar
Hattori Hanso
180 Grad
$ Dagobert $
$ Dagobert $
Beiträge: 9683
Registriert: Fr, 28. Jun 2002, 07:19
Wohnort: Provinz Tao Shan, zeitweise Stuttgart

Mo, 1. Mär 2004, 08:13

Ich wäre vorsichtig mit Ati Karten: Mit meiner Radeon 8500 hatte ich seinerzeit immense Probleme, z.B. war GTA3 nicht vernünftig zum Laufen zu bringen. Außerdem werden die imho von den Zeitschriften momentan gehypt ohne Ende. Es ist nie etwas negatives zu Lesen, obwohl viele User Riesenprobleme mit den Karten haben.

Noch ein interessantes Detail am Rande: Die Radeon 8500 schnitt in damaligen Benchmarks immer viel besser ab als die GF3, hatte aber auch eine wesentlich schlechtere Bildqualität: In UT2003 wurden z.B. eine Menge Effekte und Details auf der R8500 gar nicht dargestellt, kein Wunder also daß sie schneller war.
--------------------------------------------------------
1+1 ist ungefähr 3

http://card.mygamercard.net/DeadlyEngineer.png

http://avatar.xboxlive.com/avatar/Deadl ... r-body.png
 
Benutzeravatar
Frogo
Krötenhüter
Superreicher
Superreicher
Beiträge: 7757
Registriert: So, 7. Apr 2002, 14:56
Wohnort: Kiel
Kontaktdaten:

Mo, 1. Mär 2004, 10:01

Das mag für die 8X00-Serie stimmen, die 9X00 ist aber wirklich so gut, hab selbst eine 9500 Pro und bin rundum zufrieden mit ihr! Max Payne butterweich mit vollen Details und 4x FSAA zu spielen auf meinem 1333 Athlon ist einfach ein Traum gewesen, von Problemen keine Spur! Leider passte die Karte nicht in mein Notebook, so dass ich derzeit drauf verzichten muß... :(
______________________
<robbe> ichhatteeinenstreitmitmeinerleertasteundjetztredenwirnichtmehrmiteinander (GBO)
 
Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Mo, 1. Mär 2004, 11:56

Ich hab' eine 9700 Pro, auch die ist traumhaft. Bedenken muß man allerdings, daß die Referenzdesigns von ATi und NVidia jeweils DA-Wandler von guter Qualität verwenden, die für den Billigsektor in der Regel wieder ein paar Pfennige zu teuer sind. Daher ist bei den preiswerteren Angeboten -egal, ob NVidia oder ATi- in der Regel auch zu beobachten, daß die Qualität am VGA-Ausgang in aller Regel recht mäßig ist. Mit DVI gehört das Thema natürlich der Vergangenheit an ...wenn man einen dafür geeigneten LC-Monitor hat.

Ich bin früher eingefleischter NVidia-Fan gewesen, weil auch deren Treiber in der Regel ausgereifter waren als ATis. ATi hat ja einen legendär schlechten Ruf bei der Treiberentwicklung, allerdings wurde hier eine Qualitätsoffensive versprochen, die zumindest derzeit auch gute Ergebnisse gebracht hat.
Bis zur GeForce 4 gab es wenig Grund, sich für ATi zu entscheiden, ja. Die Wahl zwischen GeForce FX und Radeon 9500 Pro ff hingegen fiel für mich eindeutig zugunsten von ATi aus. Auch die Treiberqualität bei NVidia hat nachgelassen, ich denke das ist mittlerweile offenkundig. Insgesamt freue ich mich, daß ATi zu einer starken Konkurrenz von NVidia herangewachsen ist - vom Wettbewerb beider Firmen können wir Kunden letztlich nur profitieren.

Das zentrale Argument für mich ist aber der schnelle und vergleichsweise hochwertige 4x FSAA-Modus der ATi-Karten. Es ist mir völlig unverständlich, warum das die NVidia-Entwickler bis heute nicht auf die Reihe gebracht haben.
 
Benutzeravatar
Hattori Hanso
180 Grad
$ Dagobert $
$ Dagobert $
Beiträge: 9683
Registriert: Fr, 28. Jun 2002, 07:19
Wohnort: Provinz Tao Shan, zeitweise Stuttgart

Mo, 1. Mär 2004, 12:45

Ein Freund von mir hat z.B. gerade Probleme mit einer 9800er und X2. Wenn er die Bumpmaps auf den Raumschiffen aktiviert bricht seine Performance gewaltig ein. (Trotz neuester Treiber.) Mit Nvidia Karten hört man sowas sehr selten.

MP2 ist auch eine grundsolide, einfache Engine, es wäre eine Schande wenn das auch nicht laufen würde. Aber gerade bei "Exoten" Engines tendieren Ati KArten dazu öfters Probleme zu machen.

Und bei UT war zwar die Performance gut, aber grafisch war das ein Himmelweiter Unterschied. (Ich weiß das weil ich seinerzeit einen neuen Komplettrechner mit Nvidia Karte gekauft habe und einen direkten Vergleich ziehen konnte.)
--------------------------------------------------------

1+1 ist ungefähr 3



http://card.mygamercard.net/DeadlyEngineer.png



http://avatar.xboxlive.com/avatar/Deadl ... r-body.png
 
Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Mo, 1. Mär 2004, 16:37

Nach meinem Wissen hat NVidia beim Anisotropischen Filtern die Nase deutlich vorn, ATi beim Antialiasing. Auch sind die Shader-Funktionen bei ATi besser implementiert - das wird sich auf absehbare Zeit bei den Spielen aber kaum bemerkbar machen, weil man ja als Spieleentwickler eigentlich keine karten-/herstellerspezifische Optimierung machen möchte. Das können sich eigentlich nur große Entwickler wie ID oder Valve leisten.

Ansonsten ist es in meinen Augen keine Glaubensfrage, sondern ob die von einem selbst bevorzugten Spiele auf der einen oder anderen Plattform erkennbare Vorteile bieten, und welcher Typ -wenn denn absehbar ist, daß man die Karte länger als zwei Jahre verwenden wird- das höhere Potential für die Zukunft hat. Letzteres sehe ich persönlich -speziell wegen der Shader- bei ATi, weil die Shader-Geschichten noch relativ neu sind und erst Stück um Stück ausgereizt werden. Hier muß sich erst noch ein Stamm erfahrener Entwickler bilden, die dann nicht nur in wenigen Spitzentiteln (Doom3, HL2), sondern auch in der Breite diese Effekte einsetzen.
 
Benutzeravatar
Alex
Großer Meister
Großer Meister
Beiträge: 2857
Registriert: Di, 9. Jul 2002, 20:39
Wohnort: Berlin

Di, 9. Mär 2004, 14:56

Was uns wieder zu der Beobachtung bringt: Früher gab es Spiele, für die es noch kein System gab, dass schnell genug ist. Heutzutage rennt die Hardware den Spieleentwicklern fast davon.

Auch ich bin übrigens prinzipiell zufrieden mit meiner Ati (9700 als Pro laufend), damals war die Entscheidung einfach. Aber es ist richtig, es gibt da Probleme, die selten besprochen werden. Ich leide durchaus an breiten (Interferenz?-)Linien, die vor allem bei 3D über den Bildshcirm wandern - wie Tausende andere auch. In einem Spiel selbst sieht man sie nicht, nur wenn der Bildschirm komplett in einer Farbe ist (vor allem schwarz). Damit kann man locker leben, aber so was ist mit bei Nvidia-Karten nicht bekannt.
 
Benutzeravatar
wulfman
Leitwolf
Licht des Forums
Licht des Forums
Beiträge: 3063
Registriert: So, 7. Apr 2002, 17:28
Wohnort: Tansania

Di, 9. Mär 2004, 18:55

alex, treten die streifen zufällig auf einem tft auf?

mfg
wulfman
______________________________
Vorläufig letzte Worte, heute:

der Exstudent auf der Insel
 
Benutzeravatar
Alex
Großer Meister
Großer Meister
Beiträge: 2857
Registriert: Di, 9. Jul 2002, 20:39
Wohnort: Berlin

Di, 9. Mär 2004, 20:28

Hmm, kann ich Dir leider nicht sagen, ich hab noch einen guten alten Röhrenmonitor. Ich entsinne mich aber vage in einem Forum (http://www.rage3d.com/board/forumdispla ... forumid=27) gelesen zu haben, dass einige das Problem gelöst haben, indem sie den mitgelieferten Dongle (CRT auf DVI) benutzt haben. Ich hab es nicht probiert, weil ich immer noch meinen PC-DVD-Player benutze. Soll heißen, bei Nutzung des DVI-Ausgangs kann man nicht mehr den TV-Ausgang nutzen, was natürlich ärgerlich ist. Wenn ich mich da aber nur verlesen haben sollte, darf man mich gerne aufklären. :) Wenn also diese Interferenzlinien durch das Nutzen des DVI-Ausgangs verschwinden, sollten sie demensprechend bei einem TFT gar nicht erst auftreten.
 
Benutzeravatar
wulfman
Leitwolf
Licht des Forums
Licht des Forums
Beiträge: 3063
Registriert: So, 7. Apr 2002, 17:28
Wohnort: Tansania

Di, 9. Mär 2004, 21:03

nö, dazu kann ich dann nichts sagen. ati karten haben/hatten auch ein problem mit tft-monitoren (bunte pixel, streifen), das sich durch minimale abweichung von der standard-frequenz (59,9 oder 60,1hz) beheben ließ. in deinem fall wird das aber nichts helfen.

mfg
wulfman
______________________________

Vorläufig letzte Worte, heute:



der Exstudent auf der Insel
 
Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Di, 9. Mär 2004, 23:27

Alex hat geschrieben:
Was uns wieder zu der Beobachtung bringt: Früher gab es Spiele, für die es noch kein System gab, dass schnell genug ist. Heutzutage rennt die Hardware den Spieleentwicklern fast davon.

Kann ich nicht bestätigen. Wer beim neuesten Tomb Raider alle Shader-Effekte aktiviert, wird kaum einen Rechner finden, auf dem es ruckelfrei läuft. Allerdings sind Spiele besser skalierbar geworden - man schaltet halt ein paar Effekte runter und begnügt sich mit SVGA-Auflösung, schon flutscht es wieder und sieht immer noch passabel aus. Denn - für diese These werde ich ja immer wieder angegriffen, ich bleibe aber dabei - eigentlich ist die Bombast-Grafik für den Unterhaltungswert eines Spiels nebensächlich. Nicht völlig unwichtig, aber bei weitem nicht so bedeutend, wie einem die Marketing-Abteilungen von Grafikkarten- und Spieleherstellern gleichermaßen einreden wollen.

Schwierig wird es, wenn Effekte nicht skalierbar gemacht werden, weil beispielsweise im Multiplayer Waffengleichheit sichergestellt werden soll. Um nur mal ein <Selbstironie>beliebiges Beispiel</Selbstironie> herauszugreifen:
Wäre in einer Panzersimulation der Effekt von Nebelgranaten abschaltbar, wäre jeder Spieler bekloppt, wenn er ihn (zumindest in Multiplayer-Spielen) eingeschaltet ließe. Praktisch jeder Effekt, den wir einsetzen, ist von taktischer Relevanz (und damit auch für den Spielwitz bedeutsam). Der einzige Effekt, der mir jetzt auf Anhieb einfällt, bei dem das nicht so ist, ist das Alpha-Blending der Vegetation, die einem gelegentlich den Blick verstellt. Ohne dieses sieht es aber dermaßen deutlich weniger schön aus, daß man es auch nicht abschalten möchte. Auch können wir die Sichtweite nicht an die Rechnerleistung anpassen - dann würden ja die Besitzer schwacher Maschinen stets im Nebel tappen und Besitzer neuer Computer hätten einen nahezu unschlagbaren Vorteil bezüglich Aufklärungs- und Waffenreichweite. Kurzum, wir können eigentlich nur im Bereich Bildschirmauflösung skalieren, das ist natürlich hart für Besitzer älterer Grafikkartenmodelle. Und wenn ich mir anschaue, die wie Framerate beim 20x-Zoom in einen tiefen Wald hinein in die Knie geht, dann hätt' ich lieber eine Radeon 19700 statt des Modells, das tatsächlich drinnen steckt. :o
 
Benutzeravatar
Hattori Hanso
180 Grad
$ Dagobert $
$ Dagobert $
Beiträge: 9683
Registriert: Fr, 28. Jun 2002, 07:19
Wohnort: Provinz Tao Shan, zeitweise Stuttgart

Mi, 10. Mär 2004, 08:06

Klingt ja so als ob das neue Steelbeasts gigantisch aussehen wird :wink:

Da hast Du Deine Schleichwerbung mal geschickt verpackt! :green:
--------------------------------------------------------

1+1 ist ungefähr 3



http://card.mygamercard.net/DeadlyEngineer.png



http://avatar.xboxlive.com/avatar/Deadl ... r-body.png
 
Benutzeravatar
Alex
Großer Meister
Großer Meister
Beiträge: 2857
Registriert: Di, 9. Jul 2002, 20:39
Wohnort: Berlin

Mi, 10. Mär 2004, 10:39

Ssnake hat geschrieben:
Wer beim neuesten Tomb Raider alle Shader-Effekte aktiviert, wird kaum einen Rechner finden, auf dem es ruckelfrei läuft.


Ok, schon richtig, aber da mache ich mal eine schlampige Programmierung für verantwortlich! :) Das ist es eben, bei der Power, die Hardware heutzutage hat, schmeißen die Entwickler einfach ein paar Dinge rein, die wenn man nur etwas effizienter programmieren würde, keine Probleme machen. Und das finde ich schon was anderes als zB Hi Octane von Bullfrog damals, da war die Hardware (Prä-3D-Karten) noch nicht reif für. Aber natürlich bin ich in der Hinsicht nur ein Laie und vertraue da schon auf Dein Urteil, und sicherlich hast Du mit der Skalierbarkeit Recht. Zig Shader, volles AA und AF benötigen natürlich auch ne Menge Rechenpower.
 
Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Mi, 10. Mär 2004, 12:00

Alex hat geschrieben:
Ssnake hat geschrieben:
Wer beim neuesten Tomb Raider alle Shader-Effekte aktiviert, wird kaum einen Rechner finden, auf dem es ruckelfrei läuft.


Ok, schon richtig, aber da mache ich mal eine schlampige Programmierung für verantwortlich! :) Das ist es eben, bei der Power, die Hardware heutzutage hat, schmeißen die Entwickler einfach ein paar Dinge rein, die wenn man nur etwas effizienter programmieren würde, keine Probleme machen.

Also, ich finde diese Argumentation doch etwas schizophren - wenn früher die Hardware überfordert war, war es genialische aber effiziente Programmierung, und wenn heute dasselbe passiert, ist es Schlamperei. Nach der Logik hätte die Programmierkunst auf dem C64 ihren einsamen Höhepunkt erreicht.
Ich nenne es wirtschaftliches arbeiten - wenn Speicher nicht viel kostet, kann man großzügiger damit umgehen und verschwendet keine kostbare Entwicklungszeit mit Bit-Knauserei; handoptimierter Assembler-Code mit Bitgeschiebe kostet eine Menge Arbeitszeit für heutzutage unmeßbar geringen Gewinn beim Anwender - selbst Handies und Organizer bringen ja heutzutage mehr Speicher und Rechenleistung mit als damals die besseren Amigas. Und was die Shader-Effekte bei Tomb Raider angeht, so sehen sie jeder für sich ja auch gut aus und, das ist ja der entscheidende Punkt, sie sind abschaltbar so daß das Spiel auf dem nächsten, schnelleren Rechner noch besser aussehen wird als auf dem, den wir gerade besitzen.

Und ja, Harry... ich gehe davon aus, daß SB2 ein Knaller wird. :)

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 4 Gäste