Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Mi, 10. Mär 2004, 12:15

Doc SoLo hat geschrieben:
Bereits heutige Grafikkarten erreichen zwischen GPU und RAM über 30GB/s. Bei der nächsten Generation wird das noch deutlich mehr. Die Bandbreite von 4GB/s, die PCI Express bietet, ist dagegen bereits heute ein Witz. Ich bin jedenfalls sehr gespannt, wie die Spieleentwickler die gesparten 3 Zehntelsekunden beim Laden des Levels in Spielspass umsetzen werden

  1. Geht es um die Bandbreite zwischen CPU und GPU, und nicht um die Anbindung des Grafikspeichers. Denn obgleich die Grafikkarte heute sehr viel in Eigenregie erledigt, muß sie ja doch gelegentlich mit der CPU in Austausch treten, z.B. um zu erfahren, wo der Computergegner nun gerade hinläuft.
  2. Für Grafikkarten wird es den 16x-Modus geben, und der IST deutlich schneller als die Bandbreite, die AGP 8x zur Zeit für den Datenaustausch zwischen CPU und Grafikkarte bereitstellt.
  3. Unabhängig davon wird der Texturspeicher natürlich lokal auf der Grafikkarte gehalten werden müssen, von shared memory-Architekturen spricht auf dem Spielesektor jenseits von Freecell und Minesweepe ja niemand.
 
Benutzeravatar
Alex
Großer Meister
Großer Meister
Beiträge: 2857
Registriert: Di, 9. Jul 2002, 20:39
Wohnort: Berlin

Mi, 10. Mär 2004, 17:08

Ssnake hat geschrieben:
Also, ich finde diese Argumentation doch etwas schizophren - wenn früher die Hardware überfordert war, war es genialische aber effiziente Programmierung, und wenn heute dasselbe passiert, ist es Schlamperei. Nach der Logik hätte die Programmierkunst auf dem C64 ihren einsamen Höhepunkt erreicht.


Hat sie doch auch, oder etwa nicht? :)

(Zumindest muss man schon staunen, was damals mit den paar kb schon alles auf den Monitor gezaubert wurde - phänomenal.)

Aber natürlich verstehe ich Deine Argumentation absolut. Wenn man aber zB liest, dass sich Deus Ex 2 kaum spielen lässt, wenn man nicht eine aktuelle Grafikkarte hat, dann ist dies schon verwunderlich. Ich habe jedenfalls nicht gemeint, dass Entwickler es nicht locker schaffen, auch heutzutage das fetteste System locker ins Schwitzen zu bringen, sondern eben zB Grafikkarten neue Techniken bieten, die bisher wenig genutzt werden. Bei dem rasanten Tempo der Entwicklung verwundert es mich ja auch kaum.
 
Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Mi, 10. Mär 2004, 17:52

Ich habe jedenfalls ... gemeint, dass ... eben zB Grafikkarten neue Techniken bieten, die bisher wenig genutzt werden.

Losgetreten hat diese Entwicklung NVidia, als sie das Entwicklungstempo so beschleunigen wollten, daß sie alle anderen Wettbewerber vom Markt drücken konnten (was ihnen ja auch, bis auf ATi, gelungen ist). Das hat auch bedeutet, die Grafikkartenfunktionen einseitig auf die Bedürfnisse von Shootern zurechtzuschneidern (wenn John Carmack sagte, er bräuchte diese oder jene Funktion, dann wurde sie eben eingebaut), und jede neue Karte sofort auf den Markt zu werfen, ohne Musterexemplare an Entwickler abzugeben, damit die zuvor auch etwas passendes in den Hände bekamen.

Heutzutage ist man als kleiner Entwickler ebenso wie jeder Verbraucher gezwungen, sich eine neue Grafikkarte zu kaufen, und sie dann mit seiner eigenen Engine auszutesten. De facto guckt man sich daher nur noch an, was in DirectX spezifiziert ist, und fährt dann sein Ding, solange man nicht herausfindet, daß manche Grafikkarten zwar behaupten, eine bestimmte Funktion zu beherrschen, das dann aber tatsächlich eben doch nicht tun - jedenfalls nicht richtig - und daß das auch nicht korrigiert werden wird, weil wenige Entwickler diese Funktion tatsächlich so nutzen. Beispielsweise hatten wir ursprünglich eine Lösung, 3D-Baummodelle in eine Textur zu rendern, die dynamisch aktualisiert wird, und diese Textur dann auf "Pappaufsteller" zu projizieren von allen Bäumen, die weit weg sind. Das Ergebnis war total super - sah sehr gut aus, brachte hohe Frameraten, war elegant programmiert - funktionierte aber nur auf manchen NVidia-Karten, und auch nur mit bestimmten Treiberversionen.
Jetzt kann man sich ja nicht hinstellen und Schwarzer Peter spielen nach dem Motto Unser Programm ist spezifikationskonform, die Grafikkartenhersteller und ihre Treiberentwickler schlampen!
Denn auch wenn es wahr ist: Dem Kunden nutzt es gar nichts, daß seine Hardware es eigentlich könnte oder der Hersteller die unwahre Behauptung aufstellt, daß sie es könne. Die normative Kraft des Faktischen zwingt den Entwickler dazu, um solche Macken herumzuprogrammieren und einen anderen Weg zu finden (das ist uns ja auch gelungen, es ist eben nur nicht mehr so elegant programmiert).

Im Endergebnis hechelt man als Entwickler den DirectX-Versionen hinterher, und speziell als kleiner Entwickler stürzt man sich nicht auf die neueste Betaversion, sondern setzt auf einen etablierten Standard (wir haben bis zum Sommer letzten Jahres auf der Basis von DirectX 8.1 gearbeitet und sind erst dann auf DirectX 9 umgestiegen, obwohl es DirectX 9-Betaversionen schon ein Jahr früher gab und auch mit der Matrox Parhelia eine DirectX 9-konforme Grafikkarte). Erst als die Radeon 9700 herauskam, war für uns DirectX 9 ein praxisrelevantes Thema.

Nun könnten wir relativ schnell ein paar DirectX 9-Sachen an unsere Engine anflanschen, sagen wir mal einen Shader für heiße-Luft-Flimmern oder solche Sachen. Nur: Wir machen ja eine technisch anspruchsvolle Sache, bei der die Grafikfunktionen Mittel zum Zweck sind, und daher dann zum Einsatz kommen, wenn es für den Simulationszweck erforderlich ist. Glücklicherweise gehen wir evolutionär vor und haben immer noch 60% vom alten Steel Beasts 1-Code in der aktuellen Version enthalten, so daß wir die Grafik erst als letzten Entwicklungsschritt aufbohren werden statt damit anzufangen, wie das so häufig bei Spieleentwicklern der Fall ist. Die können dann häufig viel vom alten Arbeitsergebnis wegwerfen, sobald eine neue DirectX-Version herauskommt. Aber das Gesamtergebnis muß ja stimmen, so daß wir aus anderen Gründen mehr Zeit brauchen, aber im Ergebnis genauso spät mit einem DirectX 9-Spiel herauskommen werden, wie jene, die seit letztem Sommer an einer neuen Engine arbeiten, weil die alte wieder obsolet geworden ist.
 
Benutzeravatar
fflood
lange Leitung
All Star
All Star
Beiträge: 11179
Registriert: Mo, 8. Apr 2002, 15:02

Mi, 10. Mär 2004, 18:33

Alex hat geschrieben:
Aber natürlich verstehe ich Deine Argumentation absolut. Wenn man aber zB liest, dass sich Deus Ex 2 kaum spielen lässt, wenn man nicht eine aktuelle Grafikkarte hat, dann ist dies schon verwunderlich.


Wer behauptet denn sowas? Auf meinem Rechner lässt es sich einwandfrei spielen, und ich hab auch keine "aktuelle" Grafikkarte.
 
Benutzeravatar
Alex
Großer Meister
Großer Meister
Beiträge: 2857
Registriert: Di, 9. Jul 2002, 20:39
Wohnort: Berlin

Mi, 10. Mär 2004, 18:37

Sehr interessant, Danke!

So hab ich das natürlich noch gar nicht betrachtet und das klingt ja wirklich auch frustrierend. Dir und dem Team jedenfalls viel Erfolg!
 
Benutzeravatar
wulfman
Leitwolf
Licht des Forums
Licht des Forums
Beiträge: 3063
Registriert: So, 7. Apr 2002, 17:28
Wohnort: Tansania

Mi, 10. Mär 2004, 18:53

Ssnake hat geschrieben:
Doc SoLo hat geschrieben:
Bereits heutige Grafikkarten erreichen zwischen GPU und RAM über 30GB/s. Bei der nächsten Generation wird das noch deutlich mehr. Die Bandbreite von 4GB/s, die PCI Express bietet, ist dagegen bereits heute ein Witz. Ich bin jedenfalls sehr gespannt, wie die Spieleentwickler die gesparten 3 Zehntelsekunden beim Laden des Levels in Spielspass umsetzen werden

  1. Geht es um die Bandbreite zwischen CPU und GPU, und nicht um die Anbindung des Grafikspeichers. Denn obgleich die Grafikkarte heute sehr viel in Eigenregie erledigt, muß sie ja doch gelegentlich mit der CPU in Austausch treten, z.B. um zu erfahren, wo der Computergegner nun gerade hinläuft.
  2. Für Grafikkarten wird es den 16x-Modus geben, und der IST deutlich schneller als die Bandbreite, die AGP 8x zur Zeit für den Datenaustausch zwischen CPU und Grafikkarte bereitstellt.

zwei mal schneller (gut, der upstream wächst diesmal entsprechend mit) als agp 8x, welches zwei mal schneller war als agp 4x.. welches wieder... und jedesmal wurde versprochen, dass damit die kommunikation schneller und besser werden würde, dass der speicher auf der grafikkarte an relevanz verlieren würde.. und was haben wir heute? fsaa fordert mehr speicher denn je, von texturen, pixel- und vertex-shadern mal gar nicht zu reden. ich zweifle langsam an diesen versprechungen.

mfg
wulfman
______________________________
Vorläufig letzte Worte, heute:

der Exstudent auf der Insel
 
Benutzeravatar
Doc SoLo
Ghost Doc
Hauptmann
Hauptmann
Beiträge: 2111
Registriert: Mo, 8. Apr 2002, 11:19
Wohnort: Mittweida

Do, 11. Mär 2004, 00:17

Ssnake hat geschrieben:
Geht es um die Bandbreite zwischen CPU und GPU, und nicht um die Anbindung des Grafikspeichers.

:roll: Natürlich. Du hast aber von "Entwertung" der AGP-Karten gesprochen und irgendwelchen Leistungszuwächsen in der "typischerweise 2. Kartengeneration" gesprochen. Der einzig denkbare technische Weg, der wirklich dazu führen würde, ist aber nunmal die Texturauslagerung in den Arbeitsspeicher - wie es uns schon x-mal angekündigt wurde, obwohl es von vornherein rechnerisch gar nicht möglich war. Und das ist mit PCI-Express wieder nicht möglich, was ich mit der Gegenüberstellung der Bandbreiten beweisen wollte. Deswegen wird es auch keine Entwertung geben.
Denn obgleich die Grafikkarte heute sehr viel in Eigenregie erledigt, muß sie ja doch gelegentlich mit der CPU in Austausch treten, z.B. um zu erfahren, wo der Computergegner nun gerade hinläuft.
An dieser Stelle besteht aber gar kein Verbesserungsbedarf - schon seit AGP2X nicht. Nur das Level-laden geht schneller und die Latenzzeiten sind etwas geringer, da habe ich aber schon einmal gefragt, wie du das in mehr Spielspass umsetzen willst.
Für Grafikkarten wird es den 16x-Modus geben, und der IST deutlich schneller als die Bandbreite, die AGP 8x zur Zeit für den Datenaustausch zwischen CPU und Grafikkarte bereitstellt.
:roll: Er ist ungefähr doppelt so schnell. Wo habe ich anderes behauptet?

Um mal eine Weisheit aus meinem Produktionsmanagementstudium (sinngemäß) zu zitieren: Optimiere an einem Nicht-Engpass und du vergeudest Ressourcen ohne das Gesamtergebnis zu verbessern. Genau das passiert imho performancemässig wieder mal mit der Einführung von PCI-Express bei Grafikkarten.

Ich seh das genau wie wulfman. Du kannst in einem Jahr gerne nochmal dieses Post raussuchen und mich beim Wort nehmen: PCI-Express wird KEINERLEI Performancegewinn für PC-Spiele bringen. Es wird in dieser Hinsicht eine eins zu eins Wiederholung der Heisse-Luft-Nummern AGP4X und 8X.

Ciao,

Doc SoLo

PS: Irgendwie kommt es mir so vor, als hättest du dich erst nach meinem Post richtig informiert und versuchst nun, fast zwei Wochen später mit allen Mitteln, dein Statement zu verteidigen. 8O
 
Benutzeravatar
wulfman
Leitwolf
Licht des Forums
Licht des Forums
Beiträge: 3063
Registriert: So, 7. Apr 2002, 17:28
Wohnort: Tansania

Do, 11. Mär 2004, 06:27

Doc SoLo hat geschrieben:
Ssnake hat geschrieben:
Ich seh das genau wie wulfman. Du kannst in einem Jahr gerne nochmal dieses Post raussuchen und mich beim Wort nehmen: PCI-Express wird KEINERLEI Performancegewinn für PC-Spiele bringen. Es wird in dieser Hinsicht eine eins zu eins Wiederholung der Heisse-Luft-Nummern AGP4X und 8X.

wie schon angesprochen - der wesentliche unterschied scheint zu sein, dass die grafikkarte jetzt auch so schnell senden kann wie sie daten empfängt - und das sogar noch gleichzeitig.

und was das 2te generation-problem angeht - auch da hat ssnake recht: die ersten karten der großen hersteller setzen nicht auf ein natives 16x pci express interface, sondern benützen eine bridge. der eine hersteller baut pci express karten und adaptiert auf agp (um die kompatibilität zu wahren), der andere hat ne agp-karte und modelt die auf pci express um... sicher nicht optimal.

mfg
wulfman
______________________________

Vorläufig letzte Worte, heute:



der Exstudent auf der Insel
 
Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Do, 11. Mär 2004, 21:01

Doc,

ich denke, wir sind inhaltlich näher beieinander, als Du vermutest. Du hast etwas zuviel in mein verknapptes Statement von der "Entwertung" hineingelesen, daher reden wir ein bißchen aneinander vorbei. Ich stimme Dir völlig zu, daß auch AGP4x und 8x aus Sicht des Endverbrauchers ziemlich überflüssige Pseudofeatures sind, sich jedenfalls nicht unmittelbar auf die Gesamtperformance auswirken. Wie Du das ja auch sehr schön zusammengefaßt hast:
Doc SoLo hat geschrieben:
Optimiere an einem Nicht-Engpass und du vergeudest Ressourcen ohne das Gesamtergebnis zu verbessern.

Als gelernter Wirtschaftsingenieur - bin ja auch nur aus mehr oder minder beiläufigem Interesse zu PC-Knowhow gekommen - kann ich Dir da nur zustimmen. Ich denke, die Motivation für PCI-Express liegt bei der Industrie vor allem in der Vereinfachung der Systemstruktur, also dem Ausschließen von Ressourcenkonflikten, wie sie ja bei PCI immer wieder mal auftreten. Dennoch muß so ein Systemwechsel beim Kunden irgendwie beworben werden, also versuchen die Marketingfuzzis eine sachfremde Erwägung als Argument ins Feld zu führen um auf einem anderen gebiet zu Verbesserungen zu kommen, die aber viel schwieriger in eine kurze Werbeformel gepreßt werden können. Wäre nicht das erste mal, daß sowas passiert. ;)
PS: Irgendwie kommt es mir so vor, als hättest du dich erst nach meinem Post richtig informiert und versuchst nun, fast zwei Wochen später mit allen Mitteln, dein Statement zu verteidigen. 8O

Ich gestehe, daß der PCI-Express-Grundsatzartikel in der aktuellen c't zeitlich sehr günstig kam, und ich die Entwicklung zuvor eher beiläufig verfolgt habe (es hat ja auch keine praktische Relevanz, zumindest nicht im Moment). Allerdings war mein Eindruck, daß in den genannten Punkten eine Klarstellung nicht unangebracht war - nicht, um eine unhaltbare Behauptung mit allen Mitteln zu verteidigen, sondern um nochmal herauszuarbeiten, wo PCI-Express überhaupt ansetzt. Zudem wird es, da bin ich sicher, zu einer Abwärtsbewegung bei den Preisen für AGP-Karten kommen (das war's was ich eigentlich andeuten wollte, als ich von der "Entwertung" sprach), sobald sich PCI-E durchsetzt, aber das dauert eben noch 'ne Weile.
 
Benutzeravatar
Doc SoLo
Ghost Doc
Hauptmann
Hauptmann
Beiträge: 2111
Registriert: Mo, 8. Apr 2002, 11:19
Wohnort: Mittweida

Do, 11. Mär 2004, 21:32

wulfman hat geschrieben:
wie schon angesprochen - der wesentliche unterschied scheint zu sein, dass die grafikkarte jetzt auch so schnell senden kann wie sie daten empfängt - und das sogar noch gleichzeitig.

Stimmt. Deswegen bezieht sich z.B. ATI ausschließlich auf Videoanwendungen, wenn es um Vorteile von PCI-Express geht. Deren Meinung nach kann man dann die beim Videoschnitt anfallenden Datenmassen durch die Grafikkarte schleusen und deren GPU für Effekte nutzen. Das war mit AGP bisher nicht möglich, weil die Daten nicht schnell genug zurückgeschrieben werden konnten.
Da liegt immerhin ein Unterschied zu den AGP-Evolutionen: Diesmal wird in Bezug auf Spiele gar kein Hype erst gemacht.
und was das 2te generation-problem angeht - auch da hat ssnake recht: die ersten karten der großen hersteller setzen nicht auf ein natives 16x pci express interface, sondern benützen eine bridge. der eine hersteller baut pci express karten und adaptiert auf agp (um die kompatibilität zu wahren), der andere hat ne agp-karte und modelt die auf pci express um... sicher nicht optimal.

Ich habe gelesen, dass ATI von Anfang an natives PCI-Express bieten will und nVidia zunächst nur die Bridge-Lösung. Aber das tut nichts zur Sache, denn Ssnake hat etwas ganz anderes behauptet:
Ssnake hat geschrieben:
Wenn dann in der 2., 3. Kartengeneration die Entwickler lernen, die Bandbreitenvorteile besser auszunutzen,...

Ich kann diese altklugen Sprüche einfach nicht mehr hören und habe mir daher erlaubt mal zu hinterfragen, ob Ssnake vielleicht mehr weiß als wir. Die technischen Daten von PCI-Express geben nämlich keinen Vorteil für Spiele her und in der Vergangenheit hatten wir bereits zwei leuchtende Beispiele für sinnlosen Marketing-Hype wider jeglicher technischer Grundlage.

Ciao,

Doc SoLo
 
Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Fr, 12. Mär 2004, 10:32

Doc SoLo hat geschrieben:
Ssnake hat geschrieben:
Wenn dann in der 2., 3. Kartengeneration die Entwickler lernen, die Bandbreitenvorteile besser auszunutzen,...

Ich kann diese altklugen Sprüche einfach nicht mehr hören und habe mir daher erlaubt mal zu hinterfragen, ob Ssnake vielleicht mehr weiß als wir.

Es ist doch noch bei JEDER Einführung eines neuen Bussystems so gewesen, daß die erste Generation von Steckkarten keinerlei Performance-Vorteile geboten haben sondern lediglich quasi Funktionsnachweise des neuen Systems waren. Ob das nun PCI gegenüber VLB, die ersten AGP-Karten gegenüber PCI, oder sonstwas war - echten Mehrwert haben die Systemwechsel erst einige Zeit später geboten. Wenn Du das altklug findest, habe ich eben Pech. Ich finde, es ist durchaus gerechtfertigt, auf diese allgemeinen Prinzipien hinzuweisen. Genauso wie Moore's Gesetz ja kein Naturgesetz ist das vorschreibt, daß ein neuer Prozessor immer schneller sein muß, ist es aber doch unstreitig, daß die Annahme, der neue Prozessor werde sich in diese Zeitreihe einfügen, in aller Regel zulässig ist. Man muß nicht alle technischen Details kennen, um eine Marktentwicklung abschätzen zu können. Ich kann ja nichts dafür, wenn Du in meine ersten Statements mehr hineinliest, als ich jemals sagen wollte.
 
Benutzeravatar
Doc SoLo
Ghost Doc
Hauptmann
Hauptmann
Beiträge: 2111
Registriert: Mo, 8. Apr 2002, 11:19
Wohnort: Mittweida

Fr, 12. Mär 2004, 13:51

Dein vorletztes Post hatte ich noch nicht gelesen, als ich mein letztes geschrieben habe. Deswegen ging mein Schuss wohl etwas ins Leere, weil du die Sache schon erklärt hattest. Ich dachte, du meinst "Entwertung" in Bezug auf die Leistungsfähigkeit.

Mit "altklug" meine ich dieses Gebabbel unter inflationärer Benutzung der Phrasen "nach entsprechender Optimierung", "wenn es richtig ausgereift ist", "bietet Potenzial", etc. was man immer wieder in diversen PC-Magazinen lesen kann, wenn die Faktenlage dünn ist, wirklich technisch hinterlegte Vorteile nicht vorhanden sind und der Redakteur zu feige ist, das Lieblingsbaby eines grossen Herstellers als nutzlosen Schrott zu entlarven, sondern stattdessen lieber einen seicht-dümmlichen Artikel zusammenkliert, damit ein fetter Headliner mit der neuen Technologie aufs Cover kann. Was das jetzt mit dir zu tun hat, willst du wissen? Nun, nix weiter, als dass ich meinte, ein paar Elemente davon in deinen ersten Posts enteckt zu haben...

Das soll nicht heißen, dass ich PCI-E für nutzlosen Schrott halte. PCI ist insgesamt zu langsam geworden, weil es mittlerweile eine einzige (Gigabit-) Ethernet-Karte schafft, diesen Bus komplett auszulasten. Ich sehe nur in Bezug auf Spielegrafikkarten keinen Vorteil in PCI-E.

Ciao,

Doc SoLo
 
Benutzeravatar
Uther
Quasselstrippe
Quasselstrippe
Beiträge: 374
Registriert: So, 15. Feb 2004, 14:29

Fr, 12. Mär 2004, 14:16

Kann mir jemand sagen ob eine MSI GeForce4 Ti4200TD8X 128MB RAM mit Zalman Passivkühler für 30€ günstig ist?
 
Benutzeravatar
Alex
Großer Meister
Großer Meister
Beiträge: 2857
Registriert: Di, 9. Jul 2002, 20:39
Wohnort: Berlin

Fr, 12. Mär 2004, 18:08

Ohne jetzt nachzuschlagen - klingt nach nem sehr guten Preis. Nicht das neueste auf dem Markt (keine DirectX9-Unterstützung), für viele Spiele absolut brauchbar und Passivkühlung hört sich doch gut an... ;) Das Geräuschniveau eines normalen Lüfters wäre jetzt auch nicht unangenehm bei dieser Karte - aber ein paar Euro wäre mir der Unterschied schon wert, was die Karte selbst ja noch billiger macht! :)
 
Benutzeravatar
Ssnake
Think Tank
Hauptmann
Hauptmann
Beiträge: 2232
Registriert: Do, 5. Sep 2002, 23:18
Wohnort: Hannover
Kontaktdaten:

Sa, 13. Mär 2004, 15:54

Zumindest früher war es so, daß die Ti4200er-Karten mit 64MByte (statt der 128er-Versionen) mit schnelleren Speicherbausteinen bestückt wurden, so daß man noch ein paar Frames extra herausquetschen konnte. Das wäre ggf. noch eine Überlegung wert, aber bei 30 Euro will man ja sowieso nicht meckern, viel verkehrt macht man damit sicher nicht. :)

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 4 Gäste