Seite 5 von 9

Verfasst: 15.03.2008 18:19
von dllfreak2001
SLI geht schon mal garnicht aufm Mac, weil Intel keine Lizenz für SLI auf deren Mainboards hat. Intel hat zwar kürzlich ein Mainboard gebaut das Crossfie und SLI gleichzeitig kann (Skulltrail). Das hat aber einen Intel und einen NV-Chipsatz gleichzeitig drauf und verbraucht unmengen an Strom und ist voller Kinderkrankheiten (ohne NV-Chipsatz gibbet kein SLI). Nur ist das nicht die Sache, SLI und Crossfire sind für Apple im Moment völlig uninteressant, das sieht man schon daran was sie standardmässig für Grafikkarten in deren Pro-Macs verbauen (Lowcostgrafik unterster Schublade). Ich würde sogar soweit gehen und sagen, dass die Treiberarchitektur vom MacOS derzeit SLI/Crossfire-inkompatibel ist. Zumal bei SLI dann der Multimonitorsupport ausfällt (auf Windows-Maschinen kein Problem aber aufm Highend-Mac ne Katastrophe). Apple ist derzeit Image wichtiger als Leistung...

Raytracing-Elemente und Funktionen als Ersatz für Polygonmassen werden natürlich schon heute in Spielen angewand (siehe Schatten in Doom3, Curved Surfaces in Quake 3 und eben Truform).
Komplexe Formen brauchen komplexe Gleichungen und die verbrauchen Leistung, hier gilt es effektiv zu sein. Eine Aufwändige Funktion kann durchaus schon sehr viel mehr Leistung verbraten als es nen haufen Polygone täte.

Physikkarten sind erstmal tot, NV hat wieder mal zugeschlagen und das nächste Unternehmen eingekauft. Allerhöchstens wird es Physik per GPU geben als komplexer Shadercode. Doch ob sich noch jemand auf PhysX einlässt ist fraglich, denn es steht die breite Masse hinter HavokFX und dahinter sind im Bund AMD und Intel.
Für mich wäre es keine Option eine Extragafikkarte für Physik abzubestellen, weil zu teuer.

Surround....
Ne, Surround spielt sich zum betrachteten Bildmaterial ab insofern ist der Kopfhörer falsch. Außerdem läuft das aufm Kopfhörer nur richtig wenn per Prozessor die Laufzeitverzögerungen berüksichtigt werden, sonst hat man keinen realistischen Raumklang.
11.2 Klang ist zwar witzig doch das meiste Material kommt immer noch in 5.1 daher. Außerdem geht derzeit Hifi-mässig alles in Richtung unbrauchbarer Billigschrott, weil es eben schöner aussieht. Insofern waren billige Stereoanlagen von vor 20 Jahren, von einer höheren Qualität als der heutige Äquivalente. Ich sehe derzeit keine Trandwende und so schnell wird sich keiner so nen Haufen Lautsprecher ins Zimmer stellen. Ich würds natürlich tun aber es gibt den sogenannten WAF (Weiblicher AkzeptanzFaktor) im Boxenbau und da müssen Boxen seit 30Jahren immer kleiner werden.
Doch man weiß nie! Nur bedenke, normaler Fernsehton kommt nach wie vor hauptsächlich in Stereo.
:mrgreen: Solange es keinen I-Pod mit 7-Kanalton gibt wird es auch nicht zu 20Kanal-Sound in der breiten Nutzerschafft kommen.

Verfasst: 15.03.2008 19:26
von Emily
Es hat nur leider den Anschein, als könnte man derzeit überhaupt keinen neuen Typ von Hardware im PC markt etablieren weil der Markt zu unbeweglich geworden ist. Ist die Hardware nicht verbreitet gibt es keine Software, ist die Software nicht verbreitet kauft keiner die Hardware.

Der Traum von der Physikbeschleunigung ist jedenfalls fürs erste Ausgeträumt. nVidia hat gesagt, dass sie keine PhysX Chips Produzieren wollen, auch nicht in den eigenen Karten und stattdessen PhysX auf CUDA portieren wollen... nur wenn niemand PhysX Karten gekauft hat, die für unter hundert Euro einen gewaltigen Schub bei den Physikmöglichkeiten gebracht hätten, dann wird auch erst recht niemand für 500 Euro zwei zusätzliche Grafikkarten zur Physikbeschleunigung kaufen, die zusammen ein Zehntel der Beschleunigung erreichen und dafür locker 300Watt mehr Energie verbrauchen.

Verfasst: 15.03.2008 20:10
von dllfreak2001
Ich sehe derzeit genau das gleiche Problem. Der Markt hat sich furchtbar versteift und rennt eifrig NV, MS und Intel hinterher.
Der Larabee von Intel soll nächstes Jahr erste RT-Hardware werden.
Eine Grafikkarte für 300€ die genug Leistung haben soll um Echtzeit-Raytracing auf den Bildschirm zu bringen. Doch ich seh das Desaster kommen, Intel verkalkuliert sich gehörig macht damit ne Bruchlandung und verlässt ganz schnell das Schlachtfeld der Midrange-Grakas für unbestimmte Zeit.

Verfasst: 15.03.2008 20:25
von DarkDragon
Kaeru Gaman hat geschrieben:is ja scho richtig, Didi.
klar kann man halbwegs-CSG auch mit tori und spheres machen, die meshes sind....
aber wirklich fett wird das nur, wenn jeder punkt ne funktion is und kein triangle....
Das mein ich ja. Durch Marching Cubes oder FFT kann man Funktionen in Dreiecke umwandeln.

Verfasst: 15.03.2008 20:53
von hardfalcon
Emily hat geschrieben:Es hat nur leider den Anschein, als könnte man derzeit überhaupt keinen neuen Typ von Hardware im PC markt etablieren weil der Markt zu unbeweglich geworden ist. Ist die Hardware nicht verbreitet gibt es keine Software, ist die Software nicht verbreitet kauft keiner die Hardware.

Der Traum von der Physikbeschleunigung ist jedenfalls fürs erste Ausgeträumt. nVidia hat gesagt, dass sie keine PhysX Chips Produzieren wollen, auch nicht in den eigenen Karten und stattdessen PhysX auf CUDA portieren wollen... nur wenn niemand PhysX Karten gekauft hat, die für unter hundert Euro einen gewaltigen Schub bei den Physikmöglichkeiten gebracht hätten, dann wird auch erst recht niemand für 500 Euro zwei zusätzliche Grafikkarten zur Physikbeschleunigung kaufen, die zusammen ein Zehntel der Beschleunigung erreichen und dafür locker 300Watt mehr Energie verbrauchen.
Sie haben ja immerhin angekündigt, PhysX per Treiberupdate für die Geforce-8-Serie verfügbar zu machen. Da Freu ich mich doch mal, dass ich mich beim neuen PC für die 8800GT entschieden hab... :D

Verfasst: 15.03.2008 23:12
von dllfreak2001
:? Jap und alle anderen warten auf die Hardwarebeschleunigung von HavokFX...
Aber stellt sich die Frage inwieweit das geht. Musst du gleich die ganze Karte für die Physik einrechnen oder werden nur der Teile der Karte genutzt? NV ist dies bezüglich sehr verschlossen und meiner Meinung nach wird es erst mal nur für Multi-Grafik-Systeme interessant.

Das gleiche Problem was Physx hatte holt auch NVs Physik-Ansatz ein, die Physik wird erstmal Mangels Verbreitung keinerlei Funktion im Spiel bringen sondern nur optisch was her machen.

Verfasst: 16.03.2008 02:19
von Emily
Naja, da ist die Situation die: Neue Spiele mit PhysX unterstützung werden höchst wahrscheinlich nicht mehr kommen. Die existierenden PhysX Spiele nutzen es nur für Kleinigkeiten, hier und da ein paar mehr Partikel, dass ist dann für ein einkarten System mit 8800 sicher meistens kein Problem.
Für richtige Physikbeschleunigung auf der Grafikkarte sind dann schon zwei 8800 nötig, weil dann nicht mehr viele shader für die Grafikdarstellung übrig bleibt, aber solche Spiele halte ich jetzt für sehr unwahrscheinlich.

Auf HavokFX wartet aber keiner mehr, dass wurde vor etwas mehr als einem Jahr eingestellt.

Klar ist, wenn man PhysX via CUDA für die Physikbeschleunigung nutzt, dann brauch das viele shadereinheiten und noch mehr mehr Speicherbandbreite, beides steht dann weniger für die Grafikdarstellung zur Verfügung. Ohne mindestens zwei Karten macht das ganze also nicht wirklich sinn. Statements des nVidia CEOs gingen auch sehr in die Richtung, dass man damit den GPU Absatz erhöhen will.

Verfasst: 16.03.2008 02:37
von Xaby
Das ist ganz einfach, das wird so wie bei allen Neuerungen sein.

MMX, SEE, SEE2, SEE3 ... Shader-Model 1, 2, 3, 4 ....

Erstmal muss es Hardware geben, die das hat ... wenn sich die Hardware verbreitet hat, werden die Entwickler aufspringen und speziell für diese Hardware Software produzieren. So etwas dauert ca. 2 Jahre ...

soweit ich weiß, hat die Software der Hardware immer zwei Jahre hinterher gehangen. Bis auf vielleicht der Benchmark 3D Mark ...
der der immer genau mit der Hardware gegangen ist.

Diesen Schritt merken wir nur selten, weil für uns die Kosten eine Rolle spielen. Wenn eine 3D-Engine entwickelt wird, dann dauert das ja auch seine Zeit. Die Hardware, die die Entwickler haben müssen, muss also dieser Zeit voraus sein.

Also ein Beispiel. Wenn heute eine Grafikkarte 300,- Euro kostet, hat eine gleich gute Grafikkarte vor 3 Jahren, sicherlich 2.000,- Euro oder mehr gekostet.

Wenn die Entwickler also eine Software schreiben, die auf dieser 2.000,- Euro Grafikkarte gerade so läuft, können sie sich sicher sein, dass es auf den Grafikkarten funktionieren wird, die es im Handel gibt, wenn die Software fertig ist.

Es muss ja auch schon vor Erscheinen der PS3 und der XBox360 Hardware gegeben haben, die man zum Testen nutzen konnte.

So war bei einem Beitrag bei Giga oder so mal zu sehen, dass da bei einer Messe 3 Power Mac oder Mac Pro standen, und die die XBox 360 darstellten ...

Die XBox 360 gab es aber erst ein oder zwei Jahre später.

Die Hardware, über die wir phylosophieren existiert also schon, sie ist nur nicht erschwinglich.

EAX von Creative ist zum Beispiel eine 3D-Sound-Engine, die auf jeder Creative-Karte verbaut ist. Eax gibt es wohl jetzt schon in Version 5.0

Wenn also ein Gamer eine neue Creative-Karte hat, weiß er, dass er auch Eax 1.0, 2.0, 3.0 ... drauf hat.

Spiele-Entwickler die Spiele für echte Gamer programmieren können also davon ausgehen, dass Eax vorhanden ist.

Es gibt heute doch auch kaum noch Spiele, die einen Software-Renderer integriert haben. Wenn man T&L-Hardware nicht hat, gehen manche Spiele einfach nicht an. Wenn man keine DirectX 9 kompatible Karte hat, gehen Spiele einfach nicht an ...

Wenn also Physik in welcher Form auch immer in eine DirectX-Version integriert wird und es damit eine Art Standard darstellt, wird es irgendwann nur noch Graifkkarten/Soundkarten geben, die Physik integriert haben.

Ich rede ja auch nicht vom IST-Zustand, sondern von dem, was in 6 Jahren sein wird. Also von dem, was in 3 Jahren beschlossen wird, wenn nicht sogar schon morgen ...

>>>>>>>>>>>>>>>
Die Frage ist doch auch, was wollen wir in 6 Jahren mit unserem Rechner machen? Was kostet Performance?

Für 300,- Euro bekommt man heute Rechner, die HDTV-Filme flüssig abspielen können. Auf denen Office-Anwednungen und Internet laufen ...
Und sogar Spiele, die 2 Jahre alt sind, laufen flüssig.

Für 1.400,- Euro bekommt man auch nur einen Rechner auf denen die gerade aktuellen Spiele laufen und man seine 45 Frames hat ...
Wieso also mehr Geld ausgeben?

Wenn man sich in 6 Jahren einen Rechner mit integriertem OLED-Display holt, der 200,- Euro kostet, dann kann der die Spiele von heute flüssig spielen.

Man hat also einen Überschuss an Geld, weil man keinen Rechner für 1.4000 Euro kaufen muss. Weil man schon ein Auto hat und weil man schon einen HDTV-Fernseher hat ...

was braucht man also in 6 Jahren noch? Und wozu?

Einen fetten Spielerechner. Das wird wohl wieder eine Art Konsole sein und die hat ihre Standardtiesierte Hardware drin und sicherlich auch den ein oder anderen Physik-Chipsatz.

In 6 Jahren wird sicherlich gerade neu die XBox 4 heraus kommen und die Playstation 4. In 2-3 Jahren kommt die XBox 3 raus, die schneller als die PS3 ist, aber natürlich langsamer als die PS4

Wie alt ist Halflife 1? Das kam 1997/98 raus. Das ist 10 Jahre her.
Damals hatten nur wenige einen Rechner auf dem das lief.
Vor 3 Jahren kam Halflife 2 raus. Das läuft heute auf jedem 400,- Euro Rechner. In 4 Jahren könnte Halflife 3 erscheinen und in 6 Jahren läuft das auf jedem 400,- Euro Rechner.

Wie geil wird Halflife 3 aussehen? Und was kommt danach?

>>>>>>>>>>>>>>>>

Was ich sagen wollte ist, irgendwann muss es Hardware-Raytracing und Hardware-Physik geben, weil es sonst auch Quatsch ist, eine reale Welt, in zich Dreiecke aufzuteilen und Texturen zu basteln, wenn man damit dann eine Auflösung von HDTV erreicht und es realistisch aussieht, aber der Aufwand größer ist, da man in einem 3D-Modellierungsprogramm erst komplexe Modelle erschafft und diese wieder runter rechnet ... dann kann man doch gleich die 3D-Modellertechnologie ins Spiel einbringen.

Neue Rechner könnten auch ganz anders aufgebaut sein.

Zum Beispiel eine Soundkarte könnte aus 256 MP3-Dekoderchips bestehen. Eine Grafikkarte aus 4 DIVX-Decodern, 4 MPEG-Dekodern ...
etc. oder alles nur einmal vorhanden und dann geht Multitasking halt nur bedingt.

So dass der eigentliche Prozessor mit 200 MHz auskommt und nur noch die Daten an den jeweiligen Chip weiter leitet.

Es könnte auch Hardware-Browser geben.

Also die Komponenten als Hardware, die sich im Laufe der Jahre als immer wiederkehrend herausgestellt haben.

Wieso sind DVD-Player mit MP3, DIVX-Abspielfunktion so unheimlich günstig.
Kosten ~ 30,- Euro.
(Das MacBook Air, kann das nicht :D )

Was braucht man also wirklich?
Einen 100,- Euro Rechner für Office-Anwednungen.
Einen 30,- Euro Abspieler für verschiedene Filme und Musik, der auch Sound für 5.1 Kanele dekodiert ...

und ansonsten braucht man eine Spielekonsole ...

Das Hauptaugenmerk kann also demnächst bei Hardware-Enwicklung nur im 3D-Anwendungsbereich liegen. Es liegt also Nahe, dass es da auch PhysikChips gibt, die auf Grafikkarten verbaut werden. Oder die heißen dann Spielekarten :D


>>>>>
Unter DOS war die Soundkarte eine Spielekarte. Ohne gab es keinen Ton und man konnte den Joystick nicht benutzen :D

wie gesagt EAX ist ja eine Art Physik-Beschleunigung im Bereich des Schalls für 3D-Sound. :allright:

Verfasst: 16.03.2008 02:44
von hardfalcon
Wie sehr die Software der Hardware hinterherhinkt kann man aktuell wohl am Eindrucksvollsten bei den Quad-Core-CPUs beobachten: Abgesehen von wenigen Packprogrammen (z.B. 7-zip) werden mehr als 2 Cores eigentlich nur von Rendersoftware wirklich genutzt. Schade dass grade die Spielebranche, die sonst ja eher ein Innovationsmotor bei CPUs und Grafikkarten ist, diesen Trend verpennt hat. Workstationmainboard für 2 CPUs gibts ja nicht erst seit gestern, die nötige "Entwicklerhardware" war also durchaus verfügbar... :|

//EDIT: Der Joystick an der Soundkarte, da hab ich mal irgendwo so nen lustigen Kommentar gelesen gehabt, der ging etwa so: "Bie bekloppt muss man sein um nen JOYSTICK an die SOUNDKARTE hängen zu wollen? Käme ja auch keiner auf die Idee, seine Tastatur oder seine Maus an die Soundkarte anzuschließen!" :lol:

Verfasst: 16.03.2008 04:17
von Emily
Das liegt auch daran, dass die schnellen Intel QuadCores eigentlich keine echten vierkern CPUs sind, sondern zwei Doppelkerne die sich jeweils auch nur einen Cache und nur ein Speicherinterface Teilen. Das ist bei Spielen ein ziemlicher Flaschenhals, weswegen Jeweils ein Kern viel Zeit mit warten verbringt. Reine Renderprogramme Skalieren in der Situation allerdings besser. Joystick an Soundkarte war zwar ein bischen vor meiner Zeit, aber ich glaube das lag daran, dass man eh ein Midi ähnliches Interface mit eingeplant hatte, oder? Da macht es ja durchaus sinn bei den Consumer Karten statt Midi da einfach ein Gameport dranzubasteln.

Angesichts der aktuellen Situation, dass fast alle Großen Studios keine PC Titel mehr veröffentlichen wollen glaube ich eher das in 6 Jahren die Spieletauglichkeit eines PCs kein Verkaufsargument mehr ist. Das hat positive Aspekte, wie zB. ein viel kreativeres angebot von billiger produzierten Spielen kleiner Studios, billigere PCs, mehr Betriebssystemvielfalt. Andererseits auch weniger schöne seiten, wie zb das die richtige Spielehardware (Konsolen) nur noch wenigen, gut betuchten Studios zur Verfügung stehen, weil ein typisches Konsolen Entwicklungssystem soviel wie ein neuer Kleinwagen kostet und auch die Konsolenhersteller viel zu viel Kontrolle auf die Inhalte ausüben.