Seite 5 von 8

Verfasst: 11.09.2006 15:09
von dllfreak2001
Da irrst du dich, im Gegenteil ich besitze sogar ne lustige Voodoo1 (funzt
sogar noch).
Denk doch mal nach, wenn wir jetzt für jede Option im Spiel eine Graka
zweckentfremden müssten. Da könnte sich niemand mehr ein
ordentliches spielefähiges System leisten.
Dann doch lieber eine Extra Addonkarte.

Verfasst: 12.09.2006 16:47
von #NULL
naja, man muß dann halt mehr arbeiten gehen und das billigste toastbrot kaufen

Verfasst: 12.09.2006 21:39
von dllfreak2001
Toll aber für den Kramm muß ich die Bildwandler und den ganzen anderen unnützen Schrott mitzahlen.
Das ist doch totaler Schrott wenn man bedenkt das ne Shader-Lösung
nicht im Ansatz mit ner Extrachipversion mithalten kann!

Verfasst: 13.09.2006 01:02
von PMV
Mit der Voodoo1 karte kannst du aber kaum was spielen.
Wenn du nichts aktuelles Spielen möchtest ... dann ists dir doch vergönnt.

Aber das heißt ja nicht, das 3D-Beschleuniger schlecht sind?
Grafikkarten sind heute uach ziemlich teuer ... wenn man eine gute haben
möchte die auch aktuelle Spiel gut hin bekommt. So wird es mit
Physikkarten auch sein, entweder man hat das Geld ... oder nicht ... und
Grafikkarten werden eh immer besser ... als nächstes kommt DirectX10
... bald wird das Standart sein ... und nicht jede oder kaum eine alte
Grafikkarte wird dies können ... also heißt es neu kaufen wenn man
DirectX10 genießen möchte. Das selbe wird für Physik usw. auch der fall
sein. Wo und wie das ganze in der Hardware vorhanden ist ... ist doch
schnuppe. Oder seit ihr in der Hardwarebrange tätig und dafür
verantwortlich? :wink:

MFG PMV

Verfasst: 13.09.2006 06:57
von Zaphod
Ich bezweifle, dass Physik und KI beschleuniger den selben, extrem schnellen Werteverfall haben werden wie Grafikkarten.
Vergleiche ich zwei verschiedene generationen von Grafikkarte, so sind die Krassen Qualitätsunterschiede offensichtlich.

Vergleiche ich verschiedene generationen von Physikbeschleunigern, so wird mir eine steigerung der berechnungpräzision wahrscheinlich nicht mit bloßem Auge auffallen. Spätestens wenn ich eine karte habe, die ein paar Millionen objekte berechnen kann, wird schnell eine sättigung erreicht werden. Ich will ja nicht nur Spiele spielen, wo ständig die ganze Stadt zerbröselt.

Bei KI beschleunigern wird die sättigung sogar noch viel schneller einsetzen. Nur für einen sehr kleinen Teil der KI (nämlich dem berechungsintensivsten - nicht den eigentlich das verhalten vorgebenen) macht es überhaupt Sinn in Hardware berechnet zu werden. Schon der Prototyp des beschleunigers der jetzt im gespräch ist, soll etwa für 2000 Einheiten die wegfindung und LOS berechnen können. Selbst in einem Strategiespiel werden zum einen 10 000 Einheiten eher nerven als spaß machen, zudem geht irgendwann auch einmal die Dual Core CPU in die Knie, die ist ja an der eigentlichen KI trotzdem nicht unbeteiligt.
Zudem macht es wenig Sinn viel mehr Einheiten zu berechnen als man überhaupt darstellen kann, also ist da schon durch die Grafikkarte ein sinnvolles Limit gesetzt.

Verfasst: 13.09.2006 10:41
von dllfreak2001
@pmv ich versteh nicht was du jetzt meinst.

Verfasst: 13.09.2006 12:53
von Kaeru Gaman
@Zaphod

punkto rasante entwicklung von Physik-hardware liegst du vielleicht richtig,
vielleicht nicht, denn wer weiß, was die sich noch alles einfallen lassen,
um es dazu zu packen.

bei KI-Hardware ist das Feld noch weiter.
Vielleicht hat ja sony lust, seine emotion-engine mit drauf zu packen,
ich meine den chip für die gesichtsausdrücke.

> 10 000 Einheiten eher nerven als spaß machen

jain
kommt aufs game drauf an. und besonders bei games, wo große formationen
möglich sind, hapert es oft an guten wegfindungsmethoden.

> wenig Sinn viel mehr Einheiten zu berechnen als man überhaupt darstellen kann

auch jain
wenn ich einen gegner aus unterschiedlichen richtungen angreifen will,
kann es passieren, dass ich (massive KI vorausgesetzt) zig mal mehr
einheiten gleichzeitig pathfinding-way bewegen muss, als auf einmal auf
den bildschirm passen.

außerdem:
was heißt darstellen kann?
steht irgendwo geschrieben, wieviel polygone ein char haben muss?

Verfasst: 13.09.2006 13:36
von Zaphod
bei KI-Hardware ist das Feld noch weiter.
Vielleicht hat ja sony lust, seine emotion-engine mit drauf zu packen,
ich meine den chip für die gesichtsausdrücke.
Das ding heißt nur emotion engine, ist aber eine stinknormale GPU und hat nichts mit KI oder gesichtsausdrücken zu tun. Dieses gerücht wurde von einem Journalist verursacht, der wie fast alle modernen Journalisten glaubt, Recherche wäre ein Dorf in den Appalachen.
außerdem:
was heißt darstellen kann?
steht irgendwo geschrieben, wieviel polygone ein char haben muss?
Mehr als sechs Quads/zwölf Tris solltens schon sein, wenn das Spiel nicht "Angriff der außerirdischen Wahnsinnskillerzombiemutantenwürfel" heißen soll ;)

Verfasst: 13.09.2006 13:38
von Kaeru Gaman
> der wie fast alle modernen Journalisten glaubt, Recherche wäre ein Dorf in den Appalachen.

:lol: den spruch muss ich mir merken.

ok, dann war ich in diesem punkt wohl unbeabsichtigter weise auf entenjagt.

...was an meiner gesamtaussage jedoch wenig kratzt.

Verfasst: 13.09.2006 13:45
von Zaphod
Ich wollte ja aigentlich auch nirgendwo drann kratzen... da mein verwandheitsgrad zu Jesus nicht über Urur(ur^10)-schwippschwager hinausgeht bin ich nur eingeschränkt allwissend und könnte durchaus mächtig daneben liegen ;)

Trotzdem hätte ich gerne ein PhysX Karte und mal 1000 Terraner gegen 5000 Zerg in die Schlacht (zum abgeschlachtet werden) führen würde mir auch sehr spaß machen.