Deswegen mag ich das Saarland
- dllfreak2001
- Beiträge: 2925
- Registriert: 07.09.2004 23:44
- Wohnort: Bayern
- NicTheQuick
- Ein Admin
- Beiträge: 8809
- Registriert: 29.08.2004 20:20
- Computerausstattung: Ryzen 7 5800X, 64 GB DDR4-3200
Ubuntu 24.04.2 LTS
GeForce RTX 3080 Ti - Wohnort: Saarbrücken
Hab mich heute mal nochmal in der Uni wegen Raytracing umgehört.
Bald werden sie für das Raytracing eine Monster-Rechen-Maschine von
NVidia nutzen. The world’s first teraflop many-core processor: Tesla S1070
Spezifikation:
Tesla Processors: 4
Computing Cores: 960 (240 per processor)
Floating Point Precision: IEEE 754 single & double
Total Dedicated Memory: 16 GB (organized as 4.0 GB per GPU)
Memory Interface: 4x 512-bit GDDR3 memory interface (organized as a 512-bit interface per GPU)
Memory Bandwidth: 408 GB/sec (102 GB/s per GPU to local memory)
Typical Power Consumption: 700 W
System Interface: PCIe x16 or x8
Programming environment: CUDA
Mir sind fast die Augen aus dem Kopf gefallen.
Aber ATI zieht so langsam nach.
Bald werden sie für das Raytracing eine Monster-Rechen-Maschine von
NVidia nutzen. The world’s first teraflop many-core processor: Tesla S1070
Spezifikation:
Tesla Processors: 4
Computing Cores: 960 (240 per processor)
Floating Point Precision: IEEE 754 single & double
Total Dedicated Memory: 16 GB (organized as 4.0 GB per GPU)
Memory Interface: 4x 512-bit GDDR3 memory interface (organized as a 512-bit interface per GPU)
Memory Bandwidth: 408 GB/sec (102 GB/s per GPU to local memory)
Typical Power Consumption: 700 W
System Interface: PCIe x16 or x8
Programming environment: CUDA
Mir sind fast die Augen aus dem Kopf gefallen.
Aber ATI zieht so langsam nach.
- hardfalcon
- Beiträge: 3447
- Registriert: 29.08.2004 20:46
- dllfreak2001
- Beiträge: 2925
- Registriert: 07.09.2004 23:44
- Wohnort: Bayern
Soweit ich weiß liefert ATI Firestream-GPUs schon längst aus. Außerdem war die arithmetische Rechenleistung ab dem R600 um viel höher als die von NV (dürfte das für das Raytracing nicht hilfreich sein?). Nur mangels Texturfüllrate und polygonreicher Spiele lagen die ATIs hinter den NV-Pendants.
Aber schon fett so viel RAM... Nur wenn so eine Anwendung dann nur auf so einem Monster läuft hats ja auch keinen Sinn.
Aber schon fett so viel RAM... Nur wenn so eine Anwendung dann nur auf so einem Monster läuft hats ja auch keinen Sinn.
I´a dllfreak2001
- hardfalcon
- Beiträge: 3447
- Registriert: 29.08.2004 20:46
- dllfreak2001
- Beiträge: 2925
- Registriert: 07.09.2004 23:44
- Wohnort: Bayern
Von der Leistung her ja, aber ob sich Raytracing bis dahin durchgesetzt hat. Ich denke das wird bis dann nicht geschehen sein.
Ich meine, rein optisch hat es bis dato keine echten Vorzüge...
Raytracing wird wahrscheinlich im CAD-Bereich OpenGL ersetzen aber für Spiele ist es noch nicht so der Bringer...
Ich meine, rein optisch hat es bis dato keine echten Vorzüge...
Raytracing wird wahrscheinlich im CAD-Bereich OpenGL ersetzen aber für Spiele ist es noch nicht so der Bringer...
I´a dllfreak2001
- NicTheQuick
- Ein Admin
- Beiträge: 8809
- Registriert: 29.08.2004 20:20
- Computerausstattung: Ryzen 7 5800X, 64 GB DDR4-3200
Ubuntu 24.04.2 LTS
GeForce RTX 3080 Ti - Wohnort: Saarbrücken
Diese Rechenmonster sind eigentlich viel interessanter für die BioInformatik bei uns. Die brauchen diese Leistung nämlich. Energieminimierungsalgorithmen von Molekülen mit über 1 Mio. Atomen sind
sehr rechenaufwändig. Mit Hilfe von CUDA programmierten Grafikkarten
kann man z.B. auf allen 128 Cores gleichzeitig eine Multiplikation mit jeweils
verschiedenen Werten ausführen. Die Programmierung ist wirklich so
ausgelegt, dass man selbst so kleine einzelne Multiplikationen z.B. zweier
Arrays auf alle Cores verteilt, anstatt zu denken, dass das seriell genauso
flott gehen würde.
Für Raytracing hat man ja gesehen, dass eine einzige kleine Karte mit 100
MHz schon mit wenigen FPS in Echtzeit raytraced. Die Extra-Power mit der
Tesla 1070 bringt es höchstens für die Automobil-Industrie, die am
Raytracing stark interessiert ist, weil sie damit ihre Auto-odelle
wirklichkeitsgetreu virtuell anschauen können, ohne erst einen Prototyp zu
bauen.
sehr rechenaufwändig. Mit Hilfe von CUDA programmierten Grafikkarten
kann man z.B. auf allen 128 Cores gleichzeitig eine Multiplikation mit jeweils
verschiedenen Werten ausführen. Die Programmierung ist wirklich so
ausgelegt, dass man selbst so kleine einzelne Multiplikationen z.B. zweier
Arrays auf alle Cores verteilt, anstatt zu denken, dass das seriell genauso
flott gehen würde.
Für Raytracing hat man ja gesehen, dass eine einzige kleine Karte mit 100
MHz schon mit wenigen FPS in Echtzeit raytraced. Die Extra-Power mit der
Tesla 1070 bringt es höchstens für die Automobil-Industrie, die am
Raytracing stark interessiert ist, weil sie damit ihre Auto-odelle
wirklichkeitsgetreu virtuell anschauen können, ohne erst einen Prototyp zu
bauen.
- dllfreak2001
- Beiträge: 2925
- Registriert: 07.09.2004 23:44
- Wohnort: Bayern
Also wenn man das CUDA für Physx auf den Rest überträgt müssen die ATI-Karten mit den NV-Pendants den Boden wischen:
Das ist eine ATI HD 3850 (< 100€) diese ist die kleinste Midrange Karte der letzten Generation (aktuell HD4850 und HD3870 => die haben 30%-100% mehr Leistung => 150€ und 250€) und sie erreicht im Vantage CPU-Test schon 22 kPkt zu den 27 kPkt der Geforce GT280 (die aktuell schnellste Singelchipkarte von NV => 400 € - 600 €). Auch hab ich schon gehört das die ATI-Karten diese Programme zum falten der Moleküle besser ab können als jetzt die Geforcen.
Auszug von 3D-Center-News www.3dcenter.deBei NGOHQ hat man es geschafft, einer Radeon HD 3850 eine PhysX-Beschleunigung beizubringen, in deren Folge die Karte ähnliche Performance-Sprünge im GPU-Test von 3DMark Vantage hinlegte wie die nVidia-Karten mit dem Beta-Treiber 177.39. Das Ergebnis ist mit einem CPU-Score von 22.606 auf einer Radeon HD 3850 sogar ausgesprochen gut, eine (deutlich stärkere) GeForce GTX 280 erreicht mit einem CPU-Score von 27.129 auch nicht bedeutsam mehr. Offensichtlich haben NGQHQ irgendwie die Hardware-Erkennung von nVidias CUDA manipuliert - und rein von der Technik her spricht ja nichts dagegen, daß ATI-Beschleuniger auch PhysX ausführen können. Im übrigen soll ATI laut der PC Games Hardware sogar an einem offiziellen PhysX-Support für die aktuellen Radeon-Grafikkarten arbeiten, die entsprechende Lizenz hat man wohl.
Das ist eine ATI HD 3850 (< 100€) diese ist die kleinste Midrange Karte der letzten Generation (aktuell HD4850 und HD3870 => die haben 30%-100% mehr Leistung => 150€ und 250€) und sie erreicht im Vantage CPU-Test schon 22 kPkt zu den 27 kPkt der Geforce GT280 (die aktuell schnellste Singelchipkarte von NV => 400 € - 600 €). Auch hab ich schon gehört das die ATI-Karten diese Programme zum falten der Moleküle besser ab können als jetzt die Geforcen.
I´a dllfreak2001
http://www.heise.de/newsticker/Radeon-H ... ung/109922dllfreak2001 hat geschrieben:Das ist eine ATI HD 3850 (< 100€) diese ist die kleinste Midrange Karte der letzten Generation (aktuell HD4850 und HD3870 => die haben 30%-100% mehr Leistung => 150€ und 250€) und sie erreicht im Vantage CPU-Test schon 22 kPkt zu den 27 kPkt der Geforce GT280 (die aktuell schnellste Singelchipkarte von NV => 400 € - 600 €).
cya,
...Danilo
"Ein Genie besteht zu 10% aus Inspiration und zu 90% aus Transpiration" - Max Planck
...Danilo
"Ein Genie besteht zu 10% aus Inspiration und zu 90% aus Transpiration" - Max Planck