Seite 2 von 4

Verfasst: 23.10.2008 18:44
von Kaeru Gaman
dllfreak2001 hat geschrieben:Wozu POV-Ray wenn es in Echtzeit laufen soll...
lies bitte das thema nochmal aufmerksam. das eine subthema hatte mit dem anderen nix zu tun.

Verfasst: 23.10.2008 18:51
von dllfreak2001
marroh hat geschrieben:
ts-soft hat geschrieben:Kannste hier: http://www.animusic.com/ kaufen, ist aber schon alt. Selber
machen wirste das nicht können, alleine schon garnicht, dafür wirste nicht
alt genug :mrgreen:

wurde mit 3D Max erstellt: http://usa.autodesk.com/adsk/servlet/in ... id=5659302
Aha - Danke für die Info! Jepp, habe mir schon gedacht dass dies nicht so einfach ist... mein AMD64 hätte wohl auch 30 Jahre zum Rendern :mrgreen:

Edit: Hast Du einen Fav bei den Animusic Dingern?

Kaeru Gaman hat geschrieben: > mein AMD64 hätte wohl auch 30 Jahre zum Rendern
wenn du 30 Jahre zeit hast, kanst du das ganze in POV per Hand scripten und die Bilder in Kinoqualität rendern.

also ernsthaft, so aufwendig wie noch vor zehn jahren ist sowas garnicht mehr.

Man braucht immer noch die Idee, das Talent, und das unfehlbare Gespür für Timing und Präsentation,
aber an Werkzeugen hat man viele gute Sachen zur Hand inzwischen.

Verfasst: 23.10.2008 18:56
von Kaeru Gaman
/:-> :roll: /:-> :roll: /:-> :roll: /:->


> wenn du 30 Jahre zeit hast, DANN könntest du das ganze in POV per Hand scripten und die Bilder in Kinoqualität rendern.

ansonsten gibt es heute andere Werkzeuge.

außerdem war nicht von Anfang an von Echtzeit die Rede.

... und ob das ganze in Echtzeit abläuft oder nicht, ist unterm strich irrelevant,
denn beides kann man mit Blender oder 3DSMax machen.

und echtzeit-rendering ist im endeffekt auch abgespecktes Raytracing.
also insofern hat das sowieso grundsätzlich was mit Raytracing zu tun.


> Wozu POV-Ray wenn es in Echtzeit laufen soll...
er hat gefragt, was POVRay ist.

Verfasst: 23.10.2008 18:59
von dllfreak2001
Ok dann hab ich das falsch verstanden.

Also 3D-Renderer nachm Rasterizer-Verfahren sind eine abgespeckte Version von Raytracing?... Das glaube ich mal so garnicht... In meinen Augen sind das immer noch völlig verschiedene Verfahren.

Verfasst: 23.10.2008 19:06
von Kaeru Gaman
gib mir mal nen link, wo ich das verfahren nachlesen kann.

ich bin der Meinung, dass beides genug mit einander zu tun hat,
dass es eine eher philosofische Frage ist, wo man die trennung zieht.

genau wie Raycasting auch in die Schublade gehört,
auch wenn viele Leute das strikt von Raytracing getrennt sehen wollen.

Verfasst: 23.10.2008 19:09
von dllfreak2001
Nimm Wikipedia, die Verfahren sind komplett unterschiedlich.

http://en.wikipedia.org/wiki/Rasterization

Einfach ausgedrückt:

Rasterizer... perspektvisch verzerrte Polygone keine Strahlen.

Edit: marroh hat gesagt das würde zum rendern 30 Jahre dauern und du kamst dan zum ersten mal mit Pov-Ray und dann hat er erst gefragt was das ist. :freak:

Verfasst: 23.10.2008 19:33
von Kaeru Gaman
wiki hat geschrieben:rasterization is simply the process of computing the mapping from scene geometry to pixels
im Endeffekt also wie der erste schritt beim Raytracing.

dort ist es die verfolgung des Strahls von einem einzelnen screenpixel bis hin zum Objekt.
von dort aus wird der Strahl natürlich noch weiterverfolgt, um die Farbe des Pixels herauszufinden.

das Rasterizing macht hier schluss, deswegen kann es diesen ersten "Strahlengang" auch simplifizieren als Projektionsverfahren mit einer Matritze.

"under the Hood" also beides der gleiche Ansatz.


ich fände es jetzt müßig, sich darüber zu streiten, ob der Unterschied so groß ist wie zwischen Zweitakter und Viertakter, oder zwischen Otto und Wankel, beides sind auf jeden fall Verbrennungsmotoren.

Verfasst: 23.10.2008 19:37
von dllfreak2001
Du hast es nicht verstanden.... Da gibbet überhaupt keinen Strahl.

Ich versteh auch grad nicht wie du aus dem einen Satz deine Erkenntnis gefunden hast.

Es sind einfach perspektivisch verzehrte Polygone. Ich finde das sogar ganz interessant darüber zu reden.

Verfasst: 23.10.2008 19:54
von Kaeru Gaman
es ist eine Projektion.
und eine Projektion kann man immer als eine gruppe Strahlen betrachten, oder auch nicht.
Strahlen sind auch nur ein theoretisches Konstrukt.


auch wenn du jetzt ein perspektivisch verzerrtes polygon darstellst, musst du in irgendeiner Form berechnen, welche Farbe deine einzelnen Pixel haben sollen, auf denen dein Polygon am Ende dargestellt wird.
ob du das nun tust, indem du für jedes Pixel nen einzelnen Strahl verfolgst, oder indem du auf alle beteiligten Polygone (einschließlich der Projektionsfläche) nur eine Folge Matritzenrechnungen anwendest.

Im "Raytracing" genannten Verfahren wird deshalb jeder Stahl einzeln verfolgt, weil das im Endeffekt effizienter ist, wenn man die Oberflächenbeschaffenheit und -farbe aus der Szenerie errechnen will.

man könnte auch hier Matritzenprojektionen anwenden, allerdings müßte man das dann für jedes Polygon tun, und nicht nur für die Projektionsfläche. dabei können extrem verzwickte Rückbezüglichkeiten entstehen, weshalb das für hohe Berechnungstiefen wesentlich aufwendiger wäre, als "echtes Raytracing".


also ok...
es ist wohl auch eine Frage, wie man die einzelnen Begriffe im Detail auffasst.

Im Allgemeinen wird wohl Ratracing von Raycasting und Rasterizing strikt getrennt betrachtet.
Letztendlich basieren aber alle drei Verfahren auf dem Prinzip, eine Szene auf eine Fläche zu projizieren, sind also mathematisch leicht unterschiedliche Ansätze zur Laterna Magica.

Verfasst: 23.10.2008 20:09
von dllfreak2001
Darauf basieren alle Renderverfahren, weil es deren Sinn ist so auch Voxelengines.
Schau dir doch mal die Beispiele zu Sprite3Ds in unserem Forum an
dort wird Rasterizing betrieben... Ich denke grad an die Schneelandschaft.

Der Unterschied ist ja, dass beim Rasterizing das Objekt transformiert wird um den Perspektivischen Eindruck zu vermitteln.

Beim Raytracing wird dagegen Projektionsursprung und Winkel verändert.

Rasterizer wäre es schon wenn du ein Rechteck zB. mit den 2D-Drawbefehlen auf dem Bildschirm malst das sich nach oben hin verjüngt...
Es entsteht der Eindruck räumlicher Tiefe... das nennt man auch Projektion ohne das es je einen Strahl gesehen hätte. Die perspektivisch korrekte Verzerrung der einzelnen Pixel der Textur sowie die Erkennung welches Objekt vor und oder hinter diesem bei diesem Pixel liegt wird erst dann durchgeführt... Deshalb rendert der Rasterizer (ohne Optimierung) alle im Sichtfeld liegenden Polygone. Das ist auch der Grund warum Raytracer so effektiv bei riesigen Polygon-Ansammlungen sind...andersrum ist das der Beweis warum die Strahlentheorie beim Rasterizer nicht stimmt, da er sonst ja nur das Pixel rendern würde welches der Strahl zum ersten mal trifft... alle anderen Objekte bleiben außen vor.

Würde diese Strahlengechichte im Rasterizer drin sein, wären 3D-Beschleunigte Raytracing-Programme kein Problem.