Pour ce qui est des meshBuffers. Prenons par exemple un objet 3DS que nous chargeons.
Il s'agit d'un mesh, mais qui comprend plusieurs éléments comme les roues, le châssis, etc...
L'objet est donc composé de plusieurs buffers qui possède de ce fait leur propre géométrie,
ainsi que leur propre material/Textures.
Voilà pourquoi, dans les instructions de traitement des vertices par exemple, il est parfois
bon de spécifier le numéro du buffer considéré. L'exemple 007 montre comment créer 'manuellement'
un mesh avec deux buffers.
Pour ce qui est du lightmapping. Dans ce cas, la théorie, c'est que la texture générée est placée
sur les mesh en 'surcouche' de la texture principale. De plus, effectivement, souvent les coordonnées
de textures diffère de celle de la texture princpale du mesh. Il faut donc dans ce cas des mesh avec
2 coordonnées de texture par vertices.
Avec N3xtD, pour créer ce genre de mesh, il faut faire un iAddBufferMesh(*mesh,
1) et non 0.
En suite on peux modifier indépendamment les coordonnées de texture soit avec l'instruction iTexCoordMeshBuffer()
pour le premier canal, ou alors iTexCoord2MeshBuffer() pour le second.
Voilà, j'espère ne pas avoir été trop confus.