Si la radiosité est générée en utilisant des vertices supplémentaires, alors il n'a pas de moyen de continuer à utiliser la mesh d'origine (sinon blender le ferait aussi, déjà). Les lightmaps sont le seul moyen connu relativement économique pour simuler un éclairage statique, c'est un fait. Le seul moyen ici serait d'arriver à exporter les meshes colorées dans des images. Autre point, le rendu de la radiosité de Blender tel que je l'ai testé n'est pas du tout intéressant (graphiquement parlant), même s'il est probable que je n'ai pas du tout capté la configuration du rendu.
Note aussi qu'il n'est pas possible de "factoriser" une lightmaps, chaque pixel ayant son role (FsRadRay montre très bien que la taille des patchs est directement liée au niveau de détail de l'éclairage de ce patch, et non de la taille des triangles du patch en question).
Autre aspect de ton post : Raydium est Raydium, Blender est Blender : les capacités et les intérêts diffèrent, et si tu te retrouve à créer tes scènes entièrement dans Blender, c'est pas Raydium qu'il te faut, mais Game Blender
L'autre piste que je n'ai pas explorée pour le rendu des lightmaps, ce sont les outils de radiosité des différents Quake, dont le code source est GPL si je ne me trompe pas (mais la passage TRI->BSP me semble ... tendu).