12.1.1.7 : Rendu 3d, production et travail collaboratif
À toutes les personnes qui ont probablement haussé un sourcil en voyant cette section dans le sommaire : rappellez-vous que dans les années 90, quand Pixar a inventer les shaders, des chercheurs ont réussit à détourner le rendu pour faire du calcul scientifique. Ça a été le début du GPGPU.
Donc, voyez plutôt le potentiel de ce qui est en train de se faire (pas chez nous pour le moment, mais ça viendra).
- Path Tracing of Massive Scenes in Blender on Multi-GPU Systems [S31505]
- Les perfs de rendu sont bien meilleures avec des cartes RTX, comparée au V100 ou A100
- Interactive volumes with NanoVDB in Blender Cycles [D3107]
- On fait du VDB (format pour les volumes) sur GPU
- Plumbing the Metaverse with USD
- Universal Scene Description : ils l'ont fait pour avoir un standard qui leur convient (c'est de bonne guerre)
- Hydra : le moteur de rendu de base de USD
- On peut synchroniser plusieurs USD juste en envoyant les modifications (comme git)
- Permet aux entreprises d'énchanger des données entre elles (je vous épargne le cirage de pompes)
- Les positions des vertices des meshes sont en float (donc ok pour les films). Mais pas encore en double pour faire des simulations
- USD est composé de nodes (Domaines (Physics, Fluid, etc), Meshes ), attributes, relations
- On peut tout étendre, sauf le set de composition
- Les plugins (enfin les extensions) ne fonctionneront pas sur Mac car il n'autorise pas leur exécution (mais je m'en fou)
- Mais il ne faut pas que les vendeurs fassent des extentions privées qui casseront la compatibilité (et je suis d'accord, mais malheureusement ça arrivera quand même)
- Super anecdote : un type demande à une entreprise de scanner une partie, 10m x 10m, d'un forêt en Écosse avec une précision de 1 mm. Ils l'ont fait, mais sur toute la forêt. Du coup il s'est retrouver avec un fichier de 190Go. Il a mis un mois pour pouvoir l'ouvrir.
- C'est probablement une connerie, mais Autodesk annoncent qu'ils vont faire du open-source
- Comme l'a très bien dit (je ne sais pas comment elle s'appelle) : It's capitalism after all ! USD donne un paradigme pour permettre aux entreprises d'échanger entre elles (même si il y en à certaines qui ne vont absolument pas jouer le jeu)
- On peut travailler en parallèle (sans utiliser cette saloperie de svn)
- C'est comme du HDF5, on peut loader ce que l'on veut. Et on a tout l'historique des étapes qui ont servit pour arriver à cette étape
- Comme USD est un graphe qui décrit une scène on peut le mettre dans une base de données
- USD peut automatiquement filter différents niveau de détails, suivant ce que l'on demande (niveaux de détail sur les fenêtres d'un immeuble, avec un certain type de polygon)
- Le délire de Rockstar qui échange New-York avec le Paris de Ubisoft est très rigolo. Ça peut être une super opportunité. Ces villes existent, ce qui compte maintenant c'est expérience que l'on apporte.
- C'est une convergence ou une collision, mais ça va se faire
- À la base, USD était pour régler les problèmes de Pixar et de l'industrie du Cinéma, mais en fait, ça sert tout le monde tellement c'est générique
- Blender USD Import and Rendering [S31984] 42min
- BlackBird : un futur render open source pour USD (dans blender)
- Ils ont réussit à importer le Marble Scene dans Blender
- Un mesh peut être droitier ou gaucher et je ne sais pas ce que ça veut dire (c'est l'orientation du mesh)
- Il y a un Omniverse drive dans Blender
- Ils vont ajouter l'Universal Material Mapping (UMM) dans Blender
- Il vont aussi ajouter UsdSkel, UsDlayer, UsdPayload
- What's New in OptiX [S31736] 55min
- Temporal deoising, curves, Instance queries, New SDK, NSight Support
- Asynchrone et paralléle loading
- La A6000 défonce tout le monde (les RTX, GV100 et GP100), en même temps elle a des accélérations spécifiques (pour le motion blur par exemple)
- OPTIX 7.3 : Backface Culling, Blur (for Ampere)
- Quibic, Quadratic intersector speed up de $20$ à $80\%$
- On peut intégrer Optic avec NanoVDB
- On peut compiler un module dans un thread différent et arrêter sa compilation à la volée et la redémarer dès que l'on est prèt
- Ils vont optimiser le backend du compilateur et améliorer le déboggage
- On peut loader des textures de qualité cinématigraphique
- Il y a des tiles et elle sont parallélisées (et peuvent être sparse, enfin multirésolution quoi), avec plusieurs passes
- Round-robin rendu avec plusieurs streams pour garantir que le GPU est utilisé
- In-Camera VFX and Virtual Production Executive Panel
- Mix entre NVidia et Unreal Engine
- Performance capture (dans les jeux vidéo tout est virtuel), on ne capture pas des images mais des données, on peut ajuster les mouvements des acteurs après coup
- Ça à commencé avec des LEDs pour éclairer les acteurs (pour simuler le décort)
- Le problème des écrans verts (problème d'éclairage des acteurs), abstrait pour les réalisateurs
- Pour la première fois on a des réndus photoréalistes en temps réel
- Ils ont fait mieux que les murs LEDs pour le Mandalorian
- Il faut pouvoir changer l'éclairage le plus rapidement possible
- Ils ont un système pour éditer la scène en direct avec un oculus rift
- Les panneaux de LEDs ne sont pas bons pour éclairer la peau de manière naturelle. Ils n'ont pas été prévu pour éclairer au départ mais ça commence à être bien
- Sharing Physically Based Materials Between Renderers with MDL [S31207] 1h
- MDL : Material Definition Language
- Désigned pour des performances élevées
- Génération de matériaux procéduraux, anisotropie (malachite), poils, cheveux
- Procudural langage de programmation et langage de matériaux déclaratif
- Pas de prise en compte de la position de la caméra
- Bidirectional Scatering Distribution Functions => BSDF