Atelier "Unity là où on ne l'attend pas"

From
Jump to: navigation, search

Présentation

Quelques personnes y ont touché, mais globalement assez peu. Utilisation pour prototyper du jeux vidéo. Envies d'utilisation VR, réalité augmenté

Profil des participants

Spectacle vivant orienté nouvelles technologies. Piloter des objets, des moteurs, lumières asservies...

  • Prof de com, intérêt transmédia. Parle de la Réalité Augmentée aux étudiants.
  • Graphiste, boite de prod transmedia. Unity pour un projet RA sur le mur peint de Lyon 8. Pas de formation à Unity, découverte autodidacte.
  • Art num amateur, danse/artnum.
  • Régie vidéo & création. Intérêt de reproduire un espace scénographique en 3D.
  • Chercheur dans l'architecture, modélisation pour le patrimoine & le territoire.
  • Développeur jeux vidéo. Assez peu Unity sauf pour prototypage.
  • Artiste numérique/geek/musicien. Unity depuis quelque temps (boite évènementiel art art). Contrôle de drone, mixed reality, mapping.
  • Studio créa art et techno : Théoriz.
  • Gestion de prod VR, créatifs, coordo équipes. Projets marketing. Projets performance espace public.

Projets

Projet Thomas 1 : Les enfants de la terreur

Reconstitution d'attentats à travers une forme jeux vidéo. Les acteurs jouent sur le plateau et tournent le dos au plateau. Narration qui n'est pas celle du jeu mais celle du spectacle.

Deuxième acte autour des Brigades rouges. Paysage qui s'autogénère.

Aide de logiciels comme Chataigne et Score qui sont des logiciels "hubs" qui permettent d'interfacer des capteurs, des logiciels...

Spout, siphon, pipeline vidéo

Projet Thomas 2 : Matière

Création en cours. Laser et lumières asservies. Voulait piloter la lumière un peu finement, pour aller vers de la poursuite automatique. S'est développé sa propre brique dans Unity pour piloter dans un espace 3D. La scène et les projecteurs sont placés dans l'espace. Controle par tablette, mais possibilité dans l'absolu d'avoir une caméra par le haut qui reconnait le placement des danseurs.

Entrée: de l'OSC (position target, affecter projo, lancer anim dans Unity) --> Sortie en Artnet avec un node. Accès aux libraires C# et quasiment toutes les librairies qui vont avec. --> Système de programmation nodale qui permet d'aller scripter sans savoir écrire le C# : PlayMaker. (attention, deviens limité et compliqué pour les arts nums).

Projet Ben 1: SpinWall

Mapping sur des planches avec Unity: mapping 3D (avec connaissance de l'univers). Jeux de lumières et de perspective. Calcul de l'espace avec photos.

Projet Ben 2 : Les Sphères curieuses

Controle de drones sur scène avec des gants. Tracker de HTC Vive dans un gant que reconnait Unity. Les drones ont un système de captation. Unity permet de capter les deux ensemble façon jeux vidéo (système de sélection). --> Unity très efficace pour pointer dans un espace 3D.

Projet David 1: Passages

--> OC control framework sous le nom de Ben Kuperberg

Tout est en temps réel. Avec danseurs. Tout bouge en fonction de la caméra, jeux de perspective. Problème du blending des projecteurs (Edge-Bending). Tracker de VR (VIve) pour avoir la précision. Entièrement fait sous Unity (mapping, bending, génération temps réel) : 6 VP, rendu 4K. Anamorphose temps réel avec le tracking Augmenta (tracking sans capteur). Effets volumétriques : objets qui volent.

Autres Projets David

Création maison de shaders, avec outils qui permettent de les animer au cours du temps (comme Chataigne). Agit sur le matière en temps réel (avec musique, danseurs, capteurs).

Nombreux plugins (lumière volumétrique...) mais Unity est le seul moteur de rendu. Les devs ont beaucoup fait évolué le moteur de rendu.

Projet mapping Méthodes qui utilisent les effets de particule en temps réel. Théoriz utilise Unity pour faire de l'image et pas de la matière, ça permet d'adapter son projet avec différents capteurs, supports.

Effets de post processing dans Unity : utilisés dans le cinéma : profondeur de champ, motion blur, balance de couleurs. Est aussi fait en temps réel. Projet avec un rendu de tissu au sol avec le tracking Augmenta.

PBR : Physical Based Rendering : les matériaux conservent leurs propriétés physiques, notamment concernant les effets et les reflets lumineux.


Autres notes

Unity n'est pas fait pour faire de la modélisation, il vaut mieux importer. Maintenant, il y a un système de modélisation par voxel et il y a quelques outils 3D façon Sketch-up pour des choses simples.

Depuis peu, outil Timeline : pratique, en plus des outils d'animation. Aide pour la création d'image. Et en plus, nouveaux outils de caméra et intégration dans la timeline.

Bosser à plusieurs

Outils de collaboration sorti par Unity : Collab. Théoriz l'a pas trouvé super. Maintenant ils utilisent Git, qui permet de rassembler du code et de retrouver l'historique. Mais les scènes ne peuvent pas être modifiées en même temps. Prototype de travail en temps réel (façon google drive). Git n'est pas fait pour les fichiers binaires lourds comme les images... --> Git LFS

La matière première n'est pas vraiment sur Git, mais les enchainements oui. Cela à cause notamment des limites de stockage.


Tous ces outils passent par le cloud : donc pas de problème interne à la création à distance.

--> Unity est très communautaire : il y a donc beaucoup de librairies.