Documentaire Disney+ « Shark Attack 360 », créé avec le compositeur Ultimatte (Blackmagic)
Le Petite ombre studio a créé un environnement virtuel supporté par des solutions telles que le compositeur Ultimatte (Magie noire), le logiciel DaVinci Resolve ou Unreal Engine pour donner forme à « Shark Attack 360 », un Disney+ documentaire.
Attaque de requin 360, une série de huit épisodes de 60 minutes, explore le véritable comportement de les requins et enquête sur les raisons pour lesquelles ils attaquent les humains, présentant ainsi des récits personnels et des preuves scientifiques. La production, qui fait partie du Sharkfest du National Geographic, complète son scénario avec un décor plein de scènes avant-gardistes. effets visuels.
Société de production basée à Londres Flèche Média commandé Petite ombre à créer les graphiques en trois dimensions et effets visuels. Dans le cadre de son travail, la société de production devait apporter images virtuelles interactives à la vie et mettre en place un laboratoire de requins à 360 degrés pour montrer le mouvement et l'anatomie de ces individus.
Simon Percy, réalisateur de Little Shadow, a pris la décision de créer le Salle de musique de Collins à Islington, un théâtre alternatif qui n'a jamais été achevé, comme environnement de tournage. C'est à cet endroit que l'unique vision à 360 degrés laboratoire virtuel des requins a été mis en place, un pari visuel mêlant images réelles et images de synthèse. "Pour commencer, nous avons utilisé un scan LiDAR pour créer un modèle 3D du lieu afin de planifier et de mettre à l'échelle le projet. Cette réplique numérique du lieu a permis une planification et une pré-visualisation méticuleuses, garantissant que chaque plan pouvait être conçu à l'avance, contribuant ainsi à rationaliser à la fois le tournage et le montage. " explique Percy.
Créer un environnement virtuel à partir de zéro
Même si le théâtre répondait aux exigences d'éclairage, le manque d'isolation acoustique et le disposition des espaces a posé quelques défis : "Tout résonnait et tous les sons du kit étaient amplifiés, nous avons donc éloigné notre flux de travail principal du sol du décor. Cela impliquait de diffuser un signal 4K sur 110 mètres et quatre étages à l'aide d'un câble BNC", explique le directeur de Little Shadow.
De plus, au lieu d'utiliser de grands écrans LED, Little Shadow a déployé une combinaison de systèmes personnalisés et d'autres outils pour Shark Attack 360 pour faciliter les superpositions en direct sur un fond vert. Lors du développement du flux de travail, Percy a travaillé en étroite collaboration avec un artiste d'effets visuels expérimenté. Lucas Zoltowski et le directeur de la photographie du spectacle, Matthieu Beckett: "Nous avions besoin d'une solution flexible pour capturer du contenu en direct et intégrer des ressources CGI, qui étaient lues sur un boîtier de production virtuelle (VP) et fournissaient un retour visuel immédiat. Cela était crucial pour créer le décor sous-marin immersif."
Après avoir évalué différentes options, l'équipe de Little Shadow a décidé d'opter pour Moteur irréel et le Ultimatte 12 4K compositor, afin de créer les overlays à la volée. La gestion du signal a été gérée avec un Blackmagic Vidéohub 20×20 12G commutateur matriciel, tandis que plusieurs HyperDeck Studio 4K des enregistreurs ont été utilisés pour capturer et lire du contenu.
"Cela était crucial pour la prise de décision en temps réel sur le plateau et la visualisation immédiate des images, garantissant des prises et des ajustements optimaux. Pour donner vie aux scènes sous-marines, nous avons utilisé un écran vert et l'Ultimatte, ce qui nous a permis d'intégrer les éléments virtuels 3D dans les scènes en utilisant la réalité augmentée (AR). Cela a permis au présentateur d'interagir avec les requins en temps réel, créant ainsi une expérience visuelle plus attrayante", a noté Percy.
Mouvements de caméra dans des environnements hybrides
L'un des principaux défis de Shark Attack 360 était de gérer le mouvements de caméra complexes inhérent à ce mode hybride. Le projet a nécessité de vastes techniques de suivi et de rotoscopie afin de mélanger de manière transparente les images en direct avec les arrière-plans virtuels, notamment en termes de petits détails tels que les cheveux ou les interactions étroites avec les requins virtuels.
"Le Ultime était essentiel pour la saisie sur écran vert en direct, car il guidait les mouvements de la caméra en fonction des éléments virtuels de la prise de vue, ce qui signifie que tout le monde sur le plateau pouvait voir cela en temps réel. Cela nous a donné plus de latitude pour expérimenter les possibilités créatives des scènes tout en garantissant que nous étions tous sur la même longueur d'onde en ce qui concerne la post-production », explique Percy.
Cependant, certains clichés et corrections n'ont pas fonctionné. n'implique pas l'utilisation de fonds verts, as the production company’s director concludes: “DaVinci Resolve Studio’s AI tool such as the Magic Mask for rotoscoping proved to be hugely effective in these scenarios. We are increasingly exploring the use of DaVinci Resolve Studio and Fusion as more of our process is starting to lean that way. It’s incredibly fast in terms of EXRs and it’s all GPU accelerated, which is amazing. On this project it really defined the visuals and helped to blur the lines between CGI and live action.”
https://youtu.be/dP0O5Emu54Y
Avez-vous aimé cet article ?
Abonnez-vous à notre BULLETIN et vous ne manquerez de rien.

















