ja:lang="ja"
1
1
https://www.panoramaaudiovisual.com/en/2024/12/05/zemeckis-here-innovacion-inteligencia-artificial/

Here (Foto: Sony Pictures)

Una habitación puede albergar incontables vidas a lo largo de sus siglos. El director Robert Zemeckis propone en ‘Here’ un viaje inolvidable a través del tiempo con ayuda de las últimas técnicas de Inteligencia Artificial donde el pasado y el presente se entrelazan como nunca antes.

Here se desarrolla en una única localización, mostrando momentos desde la prehistoria hasta acontecimientos lejanos en el futuro. Al entrelazar temas personales y universales, la película invita al público a reflexionar sobre el amor, la pérdida y el paso del tiempo reflejados en el matrimonio formado por Richard (Tom Hanks) y Margaret (Robin Wright). Para lograr los impresionantes viajes en el tiempo reflejados en el rostro de los protagonistas Hanks y Wright que junto a Paul Bettany y Kelly Reilly protagonizan la historia, Robert Zemeckis acudió al equipo de Metaphysic 詐欺 Jo Plaete al frente de su supervisión y al estudio británico-indio de efectos visuales DNEG bajo la batuta de Johnny Gibson

映画 escrita por Eric Roth basándose en la novela gráfica del mismo nombre de Richard McGuire, contó con un presupuesto de 45 millones de dólares empleando en su rodaje tres platós que albergaban dos copias idénticas de la habitación para poder rodar en una mientras se decoraba la otra acorde a la época. Además, las escenas exteriores anteriores a la construcción de la casa se rodaron en un tercer plató.

director de fotografía Don Burgess concordó con Zemeckis que, tras probar con dobles corporales y un sinfín de pruebas de maquillajes, la película solo será viable con ayuda de la Inteligencia Artificial. Y es que lograr este nivel de realismo mediante técnicas tradicionales de gráficos por ordenador que implican modelado 3D, renderizado y captura facial, habría sido imposible dada las exigencias de calidad que requería la producción de Here

Here (Foto: Sony Pictures)

Neural Performance Toolset (NPT)

Miramax (la productora de cine y televisión propiedad de beIN Media Group y Paramount) invitó entonces al estudio Metaphysics a realizar una prueba de pantalla para el proyecto recreando a un joven Tom Hanks, que recordaba a su juventud en películas como Big pero con la experiencia del paso de los años de un actor de su talla. La tecnología Neural Performance Toolset (NPT) de Metaphysics está revolucionando el mundo de los efectos visuales generados por IA con su innovador marco de aprendizaje automático. Diseñada para ofrecer un realismo y un control inigualables, esta tecnología aprovecha arquitecturas de modelos de última generación, manipulación avanzada del espacio latente y técnicas de animación neuronal.

Here (DNEG)Su complejo sistema de procesamiento de datos y sus redes neuronales de última generación están diseñados para obtener resultados de alta resolución sin perder control ni flexibilidad. Esta arquitectura no solo preserva la integridad de la transferencia del rendimiento facial, sino que también mantiene los matices específicos del contexto y la identidad durante el entrenamiento. Con estas herramientas, el supervisor de efectos visuales de producción en HereKevin Baillie, y la productora de efectos visuales, Sandra Scott, decidieron que había llegado la hora de que la IA mostrara en pantalla hasta dónde puede llegar.

Aunque los modelos de redes neuronales alcanzaron en las primeras pruebas resultados fotorrealistas notables, Metaphysics desarrolló nuevas herramientas para el control de la línea ocular de los actores y otras técnicas que respaldaran los movimientos bruscos de cabeza de los actores.

Here (DNEG)El equipo desarrolló características faciales en hasta cinco edades diferentes para Tom Hanks, cuatro edades para Wright y dos edades para Bettany y Riley. En total, la película emplea sustitución facial en 53 de los 104 minutos de su metraje total. Para acompasar el los movimientos de los actores con la edad ficticia recreada por IA, en el set de rodaje se dispusieron monitores para cada talento en los que se mostraba la imagen procedente de cámara y el resultado tras la aplicación de la IA. Gracias a este trabajo en tiempo real, los actores podían ajustar sus interpretaciones así como los equipos de maquillaje (con maquillaje real junto al maquillaje digital), peluquería o atrezzo comprobar el resultado según el espacio temporal de la escena.

El resultado final en el que los actores viajan por el tiempo de forma invisible al público fue una mezcla de múltiples renders neuronales de Inteligencia Artificial y la composición en Nuke de Foundry. El devenir del paso del tiempo en el exterior tras la ventana principal del salón se valió de una pared LED con contenidos de cada época movidos por el motor de Unreal

Here (DNEG)

IA made in Spain

En la impecable producción de Here ha desempeñado una papel clave, además del potencial de la NPT de Metaphysics, las herramienta de Inteligencia Artificial de la compañía española Generative Suite que con su propuesta Magnific permitieron aumentar la resolución de las imágenes.

Creada por Javi López y Emilio Nicolás, Magnific consigue un upscaler y unenhancer avanzados de la IA capaces de reimaginar eficazmente gran parte de los detalles de la imagen, guiados por una serie de indicaciones y parámetros. Sus resultados quedan patentes en Here con un resultado magistral.

https://www.youtube.com/watch?v=11rXdSI5XqQ

による, 5 Dec, 2024, Sección:シネポスプロ

に関するその他の記事

この記事は気に入りましたか?

購読してください ニュースレター 何も見逃すことはありません。

その他の関連記事

Grup Mediapro が Assimilate Live FX に関するワークショップを開催

ドイツの SWR がソニーとともにメタバースとマルチカメラのバーチャル プロダクションの時代に突入

Las pantallas LED de INFiLED llevan la realidad extendida (XR) a la francesa TF1

S4 スタジオは、ブロンプトン テクノロジーを使用してディスカバリー チャンネルにバーチャル プロダクションを提供します

ITS プーリア財団、Alfalite LED を使用した XR バーチャル プロダクション スタジオを開設

Zero Density desarrolla una solución unificada para gráficos broadcast con Reality 5.6

RTVE は Unreal Engine を使用して仮想プロダクションの障壁を打ち破ります

放送環境におけるモーションシステムの動向と将来

Matrox ビデオ NIC SDI および ST 2110 カードが Unreal Engine プラグインのサポートをデビュー

Telemundo Deportes は、2024 年のオリンピック競技大会の報道で Blackmagic Design の Ultimatte 12 HD を使用しました

Unreal Engine 5 define el futuro de Zero Density en NAB 2025

DAZN ポルトガルは、wTVision を利用したバーチャル セットから F1 を中継します

Reality5 cumple un año con actualizaciones en todo su ecosistema

wTVision は、UEFA チャンピオンズ リーグの報道のためにスポーツ TV に拡張現実を提供します

Miguel Churruca (Brainstorm): "Nuestras soluciones junto al uso de robóticas abren nuevas puertas a una producción virtual avanzad...

Unreal Engine が Matrox Video DSX LE5、DSX LE6 シリーズ、および X.mio5 カードをサポートするようになりました