En
1939, El Mago de Oz revolucionó el cine con su
transición del blanco y negro al Technicolor. Ahora, la película vuelve a hacer
historia gracias a la IA. Un equipo liderado por Google DeepMind, Warner Bros.
y Sphere Studios está transformando este clásico en una experiencia envolvente
para la pantalla esférica más grande del mundo (16K, 160,000 pies cuadrados),
que se estrenará el 28 de agosto.
Cuando El
Mago de Oz llegó a los cines en 1939, su transición del
sepia de Kansas al colorido de Oz dejó boquiabierto al público. Hoy, ese mismo
contraste inspira otra revolución: la fusión de IA y cine inmersivo. El próximo
28 de agosto, el Sphere de Las Vegas presentará una reinterpretación de la
cinta donde Dorothy y sus amigos no solo saltan a la pantalla, sino que
envuelven al espectador en 360 grados. Detrás hay un esfuerzo titánico: escalar
un filme de 35mm a resolución ultra HD, rellenar escenas fragmentadas y
mantener intacta la esencia de 1939. Todo, sin añadir ni una línea de diálogo
nueva.
El
proyecto, liderado por Google DeepMind, Google Cloud y socios como Magnopus y
Warner Bros., no es una simple remasterización.
“Nuestro
objetivo siempre ha sido maravillar al mundo. Lo que hoy nos enciende el
entusiasmo es poder devolverle al mundo, con toda la magia de la tecnología, un
clásico atemporal como El Mago de Oz (1939),
pero transformado: desde su formato original de 3x4 hasta desplegarlo en la
pantalla esférica más grande del planeta, recreando personajes y detalles con
una resolución que ni siquiera existía cuando la película se filmó”, explicó el
equipo de Google.
“Pero lo
más extraordinario no es solo el qué,
sino el cómo. Este
proyecto une dos mundos: el alma de Hollywood, con su legado de narrativa y
arte, y la frontera de la innovación tecnológica. Imaginen: investigadores de
Google DeepMind trabajando codo a codo con los visionarios de Sphere Studios;
ingenieros de Google Cloud colaborando con artistas premiados de efectos
visuales. Esa fusión —esa alquimia— es precisamente lo que hace posible esta
maravilla”.
Google
Cloud y Google DeepMind están utilizando los modelos Gemini, Veo 2 e Imagen 3 para
mejorar la resolución de la película El Mago de Oz, ampliar los fondos y
así llenar la pantalla, además de recrear digitalmente personajes existentes
que, de otro modo, no aparecerían en la misma escena. Hasta ahora, se han
procesado aproximadamente 1.2 petabytes de datos para este proyecto.
“Nuestros
modelos estaban en distintas fases de desarrollo, y aquí la colaboración con
DeepMind fue clave. Partimos de solo 120,000 fotogramas —todo el material
original—, y para algunos personajes, apenas teníamos unas pocas escenas de
referencia. Era insuficiente para entrenar IA convencional. Inventamos nuevas
arquitecturas de datos y técnicas de enriquecimiento. Fue un proceso iterativo:
resolvíamos un problema y surgía otro. A veces, descubríamos que investigadores
de Google ya trabajaban en soluciones paralelas, así que aceleramos esas líneas
de estudio”, explicó el equipo a cargo. “Pero esto no es solo tecnología. La IA
es una herramienta, no un reemplazo creativo. Sin esa sinergia, el resultado
carecería de alma. ¿Lo hemos logrado? Casi. Aún hay detalles por pulir, pero
cada avance nos acerca a algo nunca visto. Y eso —esa mezcla de arte, ingenio y
perseverancia— es lo que hace este proyecto único”.
El reto
tenía tres frentes. Convertir granos de celuloide en imágenes nítidas para una
pantalla que exige 40 veces más píxeles que un cine convencional; rellenar
espacios vacíos en escenas donde los cortes originales dejaban personajes
"incompletos". Por ejemplo, en la secuencia del León Cobarde, la IA
reconstruyó fondos y movimientos para mantener a Dorothy, el Espantapájaros y
el Hombre de Hojalata en cuadro simultáneo. Y, lo más impresionante, generar
actuaciones de cero. Usar IA para extrapolar movimientos y gestos de los
actores originales.
"No
podíamos usar CGI tradicional: habría sido carísimo y antinatural",
explica Buzz Hays, veterano de Hollywood y líder en Google Cloud. "Los
modelos de IA son innovadores, pero cada mes descubríamos algo imposible...
hasta que lo lográbamos", comenta el Dr. Steven Hickson, investigador de
Google DeepMind.
Un
hallazgo clave fue el material de archivo: guiones de rodaje, fotos fijas,
diseños de vestuario y hasta planos de cámara. Estos datos, introducidos en
modelos como Veo y Gemini mediante fine-tuning,
permitieron entrenar a la IA en el estilo visual y técnico de 1939. "Así,
las pecas de Dorothy o el movimiento de Toto se integran sin perder
autenticidad", detalla Hays. Hasta la profundidad de campo de las lentes
originales se replicó para mantener la perspectiva dramática.
Jane
Rosenthal, productora nominada al Oscar, destaca la ética del proyecto:
"Warner Bros. supervisó cada cambio. No queríamos alterar la magia, solo
expandirla".
Sphere
no es una pantalla, sino un planeta. Su curvatura y resolución exigen
reprocesar cada fotograma para evitar distorsiones. Con CGI tradicional,
extender una escena de 10 segundos habría requerido semanas de animación
manual. La IA, en cambio, analiza patrones y genera coherencia visual en horas.
"Imagen crea texturas; Veo, movimientos; y Gemini integra datos
contextuales", ejemplifica el Dr. Irfan Essa, de Google DeepMind.
Pero no
todo fue automático: artistas de efectos visuales ajustaron manualmente el 20%
de las secuencias, puliendo detalles donde la IA mostraba limitaciones, como en
sombras complejas o expresiones faciales sutiles.
Jim
Dolan, CEO de Sphere Entertainment, ve este proyecto como un "salto de
fe" hacia nuevas narrativas. Aunque adaptar clásicos con IA podría ser
polémico, el equipo insiste en su enfoque conservacionista: "Esto no es
un remake, es un homenaje
amplificado", afirma Rosenthal.
El
impacto podría extenderse más allá del entretenimiento: las herramientas
desarrolladas aquí podrían restaurar films dañados o llevar obras históricas a
formatos modernos sin perder su alma. "Es solo el inicio", adelanta
Essa. "La IA está abriendo puertas que ni siquiera sabíamos que
existían".
En 1939,
el truco de Fleming con el color definió una era. En 2024, la apuesta es igual
de audaz: demostrar que la IA, lejos de reemplazar la creatividad humana, puede
ser su cómplice para preservar y reinventar legados. Como dice Hays: "Oz
siempre fue un lugar de maravillas. Ahora, gracias a la tecnología, podemos
pasearnos por él".
“Esta
colaboración con Google representa una inversión estratégica en el futuro del
entretenimiento. Estamos explorando cómo combinar el talento humano con la
inteligencia artificial para crear experiencias espectaculares en nuestros
espacios. ¿Cuál será la próxima película? Aún no lo sabemos con certeza. Pero
por ahora, nuestra energía está concentrada en hacer que esta primera
experiencia sea extraordinaria.”, explicó el equipo a cargo.