En la última década hemos sido testigos de cómo las computadoras han empezado a tomar un lugar de gran relevancia en el mundo de los filmes de Hollywood, primero  impresionándonos con los efectos de películas animadas como ‘Beowulf’ o ‘Cuento de Navidad’.

En ambos filmes vemos cómo los actores de carne y hueso son reemplazados por personajes tridimensionales generados por computadora, que gracias a poderosos sensores, pudieron capturar los movimientos reales de las personas y plasmarlas en sus respectivos personajes.

Pero el filme que definitivamente dio un salto enorme a esta tecnología fue ‘Avatar’, que no solo se limitaron a poner a actuar a los actores en trajes que parecen espaciales con sensores que interpretaban sus movimientos, ahora su rostro tomó protagonismo.

Gracias a un casco con una cámara y un previo escaneo del rostro de los actores bastante exhaustivo, lograron hacer que los personajes digitales pudieran captar incluso hasta el rápido movimiento de los ojos y el parpadear de las personas.

Es decir, ahora no se tomaba información de sensores y se pasaban a un personaje digital, ahora los actores actuaban como en cualquier otra película y las computadoras simplemente los “disfrazó” de forma digital, sin alteraciones de por medio, solo el puro talento de los actores reflejados en sus personajes de alienígenas azules.

LEER
El Pueblo, una serie diferente

Todo parecía indicar que llegamos a la cúspide de los efectos especiales que cualquier filme pudiese lograr sin reemplazar a los actores por computadoras, pero ahora le han encontrado otra función bastante impresionante que cambiará toda nuestra experiencia al ver películas extranjeras.

Tom Hanks hablando de forma nativa varios idiomas en las diferentes versiones del filme de Forest Gump

No, secretamente Tom Hanks no tuvo que aprender diez idiomas para poder filmar diez veces el mismo filme de Forest Gump. Ha sido la tecnología de Inteligencia Artificial el que ha hecho que el actor empezara a mover sus labios conforme al idioma que hablaba.

Esta nueva tecnología prende que nos olvidemos de los actores de Hollywood hablan inglés, pues sus labios se moverán al par del audio de doblaje en castellano, en nuestro caso, o en japonés como sería en Japón.

Aunque solo se trata de un video de muestra pero ha impresionado a todos cuando nos ha mostrado a Jack Nicholsol hablando alemán o Tom Cruise hablando en perfecto francés, mientras que Forrest Gump decía sus líneas en japonés.

El genio detrás de todo esto es Scott Mann, director británico que se unió con investigadores para crear una tecnología a base de inteligencia artificial que fuese capaz de modificar los movimientos de la boca de los actores en una imagen.

LEER
La Lego Película 2, para niños y no tan niños

Como resultado, obtuvo un algoritmo que era capaz de tomar una imagen y distorsionarla a voluntad, tratando de que este cambio se viera lo suficientemente realista para pasar inadvertido.

Es algo muy parecido a lo que vemos en el sitio de myheritage.es, donde podemos subir a la plataforma una foto antigua, que gracias a la inteligencia artificial esta puede cobrar vida como si se tratase de un vídeo, solo que esta vez no será una foto, sino millones de fotogramas que componen todo un filme, un trabajo imposible de hacer manualmente.

Para mostrarnos como funciona este efecto, se nos muestra una malla digital bastante compleja, llena de líneas y nodos que en su conjunto forman la cara del actor, produciendo como una especie de máscara flexible digital que estará sobre la imagen del rostro real.

Esta malla es la que tiene la secuencia con las expresiones faciales y las articulaciones de la boca de acuerdo al audio de doblaje de uno de los idiomas, y el algoritmo “editará” la imagen para que esta tome la forma de la malla.

Serán miles de procesos que hará que cada pixel tome un nuevo lugar, sea reemplazado, los colore en su nuevo sitio, entre otros, posiblemente únicamente se logre con súper computadoras capaces de realizar esta carga de trabajo.

LEER
Kingdom de Netflix, zombies chinos

Todo esto ha sido posible gracias al trabajo de Graphics, Vision & Vídeo del Instituto Max-Planck ubicando en Alemania y donde participa Christian Teobalt, director de todo el equipo de investigación tecnológica de la denominada “deepfake”, solo que llevado a un nivel complejo.Si bien aún es muy temprano para preparar las palomitas y ver nuestro filme favorito como si todos hablaran un castellano nativo, sí que ha abierto el debate y las posibilidades para que esto sea toda una realidad en el futuro.