El marco donde ocurre la RA es una pantalla. Fuera de las pantallas no puede manifestarse, por lo menos hasta el momento. De esta forma ocurrió en la Liturgia de Apertura de los últimos JJ. OO. de Invierno en Corea del S. en cuya transmisión los espectadores veían un increíble y refulgente cielo estrellado posado encima mismo del gran estadio. Era un espejismo digital integrado en la emisión. Se veía en las pantallas en calidad 4K merced a la tecnología Infinity Set de RA hiperrealista de la de España Brainstorm. Igual ha sucedido en la última y increíble entrega de los Billboard Music Awards, cuyo plato fuerte fue la actuación de Madonna y el vocalista Maluma. En una plasmación textual de la capacidad de lo digital para fabricar múltiples identidades en forma de avatars, la tecnología Infinty Set hacía surgir en las pantallas en tiempo real hasta 4 alter ego de Madonna con diferente apariencia, vestido, movimientos y voz propia, indistinguibles de la vocalista ‘física’, sobre el enorme escenario del MGM Garden Arena, ante 15.000 personas, en pleno corazón de Las Vegas.

¿Se podría producir en riguroso directo como reales cosas que no lo son? «Claro», responde Montesa

Ricardo Montesa, creador y directivo de Brainstom3D, está habituado desde hace ya un tiempo a cosas excepcionales. Con su tecnología se han rodado películas tan conocidas como Inteligencia Artificial de Steven Spielberg y ha servido gráficos activos en tiempo real tanto al enorme muro digital del Nasdaq en Manhattan, como a la cadena CNBC en la noche electoral de la elección presidencial de Barack Obama. Brainstorm asimismo ha ‘teletransportado’ a cronistas deportivos entre estadios y platós de TV, mas jamás hasta el momento había sobrepuesto y hecho danzar a clones digitales hiperrealistas.En los Billboard Music Awards, Brainstorm creó una capa sobre el Unreal Engine, un muy potente motor de gráficos y recursos digitales creado para ciberjuegos de alto nivel por una de las primordiales empresas de industria mundial de los juegos para videoconsolas llamada Epic Games. Es tal su capacidad que la compañía, que lo creó con software libre, lo está licenciando para los nuevos campos de la realidad virtual inmersiva. La interfaz de Brainstorm, contratada para el acontecimiento por la productora Sequin AR, «es una capa conceptual: el Unreal produce acontecimientos de gráficos en movimiento y leemos con la señal de CDI, sensores, el tracking y posicionamiento de las cámaras, el código de tiempo, controlamos y hacemos que cada cosa suceda en su instante y en su lugar».

Versiones hiperreales

Hasta el momento habíamos visto escenarios tridimensionales en los que había imágenes llanas. Mas estos clones de Madonna no son vídeos planos de ella, son ‘versiones’ tridimensionales que bailan al tiempo en exactamente el mismo escenario, ‘conviven’ digitalmente con ella y cantan con sus ‘otras’ voces fragmentos de exactamente la misma canción de forma sobrepuesta… en riguroso directo. «Esos clones de Madonna ya están anteriormente calculados y renderizados. Sequin AR ya había encargado que se digitalizara tridimensionalmente a la Madonna virtual, cada una vestida diferente. Eso se hizo en una investigación de la ciudad de Londres, donde se la escaneó en 3 dimensiones y en movimiento. Creyeron que nuestra tecnología Infinity Set que se emplea para emisión broadcast (en vivo), podría lograr que el Unreal Engine se comporte en modo broadcast, en tanto que era preciso que funcionara en riguroso directo y en tiempo real».Montesa explica cuál es el salto tecnológico que se ha dado en este campo. «Al emplear los nuevos motores gráficos de juegos para videoconsolas se crean imágenes que semejan tan reales como las de una grabación de una cámara en vivo, en lo que se refiere a colores, texturas y también iluminación y sombras, sobre todo, y la gente lo ve en su televisión tal y como si lo fuesen». Con esta tecnología, ¿alguien podría en un telediario producir como reales cosas que no lo son? «Claro», responde, «la RA es falsa. Son objetos 3D y con ellos puedes representar cuanto quieras, personas repetidas o bien inventadas».Suena peligroso. «Claro que lo es. Igual que las fake news hechas para mentir». La clave es que la imagen virtual se emite en vivo, no grabada.¿Cree Montesa que hay que dejar que los propios medios se autorregulen en esto? «Cuando comenzamos», explica, «en los primeros programas A3TV ponían un logotipo en la emisión diciendo que el fondo no era real, a fin de que los espectadores lo supieran y no se sintieran engañados. Ahora a absolutamente nadie se lo que pasa poner un aviso de esta manera». Vamos a poder tener como comunicadores de los telediarios a avatares virtuales hiperrealistas que no se distingan de las personas de carne y hueso. «La gente deberá aprender. Cuando eso llegue, que va a llegar, vas a estar interaccionando mediante la pantalla con una ‘persona’ que no es real. Lo que debes saber es que por la pantalla te pueden estar contando patrañas».Javier Montesa es organizador técnico de proyectos de I+D en Brainstorm. Así como el encargado de I+D Francisco Ibáñez y el propio Ricardo Montesa, impulsan la investigación de frontera.  El proyecto PRESENT, explica el primero, «es una iniciativa a 3 años, en cooperación con la UPF y empresas como Framestore, Cubic Motion y otras, y debe ver con la fusión de 2 tecnologías que evolucionan muy rápido: la RA y los asistentes virtuales, como Google Assistent, Alexa o bien Siri. Nuestro objetivo no es solo interaccionar con lenguaje natural sino más bien corporal y visualmente, esto es, con identidad visual. Le podrás hacer preguntas y va a poder atender autónomamente al público por poner un ejemplo en un museo, un aeropuerto, o bien emplear en un programa de TV». 

Teletransportación

Otro ejemplo de I+D de vanguardia en el que está implicado Brainstorm es TelePorter (Sistema de Teletransporte de Realidad Aumentada para un Periodismo de Noticias Inmersivo), que presentó a la sexta ronda europea de financiación del programa Google Digital News Innovation Fund (Google documento nacional de identidad), cuya asamblea tuvo lugar, por vez primera en España, en Valencia. «En un set virtual de TV, lo que tienes esencialmente para generar noticias audiovisuales es un ciclorama (el fondo verde), una cámara o bien más, iluminación, un PC de realización, y un integrador o bien incrustador de la silueta del comunicador, todo en un mismo circuito. Pretendemos que no sean precisos para extraer la silueta, que funcione con un teléfono inteligente o bien una tablet y, de esta manera, hacerlo omnipresente». De esa forma se logra que el comunicador del telediario y el reportero que esté en el sitio de la nueva compartan escena con ‘teletransportación’. El proyecto tiene por nombre TelePorter por este motivo. «Nuestra pretensión es ‘traernos’ virtualmente al reportero desde el sitio de la nueva, por poner un ejemplo, en Afganistán, en donde ni tan siquiera tiene un fondo verde, y también introducirlo en el set virtual o bien de la escena real en el estudio de TV». Y hacerlo a través de la tecnología 5G. «Los nuevos móviles ya tienen más de una cámara y controlan la profundidad el campo visual y, con esto, podremos extraer la silueta del comunicador sin precisar fondo verde. Aprovechando la baja latencia 5G que será del orden de un milisegundo, las habituales esperas en las preguntas al reportero desaparecerán», explica Montesa. Con el TelePorter basta un cronista con su móvil y un trípode para el teléfono.»Y, además de esto, de traernos al reportero al plató, con exactamente la misma tecnología, voy a poder llevarme al comunicador del programa de la liga de futbol a cada estadio. Eso ya lo podemos hacer, mas es prohibitivo a nivel económico. El costo de producción cambia por completo sencillamente utilizando la tecnología que estamos desarrollando. Va a ser suficiente con que haya en el estadio un cronista con su móvil con el TelePorter instalado».

Educación: profesores-avatar captan atención Con Edison de Brainstorm, los profesores aparecen integrados en un ambiente de RA en la que manejan gráficos, esquemas y objetos tridimensionales que semejan corporales como flotando a su alrededor. «Cuando la presentamos en el país nipón, ciertos profesores nos afirmaron que preferían salir en pantalla como un personaje en 3D, es decir meridianamente falso, mas muy realista. Un maestro-avatar. En TV tienen clarísimo que los ademanes, gráficos, colores, influyen mucho en el mensaje. Este es una parte, mas de qué manera lo das o bien transmites es fundamental para conseguir y sostener la atención de las personas, y tiene un efecto en lo que en TV tiene por nombre ‘audiencia’. Ese término de lograr la atención y el interés habría de ser fundamental en la educación», afirma Montesa.

Fuente: larazon.es

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *