miércoles, 28 de mayo de 2025

SeaSplat: "Evaporando" el Agua para Revelar los Secretos del Océano en 3D y Color Real


El vasto océano, con sus ecosistemas vitales y procesos ecológicos cruciales, sigue siendo un territorio en gran medida inexplorado visualmente. La exploración visual es fundamental para desentrañar sus misterios, pero se enfrenta a un obstáculo inherente: el agua misma. Al propagarse bajo el mar, la luz se atenúa y dispersa, provocando una severa distorsión del color y una notable pérdida de detalles en las imágenes convencionales. Este "velo acuático" complica enormemente la interpretación científica y dificulta la navegación de robots submarinos. Aunque se han dedicado décadas a mitigar estos problemas, la necesidad de técnicas más avanzadas y robustas es acuciante. Los enfoques tradicionales de simple mejora de imagen, como ajustes de contraste o balance de color, resultan insuficientes ante la complejidad de la degradación.

SeaSplat, es una nueva herramienta de corrección de color, reconstruye los colores reales de una imagen submarina tomada en Curazao. La foto original se encuentra a la izquierda y la versión corregida con SeaSplat, a la derecha. Imagen: Cortesía de los investigadores de este proyecto (MIT y la  Woods Hole Oceanographic Institution).

En este contexto, emerge una innovadora tecnología denominada "SeaSplat", desarrollada por investigadores del MIT y la Woods Hole Oceanographic Institution. Esta herramienta promete generar imágenes de entornos submarinos con una claridad tal que da la sensación que el agua ha sido digitalmente "evaporada". Este avance se basa en la sinergia de dos componentes: por un lado, la potencia del "3D Gaussian Splatting" (3DGS), una técnica vanguardista para crear representaciones tridimensionales; por otro, la integración de un modelo físico que describe con precisión cómo la luz interactúa con el medio acuático. Juntos, abren una nueva ventana a la observación submarina.


3D Gaussian Splatting: Reconstruyendo Mundos Tridimensionales

Para comprender la magia detrás de SeaSplat, primero debemos conocer uno de sus pilares fundamentales: el "3D Gaussian Splatting" (3DGS). Esta es una técnica relativamente reciente en el campo de la gráfica computacional y la visión por ordenador, diseñada para crear representaciones tridimensionales de escenas y generar vistas nuevas de ellas con una eficiencia y calidad visual notables. A diferencia de métodos más tradicionales que emplean mallas poligonales complejas, 3DGS modela una escena 3D utilizando una colección de elementos más simples y flexibles: las gaussianas tridimensionales.

Cada una de estas gaussianas funciona como una especie de "pincelada" suave y translúcida en el espacio 3D. Se define por varios parámetros clave: su posición central (media µ), su forma y extensión (matriz de covarianza Σ), su opacidad (o cuán sólida o transparente es), y su color (c), que además puede variar según la dirección desde la que se mire, gracias al uso de armónicos esféricos. Para generar una imagen 2D desde un punto de vista específico, estas gaussianas 3D se proyectan sobre el plano de la imagen y se organizan según su profundidad para luego combinarse de manera ordenada, creando el color final de cada píxel. Esta aproximación permite entrenar modelos de escenas 3D completas de forma rápida y renderizarlas en tiempo real. Sin embargo, 3DGS por sí solo, aunque potente en entornos terrestres, enfrenta grandes dificultades bajo el agua, ya que no está diseñado para lidiar con las severas distorsiones lumínicas del medio acuático.


El Modelo Físico del Océano: Decodificando la Luz Subacuática

Aquí entra en juego el segundo componente crucial de SeaSplat: la integración de un modelo físico que describe cómo la luz se comporta al viajar por el agua. Este no es un añadido superficial, sino el elemento que permite a 3DGS "ver" con claridad en las profundidades. El problema con la luz bajo el agua radica principalmente en dos fenómenos: la atenuación, que es la pérdida progresiva de intensidad y el cambio de color de la luz (los rojos desaparecen primero); y la retrodispersión, que es la luz esparcida por partículas en el agua y reflejada hacia la cámara, creando un efecto de neblina que oculta los detalles.

SeaSplat incorpora una formulación matemática de estos procesos. Una ecuación comúnmente utilizada, y referenciada en el contexto de SeaSplat, que combina la imagen degradada que captura la cámara con un factor que representa cómo la señal directa del objeto se atenúa con la distancia, un segundo factor que representa cómo la señal directa del objeto se atenúa con la distancia junto con un tercer factor que representa como la retrodispersión modela la luz.

Al integrar este modelo en el proceso de optimización de 3DGS, SeaSplat no solo aprende cómo es la escena 3D, sino también como se comportan y que efecto tienen los parámetros del agua. Esta capacidad de "desenredar" la contribución de la escena de la del agua es lo que transforma a 3DGS en una herramienta capaz de restaurar el color verdadero y la geometría precisa de los entornos submarinos.


Resultados Deslumbrantes: Viaje al Color Verdadero Submarino

La verdadera prueba de SeaSplat reside en sus resultados. Al aplicar esta combinación de 3D Gaussian Splatting y modelado físico del agua a conjuntos de imágenes submarinas –capturadas típicamente por buzos o vehículos desde múltiples ángulos – la herramienta genera "mundos" tridimensionales vibrantes y en color verdadero. Lo más impactante es que los objetos dentro de estas reconstrucciones 3D retienen su color auténtico de manera consistente, sin importar desde qué ángulo o distancia virtual se observen. Esto contrasta radicalmente con la experiencia visual directa bajo el mar, donde los colores se desvanecen y cambian con la perspectiva.

 

SeaSplat produce imágenes en color real de escenas submarinas, capturadas por el robot submarino del equipo del MIT. La foto original se encuentra a la izquierda y la versión con corrección de color, creada con SeaSplat, a la derecha. : Cortesía de los investigadores de este proyecto (MIT y la  Woods Hole Oceanographic Institution).

Para lograrlo, SeaSplat analiza cada píxel de las imágenes de entrada y, basándose en su modelo físico, cuantifica la distorsión por atenuación y retrodispersión para luego "eliminarla" virtualmente. El sistema aprende simultáneamente la escena 3D y los parámetros del agua mediante una sofisticada función de pérdida que incluye restricciones específicas para el dominio submarino, como la suavidad esperada de la retrodispersión o la hipótesis del "mundo gris" para un balance de color natural. 

Los investigadores han validado SeaSplat utilizando diversos conjuntos de datos, incluyendo imágenes del lecho marino de lugares como las Islas Vírgenes de EE. UU., el Mar Rojo y el Caribe, demostrando una superioridad cuantitativa en métricas como PSNR y SSIM frente a métodos anteriores, incluyendo adaptaciones de NeRF para el agua y el 3DGS estándar. Además, produce mapas de profundidad más precisos, un subproducto valioso del modelado físico.


Más Allá del Ejemplo: Implicaciones Amplias y Contexto General

Las capacidades de SeaSplat para "evaporar" digitalmente el agua abren un horizonte de aplicaciones que trasciende la mera mejora de imágenes. En biología marina, por ejemplo, podría revolucionar el monitoreo de ecosistemas vulnerables como los arrecifes de coral. La detección temprana del blanqueamiento coralino, un indicador crítico de estrés ambiental que a menudo se presenta como una decoloración sutil y difícil de apreciar en imágenes convencionales, se facilitaría enormemente al restaurar los colores verdaderos. Esto permitiría una cuantificación más precisa de la biodiversidad y una evaluación más fiable de la salud de los arrecifes.

 

Simulación mediante IA de los resultados obtenidos con SeaSplat. SeaSplat en una imagen del fondo marino.

La robótica submarina también se beneficiará enormemente. Vehículos autónomos (AUVs) y operados remotamente (ROVs) dependen de una percepción visual precisa para navegar, mapear e inspeccionar. SeaSplat les proporcionaría modelos 3D más fiables y claros del entorno. Otras áreas incluyen la arqueología marina, permitiendo la documentación detallada de naufragios y artefactos con sus colores originales; la inspección de infraestructuras submarinas como oleoductos o cables para detectar daños; y la exploración geológica del lecho marino. Incluso la divulgación científica podría transformarse, ofreciendo al público "viajes virtuales" fotorrealistas a ecosistemas y yacimientos hoy inaccesibles para la mayoría. La colaboración entre instituciones como el MIT y la WHOI subraya el potencial de estas tecnologías para expandir nuestro conocimiento del mundo submarino.


Una Ventana Transparente al Océano Profundo

SeaSplat se erige como una herramienta transformadora en el campo de la imagenología submarina. Su innovadora fusión del potente método "3D Gaussian Splatting" con un riguroso modelo físico de la interacción de la luz con el agua consigue, de manera efectiva, "evaporar" digitalmente el velo acuático. Este avance representa un salto cualitativo para superar los desafíos crónicos de la atenuación y la retrodispersión que han limitado nuestra visión del mundo submarino. La capacidad de generar reconstrucciones 3D en color verdadero, donde los objetos revelan su apariencia intrínseca con independencia de la perspectiva, dota a científicos y exploradores de una herramienta sin precedentes.

Como señaló Yogesh Girdhar, uno de sus creadores, SeaSplat es "el primer enfoque que puede construir muy rápidamente modelos 3D de alta calidad con colores precisos, bajo el agua, y puede crearlos y renderizarlos rápidamente". Aunque persisten desafíos, especialmente en cuanto a la carga computacional para su integración en tiempo real en plataformas autónomas desconectadas, la trayectoria es prometedora. SeaSplat no es solo una solución elegante a un problema complejo; es un paso firme hacia la anhelada "visión submarina transparente", con el potencial no solo de revolucionar la investigación marina, la robótica y la arqueología, sino también de inspirar nuevas formas de "ver a través" de medios opacos en otras disciplinas científicas y tecnológicas.

NOTA: Puede ampliarse la información sobre el SeaSplat en las publicaciones del  Massachusetts Institute of Technology (MIT) News y en el “paper” Yang, D., Girdhar, Y., & Leonard, J. J. (2024/2025). SeaSplat: Representing Underwater Scenes with 3D Gaussian Splatting and a Physically Grounded Image Formation Model. Presentado/Publicado en IEEE International Conference on Robotics and Automation (ICRA) y arXiv.


martes, 20 de mayo de 2025

El Ojo Infalible de la IA: Protegiendo el Legado Artístico de la Falsificación.


Un mercado millonario acechado por la sombra del engaño


El mundo del arte, custodio de la creatividad y el ingenio humano, enfrenta una amenaza tan antigua como el propio arte: la falsificación. Se estima que un porcentaje alarmante de obras en circulación podrían no ser auténticas, generando no solo pérdidas económicas astronómicas en un mercado global de miles de millones, sino también una distorsión irreparable de la historia del arte y la confianza pública. 

Durante décadas, la batalla contra este fraude se ha librado con las armas del conocimiento experto –el ojo entrenado del connoisseur–, la meticulosa investigación de la procedencia y el análisis científico de los materiales. Hoy, una nueva herramienta revolucionaria se suma a este arsenal: la inteligencia artificial (IA)

Instituciones de investigación y empresas especializadas están comenzando a emplear algoritmos avanzados para escrutar las obras de arte con una profundidad sin precedentes, prometiendo un futuro donde la autenticidad pueda defenderse con mayor certeza. ¿Pero cómo puede un código informático discernir la genialidad de un maestro de la astucia de un falsificador? A continuación, exploramos cómo la IA se está convirtiendo en un "detective digital" para el patrimonio artístico.



IA al servicio del arte: “Huellas dactilares” digitales contra el fraude.


Inspeccionar una pintura en busca de indicios de falsificación es una tarea importante y muy laboriosa. El ojo humano, por muy experto que sea, puede pasar por alto detalles minúsculos o ser influenciado por sesgos subjetivos. Aquí es donde la visión por computadora y el aprendizaje automático entran en juego. Utilizando algoritmos de IA, los investigadores pueden analizar imágenes de alta resolución de las obras, descomponiéndolas en miles de características. 
 
Recreración de un proceso de escaneado 


Las Redes Neuronales Convolucionales (CNNs), por ejemplo, son capaces de examinar las pinceladas con una precisión microscópica, casi "a nivel de cerda", identificando patrones únicos en la presión, dirección y superposición de los trazos que constituyen en cierta manera la "huella dactilar" de un artista. Estos sistemas se "entrenan" con vastas bases de datos de obras auténticas y falsificaciones conocidas, aprendiendo a distinguir los matices estilísticos de cada creador. 

De esta manera, la IA actúa como una lupa digital incansable, capaz de procesar y comparar información visual a una escala y velocidad inalcanzables para el ser humano, detectando anomalías que podrían revelar una mano ajena.



Algoritmos que "aprenden" el estilo del maestro: Autenticación predictiva.


Además de analizar la superficie visible, la IA puede "aprender" la esencia del estilo de un artista para predecir la probabilidad de que una obra sea auténtica. Empresas como la suiza Art Recognition alimentan sus modelos de aprendizaje automático con cientos o incluso miles de imágenes de un artista específico, como los muchos centenares utilizadas para Cézanne, y ejemplos de falsificaciones. 


 
Los algoritmos no solo examinan pinceladas, sino también la composición, la paleta de colores y la estructura de los objetos. En un caso reciente, esta tecnología identificó en una conocida plataforma de subastas online posibles falsificaciones de Monet y Renoir, asignándoles una probabilidad de autenticidad casi nula. 

Del mismo modo, el análisis de la obra "Sansón y Dalila" de la National Gallery, atribuida a Rubens, arrojó una probabilidad del 91% de no ser auténtica, avivando un debate histórico. 




Estos sistemas pueden incluso distinguir entre manos muy similares, como en el caso de Canaletto y su sobrino Bellotto, donde la IA de Hephaestus Analytical alcanzó una precisión del 98.2% al identificar diferencias sutiles en la presión de las pinceladas Esta capacidad predictiva ofrece una herramienta cuantitativa que, si bien no reemplaza al experto, le proporciona un poderoso indicio basado en datos.



Más allá de la pincelada: Análisis multiespectral y de materiales


La IA también potencia el análisis científico tradicional. Combinada con técnicas como la imagen hiperespectral o la reflectografía infrarroja, puede ayudar a desvelar capas ocultas bajo la pintura, como dibujos subyacentes (pentimenti) o repintes posteriores. Los algoritmos pueden procesar los ingentes datos generados por estos escáneres para identificar pigmentos anacrónicos (por ejemplo, un pigmento sintético en una obra supuestamente del siglo XVII) o analizar los patrones de craquelado (las finas grietas de la pintura) para determinar si el envejecimiento es natural o artificial, un área de investigación clave del proyecto europeo ARTDETECT. 

Incluso la investigación de la procedencia se beneficia, con Modelos de Lenguaje Grandes (LLMs) que pueden analizar documentos históricos, catálogos de subastas y archivos para rastrear el historial de una obra y detectar inconsistencias. Además, tecnologías como blockchain se están utilizando para crear certificados de autenticidad digitales e inmutables, añadiendo una capa de seguridad al historial de la obra.



Ventajas frente a los métodos tradicionales y el desafío de los datos.


La incorporación de la inteligencia artificial en la autenticación artística ofrece numerosas ventajas. En primer lugar, la objetividad potencial: aunque el diseño del algoritmo puede tener sesgos, su análisis se basa en datos cuantificables, reduciendo la subjetividad inherente al connoisseurship. 
 
En segundo lugar, la velocidad y escalabilidad: la IA puede analizar una obra en cuestión de horas o días, y procesar grandes volúmenes de imágenes, algo crucial para plataformas online o grandes colecciones. Además, el análisis puede realizarse a partir de fotografías de alta resolución, eliminando en una primera fase la necesidad de transportar físicamente obras valiosas y frágiles. 



Sin embargo, la IA no está exenta de limitaciones. Su eficacia depende críticamente de la calidad y cantidad de los datos de entrenamiento. Se necesitan vastas y bien curadas bases de datos de obras auténticas y falsificaciones confirmadas para cada artista, un recurso a menudo escaso. Además, los falsificadores sofisticados están constantemente evolucionando y podrían, en teoría, intentar "engañar" a los algoritmos si conocen sus parámetros. 



Un vistazo al futuro: IA, arte y la búsqueda de la verdad.


El uso de la IA en la autenticación de arte es un campo en plena efervescencia. Ya se están explorando aplicaciones como el análisis 3D de la topografía de las pinceladas para obtener una "huella dactilar" aún más precisa del artista, como investiga la Case Western Reserve University. 

Se vislumbran sistemas capaces de detectar falsificaciones generadas por otras IA, un nuevo frente en esta "carrera armamentística" tecnológica. Proyectos como Amadeo AR en Portugal ya combinan IA con Realidad Aumentada para permitir a los visitantes de museos visualizar análisis de pigmentos superpuestos en las obras en tiempo real, enriqueciendo la experiencia educativa. 

A medida que los algoritmos se vuelven más sofisticados y las bases de datos más completas, es probable que la IA se convierta en una herramienta estándar en el proceso de diligencia debida de casas de subastas, galerías y museos. No obstante, el consenso es claro: la IA no busca suplantar la insustituible experiencia de historiadores del arte, conservadores y científicos, sino ampliar sus capacidades, ofreciendo una nueva perspectiva analítica.



Tradición e innovación de la mano para proteger el arte.


La alianza entre la milenaria tradición del estudio del arte y la vanguardia de la inteligencia artificial puede parecer sorprendente, pero está demostrando ser extraordinariamente fructífera. Gracias a la colaboración entre investigadores, empresas tecnológicas y el mundo del arte, hoy contamos con herramientas más poderosas para proteger nuestro patrimonio cultural de la lacra de la falsificación. Los métodos de IA, desde el análisis microscópico de pinceladas hasta la verificación de la procedencia mediante blockchain, se están convirtiendo en nuevos "guardianes" de la autenticidad, capaces de detectar indicios de engaño con una precisión y velocidad asombrosas. 



 
El impacto de estas tecnologías trasciende los casos individuales; marca un antes y un después en cómo abordamos la validación y preservación de la integridad artística. Si bien el juicio final sobre la autenticidad de una obra seguirá probablemente en manos de expertos humanos, la IA se erige como un aliado indispensable que, con su ojo digital, nos ayuda a ver el arte –y sus imitaciones– con una claridad nunca antes imaginada, asegurando que el verdadero legado de los grandes maestros perdure intacto para las futuras generaciones.


miércoles, 14 de mayo de 2025

De las pantallas físicas a los entornos inteligentes: cómo Unreal Engine e IA están transformando el plató



Desafío y la Solución Combinada


Durante décadas, recrear escenarios exteriores dentro de un plató ha sido una necesidad constante en la producción audiovisual. Para resolverla, una técnica habitual estos últimos años, aprovechando las nuevas tecnologías led, ha consistido en utilizar pantallas de puntos, pantallas LED, fundamentalmente para proyectar imágenes creadas o grabadas previamente o conexiones en directo. Estas tecnologías entraron como alternativa/complemento a los antiguos fondos impresos o proyectados, y que simulan paisajes, arquitecturas o cielos que sirven como referencia visual durante el rodaje. Estos entornos, aunque eficaces (o muy eficaces) en muchos contextos, presentan limitaciones importantes: son estáticos, requieren preparación física previa y ofrecen poco margen de ajuste una vez en plató. Además, cualquier cambio en la narrativa o en la puesta en escena puede implicar rehacer parte del decorado o recurrir a complejos procesos de postproducción.

Utilización de una pantalla LED en un plató para proyección de exteriores complementando elementos corpóreos.

Este modelo tradicional está siendo transformado radicalmente por la incorporación de una solución combinada que integra herramientas como Unreal Engine, el potente motor gráfico de renderizado en tiempo real, con herramientas de Inteligencia Artificial aplicadas a la generación, modificación y control de entornos virtuales. Juntas, estas tecnologías permiten construir sobre las pantallas LED paisajes fotorrealistas que no solo se adaptan dinámicamente al movimiento de cámara, sino que también pueden ser creados o modificados sobre la marcha, incluso con comandos en lenguaje natural o mediante sistemas de recomendación visual.

Esta evolución no solo responde a una demanda técnica, sino también creativa: los directores, diseñadores de producción y equipos técnicos ganan libertad para explorar múltiples versiones de una escena, alterar condiciones de luz o atmósfera sin reconstruir el set, y contar con retroalimentación visual inmediata. Ya no se trata de adaptar la historia al decorado, sino de permitir que el entorno evolucione junto con la narrativa.

En las siguientes secciones, exploraremos mas en detalle esta transición: cómo funcionan las pantallas de puntos y por qué han sido fundamentales en el rodaje tradicional, cómo la combinación de Unreal Engine e IA representa una alternativa transformadora, y qué impacto está teniendo ya esta tecnología en casos concretos de producción audiovisual avanzada.



Tecnología A: El uso de pantallas de puntos en platós


Durante buena parte del siglo XX y todavía también en el XXI, uno de los recursos más recurrentes para simular escenarios en rodajes de paltó ha sido la utilización combinada de elementos corpóreos reales con fondos con imágenes empresas. En este caso, estos fondos —ya fueran fotográficos, pintados a mano o generados digitalmente e impresos— se colocaban estratégicamente al fondo del plató para recrear cielos, paisajes urbanos o naturales, y aportar un contexto visual al encuadre.


Utilización de una pantalla LED en un plató para proyección de exteriores complementando elementos corpóreos.

En esencia, estos elementos funcionan como una ilusión óptica: desde el ángulo correcto y con la iluminación adecuada, permiten al espectador percibir un entorno completo, cuando en realidad solo existe una fracción física del decorado. Han sido especialmente útiles en series de televisión, anuncios o escenas de interiores con ventanales que requieren vistas creíbles del exterior.

Con el paso del tiempo, esta técnica se ha ido sofisticando y mejorando, tanto por el uso de las nuevas pantallas luminosas tipo led como por las mejoras técnicas en el uso del “cromakey”; pero en líneas generales la lógica operativa viene siendo la misma: utilizar un fondo predefinido que simula un espacio tridimensional.

Y, aunque estos últimos años ya se han ido incorporando diferentes tecnologías de creación de imágenes digitales en tiempo real, como es el caso por ejemplo del uso de la denominada realidad aumentada en los programas informativos, este enfoque presenta limitaciones clave:
  • Estanqueidad creativa: una vez impreso o proyectado, el fondo no se puede modificar sin rehacer la producción.
  • Falta de interacción dinámica: el fondo no responde a la cámara ni a los elementos físicos del plató, lo que reduce la sensación de profundidad o realismo.
  • Iluminación no adaptativa: la luz reflejada por estos fondos es limitada o poco natural, afectando la integración entre actores y escenario.
  • Rigurosidad técnica: exige un trabajo meticuloso de encuadre y composición para evitar errores visuales evidentes.
A pesar de todo, este tipo de solución han sido —y en ciertos contextos siguen siendo— una herramienta económica, rápida y efectiva para resolver escenas complejas sin salir del estudio. Su papel como precursora visual de entornos digitales las convierte en un puente natural hacia soluciones más avanzadas, como las que veremos a continuación.


La combinación de Unreal Engine e Inteligencia Artificial.


Frente a estas limitaciones de los fondos estáticos tradicionales, la combinación de herramientas como Unreal Engine con la incorporación de nuevas soluciones de Inteligencia Artificial representa un salto cualitativo hacia entornos digitales adaptativos, interactivos y altamente personalizables. Esta sinergia tecnológica se inscribe dentro del marco más amplio de la Producción Virtual, una metodología que busca integrar directamente en el plató los elementos del entorno visual final, reduciendo así la brecha entre rodaje y postproducción.

La herramienta Unreal Engine, desarrollado originalmente para la industria del videojuego, permite renderizar en tiempo real entornos tridimensionales fotorrealistas y mostrarlos en pantallas LED de gran formato, sincronizados con los movimientos de cámara. Esto genera un efecto de profundidad (paralaje) que engaña al ojo humano y aporta un realismo sin necesidad de posproducción intensiva. Además, se integra con sistemas de seguimiento óptico y control de cámaras, permitiendo cambios inmediatos de iluminación, atmósfera o escenografía.

Renderización en tiempo real de entornos tridimensionales fotorrealistas, y presentación en pantallas LED de gran formato, sincronizados con los movimientos de cámara.

Por su parte, la Inteligencia Artificial actúa como asistente y generador dentro de este entorno. Modelos generativos basados en redes neuronales permiten crear escenarios completos, detalles arquitectónicos, elementos decorativos o climas, a partir de indicaciones en lenguaje natural o imágenes de referencia. La IA también ayuda a automatizar ajustes complejos como la coherencia entre texturas, la animación de elementos naturales o la adaptación del entorno al tono narrativo.

Juntas, estas tecnologías hacen posible que el entorno visual se convierta en un actor dinámico: responde al guion, se adapta a la interpretación y puede evolucionar en paralelo a las decisiones creativas. El plató se transforma en un espacio narrativo flexible, donde lo físico y lo digital coexisten y colaboran.


Caso Práctico: De las pantallas físicas a los entornos inteligentes en una producción del siglo XIX


Actualmente algunas productoras españolas han incorporado ya estas tecnologías a sus infraestructuras, este es el caso de las empresas LAVINIA/APPIA en Barcelona. Estas empresas de dimensión europea se enfrentan a un reto frecuente: recrear escenarios y exteriores de manera dinámica, sin salir de plató, con presupuestos ajustados y con la posibilidad de rodar en un entorno controlado. Hasta hace poco, la solución habitual consistía en combinar decorados parciales con pantallas impresas, croma, pantallas de puntos que recrean los escenarios que requiere la producción.


Recreación de escenarios y exteriores de manera dinámica, ajustando la imagen en tiempo real a la posición de la cámara.


Metodología: Cómo se aplicaron UNREAL ENGINE y la IA a esta producción


En la última temporada, LAVINIA, junto con la empresa APPIA está reemplazando estos fondos por paredes LED alimentadas por Unreal Engine. Se modeló una ciudad ficticia basada en archivos históricos, creaciones con herramientas de IA Generativa (Midjourney, Freepik, VEO2, Kling…) y referencias visuales. Una IA generativa entrenada con datasets de arquitectura del siglo XIX fue utilizada crear algunos elementos 3D del fondo y proponer referencias de imágenes y texturas realistas. Este trabajo se complementa con el uso de nuevas herramientas de fotogrametría y Gaussian Splatting, y upscaling en tiempo real con tecnologías DLSS, así como upscaling de vídeo.


Imagen de fondo creada con IA generativa, recreada y dinamizada en Unreal Engine, proyectada en pantalla LED y ligada dinámicamente al movimiento de la cámara

Durante el rodaje, el entorno se ajusta en tiempo real al movimiento de cámara. La IA combinada con operación manual también gestiona condiciones atmosféricas según el guion, como la niebla al amanecer o la iluminación de un atardecer invernal. Es fundamental la sinergia que se genera entre el creador y la IA; esta combinación es imprescindible. 

Resultados clave:
  • Desbloqueo en las primeras fases creativas.
  • Multiplicación del output creativo y reducción significativa en el tiempo de preproducción escenográfica.
  • Menor dependencia de retoques en postproducción.
  • Mayor variedad de localizaciones sin costes logísticos adicionales.
  • Iteración creativa en tiempo real durante los ensayos.
Lecciones aprendidas:

El principal desafío fue encontrar el equilibrio entre lo generado automáticamente y la visión estética del equipo de arte. Ajustar los límites de autonomía de la IA y comprender los límites resulta clave para mantener coherencia estilística y control creativo.


Más Allá del Ejemplo: Implicaciones Amplias y Contexto Sectorial


La combinación de Unreal Engine e Inteligencia Artificial no solo representa un avance técnico, sino una transformación estructural en la forma de producir contenidos. Desde series de gran presupuesto hasta producciones independientes o publicidad, esta tecnología ofrece una nueva relación entre coste, control y creatividad.

Imagen generada a partir de la fotogrametría del monasterio de Santes Creus. En este caso cabe mencionar que es una digitalización hecha por Giravolt, proyecto del departamento de Patrimoni de la Generalitat https://patrimoni.gencat.cat/ca/giravolt

En España, empresas como LAVINIA/APPIA y las plataformas de contenidos están empezando a testear estos entornos híbridos. También universidades y centros de I+D trabajan en modelos de IA entrenados con imágenes del patrimonio natural y arquitectónico español, lo que refuerza una identidad visual propia dentro de ecosistemas digitales cada vez más globalizados.

Además, estas tecnologías se están utilizando en simuladores educativos, videojuegos narrativos y entornos de realidad extendida, lo que amplía su alcance más allá del cine o la televisión. Aun así, el camino no está exento de retos: se requieren nuevos perfiles profesionales, marcos legales más claros para contenidos generados por IA, y una reflexión ética sobre los límites de la automatización creativa.


Conclusión: Una Nueva Escenografía para la Imaginación


El paso de las pantallas físicas estáticas a los entornos virtuales inteligentes marca un cambio de paradigma en la producción audiovisual. Esta evolución no consiste solo en sustituir herramientas, sino en redefinir por completo los flujos de trabajo, las posibilidades expresivas y el equilibrio entre control técnico y libertad creativa.

La sinergia entre herramientas como Unreal Engine e Inteligencia Artificial está permitiendo entornos que no solo se ven realistas, sino que reaccionan, se adaptan y se transforman al ritmo de la narrativa. Ya no se trata únicamente de proyectar un paisaje al fondo del plano, sino de construir mundos vivos en los que los creadores puedan experimentar sin barreras físicas ni temporales.

Para el sector audiovisual, esto significa una oportunidad única: reducir costes sin sacrificar ambición visual, explorar nuevas formas de contar historias y capacitar a equipos más ágiles y creativos. Para los profesionales, implica la necesidad de formarse en herramientas híbridas, colaborar con algoritmos y repensar los límites de lo posible en un plató.

Estamos ante un nuevo tipo de escenografía: una que no solo decora, sino que colabora activamente en la construcción del relato. Y en ese escenario cambiante, las decisiones humanas seguirán siendo el corazón de la narrativa —pero ahora con un aliado poderoso al servicio de la imaginación.


miércoles, 7 de mayo de 2025

Inteligencia Artificial y Control Adaptativo: El Cerebro Dinámico del Motor del Futuro

 


El Desafío y la Solución Combinada

Durante gran parte de la historia reciente del automóvil, la gestión de los motores ha estado basada en mapas de calibración estáticos: sofisticadas, pero finalmente rígidas, tablas que determinaban la cantidad de combustible, el avance de encendido o la presión de sobrealimentación en función de condiciones de operación como la carga o la temperatura del motor. Estos sistemas, que forman el núcleo de las tradicionales unidades de control electrónico (ECU), lograron optimizar la operación de los motores para un amplio espectro de situaciones normales, pero adolecían de un problema fundamental: la incapacidad de adaptarse a las condiciones únicas de cada momento, vehículo y conductor.

 


En respuesta, surgieron los sistemas de control adaptativo, capaces de hacer ajustes en tiempo real sobre algunos parámetros operativos basándose en datos de sensores. Sin embargo, estos primeros sistemas seguían atados a algoritmos diseñados a priori, incapaces de aprender ni de prever de forma significativa.

La llegada de la inteligencia artificial (IA), en particular del aprendizaje automático (machine learning) y del aprendizaje profundo (deep learning), ha permitido trascender esta limitación. Al integrar IA en la gestión del motor, el sistema no solo se ajusta a cambios en el entorno o la mecánica, sino que aprende de la experiencia acumulada para anticiparse, personalizar la respuesta y optimizar continuamente la operación. Así, nacen los sistemas de control adaptativo inteligentes: una nueva generación de cerebros vehiculares.

Un ejemplo pionero de esta transición se encuentra esta vez en los trabajos que se desarrollaron en el Laboratorio de Motores Térmicos de la Universidad Politécnica de Cataluña, donde se investigó el uso de redes neuronales recurrentes para predecir en tiempo real la velocidad futura del vehículo en ciclos urbanos. Esta capacidad de anticipación, basada en un aprendizaje continuo a partir de datos recientes de conducción, representa un avance clave hacia sistemas de control motor verdaderamente inteligentes y personalizados.


Evolución de los Sistemas de Control Adaptativo

La historia de los sistemas de control adaptativo en automoción puede entenderse en varias fases:
  • Primera generación (Adaptativos básicos): Ajuste dinámico de parámetros como la mezcla de aire-combustible o el avance del encendido en respuesta a variables como la temperatura o la altitud.
  • Segunda generación (Modelos de autoajuste): Incorporación de algoritmos de identificación de sistemas que permitían corregir desviaciones por envejecimiento o desgaste progresivo de componentes.
  • Limitaciones tradicionales: Aunque se mejoró la robustez y la fiabilidad, estos sistemas eran fundamentalmente reactivos: se limitaban a corregir errores una vez detectados, no a anticiparlos.
A pesar de su éxito, los controladores adaptativos tradicionales no podían entender comportamientos más complejos, como las sutiles variaciones en la respuesta de un motor debido a diferencias de fabricación, al estilo de conducción particular, o a condiciones ambientales cambiantes en ciclos muy breves.
Era necesario un nuevo enfoque que permitiera modelar, interpretar y aprender de un entorno operacional mucho más dinámico y variado.


Inteligencia Artificial como Motor del Aprendizaje

La inteligencia artificial aplicada al control de motores implica un cambio radical: la adopción de modelos basados en datos para construir dinámicamente la representación del sistema, en lugar de asumir a priori un modelo teórico.


 

En términos prácticos, los sistemas de control impulsados por IA:
  • Recogen datos en tiempo real de múltiples fuentes: sensores de motor, sensores ambientales, datos de estilo de conducción, condiciones del tráfico.
  • Procesan e interpretan patrones mediante redes neuronales profundas o algoritmos de machine learning supervisado y no supervisado.
  • Realizan predicciones sobre el estado futuro del motor, las condiciones de conducción y las preferencias del usuario.
  • Ajustan proactivamente parámetros críticos como la respuesta del acelerador, la gestión térmica, la estrategia de inyección o la regeneración en motores híbridos o eléctricos.
Además, los algoritmos modernos permiten realizar microajustes continuos, optimizando no solo grandes cambios de estado (por ejemplo, ascender una pendiente) sino también pequeñas fluctuaciones instantáneas que afectan a la eficiencia y al confort de conducción.

Esta nueva capacidad de predicción y aprendizaje transforma radicalmente el control del motor, permitiendo una adaptación verdaderamente personalizada y una optimización de ciclo completo que supera por mucho las capacidades de los sistemas convencionales.

 

Ejemplo de aplicación de la IA en los sistemas de tracción de vehículos

Una predicción continua de la velocidad del vehículo en los próximos 30 a 60 segundos —especialmente en entornos con constantes cambios, como los ciclos de conducción urbana— puede mejorar notablemente la gestión de los distintos tipos de sistemas de tracción. Esto incluye desde motores térmicos tradicionales hasta motores eléctricos alimentados por baterías, sistemas híbridos que combinan motor de combustión y eléctrico, o incluso configuraciones basadas en pilas de combustible de hidrógeno con apoyo eléctrico.

Dicha predicción podría mejorar la gestión de cualquiera de las actuales tecnologías de tracción de vehículos existente en la actualidad o en el futuro y como consecuencia redundaría en una reducción de las emisiones contaminantes de gases en el caso de los motores de combustión, un alargamiento significativo de la vida útil de los electrodos en las pilas de combustible o un alargamiento de la vida útil de las baterías.

Paralelamente, si la predicción resultara suficientemente buena para el fin indicado y se realizara en base únicamente a un inmediato y corto histórico de datos de la velocidad del vehículo, se dotaría de máxima robustez al sistema por la no dependencia de terceros en relación al uso del GPS-GALILEO-GLONASS y de mapas, como suelen hacer los sistemas de asistencia a la conducción actuales. Dicha independencia de los sistemas actuales de navegación podría ser de interés especial en aplicaciones militares o en aquellas en las que se requiera de un funcionamiento autónomo y sin conexión.

En este sentido en el año 2022 se realizaron trabajos preliminares en el Laboratorio de Motores Térmicos de la Universidad Politécnica de Cataluña en la Escuela Técnica de Ingeniería Industrial de Barcelona destinados al proyecto DOVELAR (Control and energy management of hybrid fuel cell-based electric vehicles).

A pesar de la limitación temporal del proyecto se obtuvieron, resultados preliminares muy interesantes, algunos de los cuales se muestran a continuación.  Puede apreciarse las posibilidades que pueden ofrecer en este campo el uso de redes neuronales avanzadas para la obtención de la predicción deseada. En la figura 1 se presenta un ciclo real de conducción urbana en la ciudad de Barcelona en el que se aprecia la sucesión de transitorios a los que está sometido el sistema de tracción del vehículo.


 

Figura1.- Ciclo de conducción urbano obtenido en circulación real en Barcelona con el que se articularon los trabajos del grupo de investigación de la UPC (Laboratorio de Motores Térmicos de la ETSEIB)

En este caso se implementó un método basado en un modelo de red neuronal recurrente LSTM de tensor Flow. Se adjunta el detalle de la estructura principal:

# Crear el modelo de la RNN

model = tf.keras.Sequential([

    tf.keras.layers.SimpleRNN(64, input_shape=(window_size, 1)),

    tf.keras.layers.Dense(k)])

model.summary()

# Compilar el modelo

model.compile(optimizer='adam', loss='mse')  # Mean Squared Error

# Entrenar el modelo

model.fit(X_train, Y_train, epochs=5, verbose=2)

model.summary()

Model: "sequential"

Layer (type)                Output Shape              Param #  

===========================================================

 simple_rnn (SimpleRNN)      (None, 64)                4224                                                                     

 dense (Dense)               (None, 60)                3900                                                                    

===========================================================

Total params: 8,124

Trainable params: 8,124

Non-trainable params: 0

 

La fiabilidad de los resultados obtenidos varió en función del horizonte temporal considerado, tal como se muestra en las figuras siguientes.

El conjunto de datos del ciclo de conducción se dividió en tres tramos, el primero de ellos con una cantidad mayoritaria de datos se utilizó para el entrenamiento de la red neuronal, el segundo conjunto de datos se utilizó para verificar la respuesta del entrenamiento de la red neuronal, en la figura 2 se puede apreciar la quasi coincidencia entre el ciclo original en azul y el ciclo predicho en el proceso de verificación en naranja.  Finalmente, un último grupo de datos se reservaron para comprobar la predicción futura que sería capaz de realizar la red neuronal y poder compararla con los datos reales que se le ocultaron al proceso de entrenamiento, la cantidad de datos de éste último tramo es el horizonte futuro de predicción, que posteriormente en un funcionamiento normal, se le exigirá a la red neuronal recursivamente dando lugar a su adaptabilidad.


Figura 2.- Resultado del entrenamiento de la red neuronal, en azul el ciclo real incompleto con el que se entrena a la red, en el grafico de la derecha se aprecia la quasi coincidencia de la verificación con los datos de entrenamiento.

 

En la figura 3 se muestra el resultado, en verde, de preguntar a la red neuronal cual será la velocidad del vehículo durante los siguientes 60 segundos, recordemos que los valores reales de dichos 60 segundos son conocidos pero se le han ocultado a la red durante el proceso de entrenamiento, así la simulación “futura” de la red podrá ser comparada con los valores reales que “acontecerán”, tal y como si estuviéramos conduciendo, de este modo se visualizará el grado de robustez y precisión de la predicción.

 

Figura 3.- Visualización de los 60 segundos futuros, en verde, predichos por la red neuronal, sólo pendiente de ser comparados con los valores reales

 

 En la figura 4 se ilustran diferentes predicciones (simulaciones) de la red superpuestas con los datos reales, visualmente ya se observa que el error es suficientemente pequeño como para no apreciarse en el gráfico desviación significativa.


 

Figura 4.- Tres simulaciones comparadas con los datos reales (inputs)

 

Estos resultados preliminares indicaron la viabilidad del método para la predicción futura de series temporales, del ciclo de conducción en este caso, para horizontes cortos, pero de más de una muestra predicha.

El método es, posiblemente, de aplicación a procesos con transitorios con patrones múltiples y ocultos, en el caso del ejemplo los condicionantes ocultos serian: el estilo de conducción del piloto en el momento, el tipo de vía (urbana con semáforos) así como el grado de congestión de la vía, entre otros.

En el caso presentado los condicionantes indicados podrían cambiar, cambio de vía, cambio de la densidad de tráfico, cambio de conductor o su estado, etc., por lo que la red neuronal debería funcionar con un entrenamiento a partir de una serie corta de datos, un histórico reciente y corto, debiéndose repetir el entrenamiento de forma recursiva dotando al sistema de autoadaptabilidad.

 

Más Allá del Ejemplo: Ampliando el Impacto de la IA en el Control Vehicular

La sinergia entre control adaptativo e inteligencia artificial no se limita al control de crucero. Algunas aplicaciones emergentes incluyen:

  • Optimización energética en vehículos eléctricos: Adaptar la entrega de potencia y la regeneración según la dinámica real de conducción.
  • Gestión térmica predictiva: Anticipar la necesidad de refrigeración del motor o de la batería en función de patrones de conducción y condiciones ambientales.
  • Diagnóstico predictivo: Detectar fallos incipientes en sensores, inyectores, turbocompresores o baterías de alta tensión antes de que provoquen averías críticas.
  • Adaptación de la dinámica de conducción: Ajustar de manera continua parámetros de suspensión, dirección y frenado regenerativo en función del estilo y preferencias del conductor.

En el contexto europeo, donde las regulaciones sobre emisiones se vuelven cada vez más estrictas y se impulsa el avance hacia la movilidad eléctrica y autónoma, la IA aplicada al control de vehículos será un elemento diferenciador clave. España, gracias a sus centros de investigación y su industria automotriz, tiene la oportunidad de posicionarse como actor relevante en este campo emergente.


Consideraciones Críticas: Desafíos, Riesgos y Oportunidades

Si bien las posibilidades son enormes, también existen desafíos que no deben subestimarse:

  • Robustez de los Algoritmos: Los sistemas deben demostrar una capacidad de aprendizaje continua sin derivar en comportamientos erráticos o no seguros.
  • Privacidad de Datos: El registro de patrones de conducción plantea importantes cuestiones sobre la privacidad y la gestión de datos personales.
  • Validación Extrema: Antes de su adopción masiva, estos sistemas deben superar rigurosas pruebas que contemplen todas las condiciones posibles de uso, incluyendo fallos de sensores o condiciones ambientales extremas.
  • Aceptación del Usuario: Para que estas tecnologías triunfen, no basta con que funcionen bien: deben transmitir confianza, ser interpretables y predecibles para el conductor.

En última instancia, el éxito de los sistemas de control adaptativo basados en IA dependerá tanto de la calidad técnica de los algoritmos como de la gestión ética, regulatoria y comunicacional de su adopción.

 

Transformación Digital en Automoción: Otras iniciativas  Aplicación de IA

La integración de la Inteligencia Artificial (IA) en el sector automovilístico ha impulsado también otras iniciativas pioneras que redefinen la eficiencia, la seguridad y la experiencia del usuario.

Estos son algunos ejemplos:  Empresas como Tesla han desarrollado sistemas de conducción autónoma bajo el proyecto Autopilot/Full Self-Driving (FSD), empleando redes neuronales profundas para procesar datos en tiempo real y optimizar decisiones críticas en la carretera. BMW, por su parte, aplica IA en el proyecto Digital Twin for Production Lines para crear gemelos digitales que simulan y optimizan procesos de fabricación, anticipando fallos y mejorando la productividad. Ford colabora con PTC en soluciones de mantenimiento predictivo (Predictive Maintenance ), analizando datos de sensores mediante algoritmos de machine learning para reducir tiempos de inactividad en flotas de vehículos. Waymo, subsidiaria de Alphabet, ha llevado la conducción autónoma a niveles avanzados con su sistema Waymo Driver , que fusiona IA con datos de LiDAR y cámaras para predecir movimientos de peatones y otros vehículos en entornos complejos. Daimler AG, bajo el proyecto MBUX (Mercedes-Benz User Experience) , integra asistentes de voz inteligentes que aprenden preferencias del conductor, adaptando funciones como climatización o rutas en tiempo real.

Estas iniciativas reflejan cómo la IA no solo mejora la operación técnica de los vehículos, sino que también impulsa una movilidad más sostenible, personalizada y conectada, consolidando al sector automotriz como un campo clave en la revolución tecnológica actual.

 

Conclusión: Hacia un Futuro de Vehículos Inteligentes, Adaptativos y Humanos

La combinación de control adaptativo e inteligencia artificial está inaugurando una nueva era en la automoción: la de los vehículos que no solo se adaptan, sino que también aprenden, predicen y colaboran con el conductor.

Casos como la investigación desarrollada por el Laboratorio de Motores Térmicos de la Universidad Politécnica de Cataluña demuestran que ya no estamos limitados a ajustar el motor únicamente a variables ambientales. Hoy, es posible anticipar el comportamiento del vehículo en función de patrones recientes de conducción, adaptando su respuesta de forma personalizada y dinámica, sin comprometer la seguridad.Esta revolución tecnológica no solo promete motores más eficientes y limpios, sino también una conducción más personalizada, cómoda y humana. No obstante, el desafío de garantizar la fiabilidad, la seguridad y la privacidad será tan importante como el propio avance técnico.

Los motores del futuro serán cerebros dinámicos, compañeros inteligentes que aprenderán de nosotros y evolucionarán con nosotros, impulsando una movilidad más sostenible, eficiente y centrada en las personas.
 

 

 

 

 

El Guardián de la Longevidad: La IA que Devuelve la Autonomía a Nuestros Mayores

El Reto de la Autonomía en una Sociedad Longeva. Estamos ante un cambio demográfico sin precedentes: para el año 2030, el mundo contará con ...