La demostración de computación espacial en tiempo real encabezada por Hugh Hou, cineasta y educador de realidad virtual, se realizó en la suite de Gigabyte durante CES 2026, en Los Ángeles, el 23 de enero de 2026. La sesión apuntó a exhibir cómo se produce video inmersivo en entornos de producción reales, con un flujo de trabajo ejecutado en vivo.
De acuerdo con lo informado, el recorrido abarcó el proceso completo de realización cinematográfica espacial “desde la captura hasta la posproducción y la reproducción final”. A diferencia de presentaciones basadas en contenido previamente renderizado, el esquema se ejecutó en el piso de exhibiciones, con el objetivo de reflejar los mismos procedimientos que se utilizan en proyectos comerciales de realidad extendida (XR).
El ejercicio planteó requerimientos operativos vinculados con la estabilidad del sistema, la consistencia del rendimiento y la confiabilidad térmica. La experiencia culminó con la visualización de un tráiler cinematográfico espacial de dos minutos a través de Meta Quest, Apple Vision Pro y los “recién lanzados auriculares Galaxy XR”, además de una tablet de pantalla 3D con una opción de visualización adicional de 180°.
La inteligencia artificial (IA) se presentó como una herramienta aplicada a tareas cotidianas de edición. Durante la demostración, según el comunicado, se utilizaron procesos de mejora, seguimiento y vista previa asistidos por IA para acelerar la iteración sin interrumpir el flujo creativo.
El material capturado con cámaras inmersivas de calidad cinematográfica se procesó con software estándar de la industria, como Adobe Premiere Pro y DaVinci Resolve. En ese tramo se aplicaron mejoras de escala, reducción de ruido y refinamiento de detalles basados en IA, orientadas a cumplir con los requisitos visuales de la realidad virtual inmersiva, donde “cualquier artefacto o suavidad se vuelve inmediatamente perceptible” en un entorno de visualización de 360 grados.
Para sostener el flujo completo se empleó una computadora con inteligencia artificial de Gigabyte diseñada a medida para cargas de trabajo de video espacial sostenidas. El sistema combinó un procesador AMD Ryzen 7 9800X3D con una GPU Radeon AI PRO R9700 AI TOP y una placa base X870E AORUS MASTER X3D ICE, con el objetivo de habilitar la reproducción y el renderizado de videos espaciales 8K en tiempo real.












