Hugh Hou presentó en CES 2026 una demostración de computación espacial en suite Gigabyte
La actividad se realizó el 23 de enero de 2026 en Los Ángeles y mostró un flujo de trabajo de video inmersivo ejecutado en vivo con herramientas de edición y mejoras asistidas por IA, con reproducción en dispositivos Meta Quest, Apple Vision Pro y Galaxy XR, según informó la compañía

La demostración de computación espacial en tiempo real encabezada por Hugh Hou, cineasta y educador de realidad virtual, se realizó en la suite de Gigabyte durante CES 2026, en Los Ángeles, el 23 de enero de 2026. La sesión apuntó a exhibir cómo se produce video inmersivo en entornos de producción reales, con un flujo de trabajo ejecutado en vivo.
De acuerdo con lo informado, el recorrido abarcó el proceso completo de realización cinematográfica espacial “desde la captura hasta la posproducción y la reproducción final”. A diferencia de presentaciones basadas en contenido previamente renderizado, el esquema se ejecutó en el piso de exhibiciones, con el objetivo de reflejar los mismos procedimientos que se utilizan en proyectos comerciales de realidad extendida (XR).
El ejercicio planteó requerimientos operativos vinculados con la estabilidad del sistema, la consistencia del rendimiento y la confiabilidad térmica. La experiencia culminó con la visualización de un tráiler cinematográfico espacial de dos minutos a través de Meta Quest, Apple Vision Pro y los “recién lanzados auriculares Galaxy XR”, además de una tablet de pantalla 3D con una opción de visualización adicional de 180°.
La inteligencia artificial (IA) se presentó como una herramienta aplicada a tareas cotidianas de edición. Durante la demostración, según el comunicado, se utilizaron procesos de mejora, seguimiento y vista previa asistidos por IA para acelerar la iteración sin interrumpir el flujo creativo.
El material capturado con cámaras inmersivas de calidad cinematográfica se procesó con software estándar de la industria, como Adobe Premiere Pro y DaVinci Resolve. En ese tramo se aplicaron mejoras de escala, reducción de ruido y refinamiento de detalles basados en IA, orientadas a cumplir con los requisitos visuales de la realidad virtual inmersiva, donde “cualquier artefacto o suavidad se vuelve inmediatamente perceptible” en un entorno de visualización de 360 grados.
Para sostener el flujo completo se empleó una computadora con inteligencia artificial de Gigabyte diseñada a medida para cargas de trabajo de video espacial sostenidas. El sistema combinó un procesador AMD Ryzen 7 9800X3D con una GPU Radeon AI PRO R9700 AI TOP y una placa base X870E AORUS MASTER X3D ICE, con el objetivo de habilitar la reproducción y el renderizado de videos espaciales 8K en tiempo real.
- Etiquetas
- gigabyte
- Hugh Hou
- computación espacial
Artículos relacionados

Google habilitó en Argentina la función “Pruébalo” para probar ropa y calzado
La herramienta de prueba virtual ya funciona en Google Shopping y el Buscador para usuarios con sesión iniciada, mayores de 18 años, y busca facilitar la compra online al mostrar cómo podrían verse tops, pantalones, vestidos y zapatos en una foto propia, con foco en privacidad y limitaciones de ajuste

Botmaker 3.0 incorpora agentes de IA para delegar procesos de negocio completos
La compañía presentó en Buenos Aires una arquitectura de agentes autónomos multimodales y orquestadores que apunta a ejecutar flujos operativos de punta a punta, con primeras implementaciones que registraron 98% de interacciones y respuestas correctas y una reducción de hasta 82% en el uso de recursos manuales mediante Human-in-the-Loop

Ericsson lidera por sexto año el Frost Radar de infraestructura 5G global
El informe Frost Radar™: 5G Network Infrastructure, 2026, de Frost & Sullivan ubicó a la compañía al frente de 20 firmas evaluadas entre más de 100 participantes y destacó su desempeño en crecimiento e innovación, con foco en inteligencia artificial, redes abiertas y eficiencia energética, en un mercado que acelera inversiones en infraestructura 5G

