Huawei presentó en Barcelona, España, su plataforma de datos de IA durante el AI DC Innovation Forum realizado en el marco del MWC 2026. La propuesta se orienta a resolver obstáculos que, aun con grandes volúmenes de información disponibles, impiden a muchas organizaciones implementar agentes de inteligencia artificial a escala y llevarlos desde pruebas hacia aplicaciones empresariales de producción.
En el planteo técnico expuesto, los agentes de IA ocupan un lugar central dentro de la transformación digital e inteligente. Sin embargo, las compañías enfrentan dificultades recurrentes para desplegarlos de forma amplia: adquisición tardía de conocimientos y baja precisión en la recuperación de información, deducción poco eficiente en escenarios de interacción con secuencias largas y múltiples turnos, y falta de memoria para las tareas y la acumulación de experiencia. Ese conjunto de limitaciones mantiene a la mayoría de los agentes confinados a la etapa de demostración.
En ese contexto, Xie Liming, presidente del área de Almacenamiento Flash de la línea de productos de Almacenamiento de Datos de Huawei, presentó la plataforma de datos de IA. La tecnología integra tres componentes —base de conocimiento, caché KV y banco de memoria— coordinados por un módulo de control unificado (UCM). El objetivo es que los agentes de IA empresarial puedan “ir más allá de las demostraciones y convertirse en verdaderas herramientas de producción”, dentro de una base de datos que apunte a sostener la transformación empresarial digital e inteligente.
El primer componente se enfoca en la generación y recuperación de conocimiento, con recuperación multimodal de alta precisión y en tiempo real para agentes. La plataforma utiliza bases de conocimiento para detectar cambios en los datos de origen y convertir datos sin procesar en conocimiento casi en tiempo real de manera continua. Además, plantea convertir datos multimodales en conocimiento de alta precisión mediante análisis sin pérdida multimodal y codificación a nivel de token, con una precisión de recuperación de más del 95%.
El segundo eje es la caché KV, orientada a acelerar la inferencia mediante el uso de datos de memoria histórica para mejorar la eficiencia de inferencia de los agentes. La gestión y los niveles inteligentes de esa caché apuntan a reducir de forma significativa la repetición de cálculos durante la inferencia, con el fin de lograr menor latencia, mejorar el rendimiento y brindar soporte para inferencias de agentes complejos y de secuencias largas.
El tercer componente aborda la extracción y recuperación de memoria con memoria personalizada y resumida de forma continua para agentes. A través de bancos de memoria, la plataforma acumula memoria de trabajo y memoria experiencial durante la interacción del agente de IA, admite volver atrás (backtracking) en la memoria y el aprendizaje colaborativo de varios agentes para optimizar de manera continua la precisión y la eficiencia de la inferencia.
De cara al futuro, la compañía prevé fortalecer su inversión en infraestructura de datos de IA y trabajar con clientes y aliados a nivel mundial para impulsar una adopción más amplia de la IA en más campos.












