lunes, 22 de diciembre de 2025

Red Hat adquiere Chatterbox Labs

La adquisición agregará pruebas de seguridad y medidas de protección críticas a Red Hat AI, permitiendo una IA responsable y de grado de producción a escala.

spot_img

Red Hat, el proveedor líder mundial de soluciones de código abierto, anunció hoy la adquisición de Chatterbox Labs, pionero en seguridad de IA agnóstica al modelo y medidas de protección (guardrails) de IA generativa (gen AI). Esta adquisición añade capacidades críticas de “seguridad para IA” a la cartera de Red Hat AI, fortaleciendo los esfuerzos de la compañía para ofrecer una plataforma de IA empresarial de código abierto integral y diseñada para la nube híbrida.

Este anuncio se basa en un año de rápida innovación para Red Hat AI, tras la introducción de Red Hat AI Inference Server y el lanzamiento de Red Hat AI 3. Clientes de todo el mundo y de diversas industrias están adoptando Red Hat AI para impulsar la innovación a través de aplicaciones de IA generativa, predictiva y agéntica. A medida que las empresas pasan de la experimentación a la producción, se enfrentan a un desafío complejo: desplegar modelos que no solo sean potentes, sino también demostrables, confiables y seguros. Las capacidades de seguridad y medidas de protección son esenciales para las operaciones de aprendizaje automático (MLOps) modernas. La integración de la tecnología de Chatterbox Labs crea una plataforma unificada en donde la seguridad está integrada, fortaleciendo la capacidad de Red Hat para habilitar cargas de trabajo de IA de producción con cualquier modelo, en cualquier acelerador, en cualquier lugar.

Abordando las consecuencias no deseadas de la IA

Fundada en 2011, Chatterbox Labs aporta tecnología y experiencia críticas en seguridad y transparencia de la IA. Su experiencia en el riesgo cuantitativo de la IA ha sido elogiada por grupos de expertos (think tanks) independientes y formuladores de políticas a nivel mundial, y esta adquisición trae tecnología clave de aprendizaje automático a Red Hat.

Publicidad

Chatterbox Labs ofrece capacidades automatizadas y personalizadas de pruebas de seguridad de IA, proporcionando las métricas de riesgo fácticas que los líderes empresariales necesitan para aprobar el despliegue de IA a producción. La tecnología ofrece un enfoque sólido y agnóstico al modelo para validar datos y modelos a través de:

  • AIMI para gen AI: Entrega de métricas de riesgo cuantitativas independientes para modelos de lenguaje de gran tamaño (LLMs).

  • AIMI para IA predictiva: Validación de cualquier arquitectura de IA en pilares clave, incluyendo robustez, imparcialidad y explicabilidad.

  • Medidas de protección (Guardrails): Identificación y corrección de prompts (indicaciones) inseguros, tóxicos o sesgados antes de poner los modelos en producción.

Asegurando la próxima generación de cargas de trabajo de IA

Esta adquisición se alinea con la visión de Red Hat de soportar diversos modelos y objetivos de despliegue en la nube híbrida. También complementa las capacidades con visión de futuro introducidas en Red Hat AI 3, específicamente para la IA agéntica y el Protocolo de Contexto de Modelo (MCP). A medida que las empresas adoptan la IA agéntica, los modelos confiables y seguros se vuelven aún más críticos, dado el papel complejo y autónomo de los agentes de IA y su impacto potencial en los sistemas centrales del negocio.

Chatterbox Labs ha realizado trabajos de investigación sobre la seguridad agéntica holística, incluyendo el monitoreo de las respuestas de los agentes y la detección de activadores de acción del servidor MCP. Este trabajo se alinea con la hoja de ruta de Red Hat para el Llama Stack y el soporte de MCP, posicionando a Red Hat para asegurar la próxima generación de cargas de trabajo inteligentes y automatizadas sobre una base confiable y lista para la empresa. Al combinar las capacidades de MLOps de Red Hat con las capacidades de medidas de protección de Chatterbox Labs, Red Hat permitirá a las organizaciones operacionalizar sus inversiones en IA con mayor confianza.

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

CONTENIDO RELACIONADO