Eset detalla cómo se tratan los datos en ChatGPT y qué riesgos implica
Con 900 millones de usuarios activos semanales reportados por OpenAI, el uso de ChatGPT instaló preguntas sobre privacidad y seguridad digital, desde el almacenamiento del historial hasta el entrenamiento de modelos y la revisión humana, mientras crece el mercado ilegal de credenciales y se comparan políticas con Google Gemini y Claude

ESET analizó el recorrido de la información que se ingresa en ChatGPT y los principales riesgos de privacidad asociados al uso de herramientas de inteligencia artificial generativa, en un contexto de adopción masiva. A principios de este año, ChatGPT alcanzó los 900 millones de usuarios activos semanales, de acuerdo con datos publicados por OpenAI, un volumen que vuelve relevante la forma en que se almacenan y utilizan las conversaciones.
Mario Micucci, investigador de Seguridad Informática de ESET Latinoamérica, señaló: “Muchas personas pueden creer que las conversaciones son volátiles y funcionan como un chat privado que desaparece al cerrar la ventana. En realidad, interactuar con grandes modelos de lenguaje implica una compleja red de almacenamiento y procesamiento de datos que puede exponer secretos comerciales o información personal sensible si no se tiene cuidado.”
El análisis describe tres capas de tratamiento de datos. La primera es el almacenamiento e historial: una vez enviado un mensaje, el texto se almacena en servidores de OpenAI para habilitar el acceso al historial en distintos dispositivos y sostener el contexto de la conversación. En ciertos casos, esa información puede conservarse por períodos limitados, “hasta 30 días”, por motivos de seguridad y monitoreo de abusos.
La segunda capa es el entrenamiento de modelos, que ESET identifica como el punto crítico del debate. Por defecto, OpenAI puede utilizar conversaciones de las versiones gratuitas y Plus para perfeccionar sus modelos, aunque el usuario puede desactivar esa opción en la configuración. En ChatGPT Business, Enterprise, Edu, Healthcare y en la API, la herramienta no utiliza los datos para entrenamiento de forma predeterminada. “Si un empleado introduce un fragmento de código propietario o un plan estratégico de marketing, es lógico pensar que, al entrenar el modelo con información propia, esta podría de alguna forma ser “utilizada” para otros usuarios”, dijo Micucci, investigador de Seguridad Informática de ESET Latinoamérica.
La tercera capa es la revisión humana: una muestra de conversaciones anonimizadas puede ser revisada por especialistas para evaluar la calidad y la seguridad de las respuestas, con acceso a fragmentos de los diálogos.
A la exposición por configuración y tratamiento interno se suma una amenaza externa vinculada a la seguridad de cuentas. Datos de 2024 muestran que más de 225.000 registros de inicio de sesión de ChatGPT fueron encontrados a la venta en foros de la Dark Web, a menudo obtenidos mediante malware del tipo *infostealer*, lo que amplía el riesgo de acceso no autorizado al historial.
ESET también repasó diferencias en otras plataformas. En Google Gemini, el Centro de Privacidad de Gemini establece que las conversaciones se utilizan para mejorar servicios e incluyen revisión por parte de entrenadores humanos; en el entorno corporativo de Google Workspace, las políticas de privacidad empresarial indican que los datos no se utilizan para entrenar modelos globales de lenguaje. En Claude (Anthropic), la Política de Privacidad y Términos de Uso destaca una retención mínima y un proceso de exclusión (*opt-out*) más directo para clientes comerciales, con resguardo de información enviada a través de la API.
Entre las recomendaciones, ESET planteó no introducir información que no se haría pública, realizar una limpieza previa del contenido (alias para clientes, eliminación de valores financieros específicos y ocultamiento de claves), usar contraseñas fuertes y únicas, activar autenticación de dos factores (2FA) y revisar configuraciones para desactivar historial y entrenamiento cuando corresponda.
- Etiquetas
- eset
- Mario Micucci
- privacidad
Artículos relacionados

Gigabyte ganó el Red Dot Design Award por su gama de productos de IA
El reconocimiento abarcó tarjetas gráficas, placas base y portátiles con foco en IA local, con funciones de refrigeración, optimización térmica y ajustes automáticos, e incorporó modelos como AORUS GeForce RTX 5090 INFINITY y AERO X16, en una distinción que apunta a reducir complejidad en sistemas de alto rendimiento

Zendure presenta PowerHub, un hub HEMS enchufable para integrar energía solar y consumos
La compañía amplió en Europa su serie SolarFlow Mix con una unidad que coordina generación fotovoltaica, baterías, red y respaldo, con capacidad escalable de 8 a 150 kWh y preventa abierta con envíos desde julio de 2026, en un mercado que acelera la adopción de soluciones residenciales de gestión energética

Roku activa descuentos del 11 al 17 de mayo en sus Streaming Stick
La compañía aplicará rebajas en Argentina por el Día Mundial de Internet, con precios finales de $64.999 y $117.999 según el modelo, en principales tiendas y plataformas de venta online, una acción que apunta a ampliar el acceso al streaming y a extender la vida útil de televisores.

