Eset alerta por filtraciones de chats con IA y detalla riesgos y prevención

La compañía enumera los datos que suelen compartirse con ChatGPT, Gemini, Copilot, Claude o Perplexity, describe cómo pueden quedar expuestos por accesos indebidos, brechas o extensiones, y propone buenas prácticas para reducir riesgos como robo de identidad, espionaje corporativo y extorsión en entornos personales y laborales

spot_img

La interacción cotidiana con chatbots de inteligencia artificial como ChatGPT, Gemini, Copilot, Claude o Perplexity se instaló como un intercambio percibido como íntimo y seguro, en el que se vuelcan inquietudes emocionales, psicológicas, laborales y médicas. Eset planteó que esa expectativa de privacidad no se corresponde con el funcionamiento de estas herramientas y analizó qué información se comparte, cómo puede quedar expuesta y qué impactos puede tener una filtración.

Martina Lopez, investigadora de Seguridad Informática de Eset Latinoamérica, advirtió: “Los chatbots no fueron concebidos como un lugar confidencial”. En el mismo sentido, señaló que las plataformas remarcan que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio, y que la aplicación de medidas de seguridad y privacidad no elimina el riesgo de brechas de datos ni implica invulnerabilidad.

El uso como asistente personal o consejero empuja a compartir información sensible casi sin registrarlo. Entre los contenidos habituales aparecen datos personales como nombre, edad, ciudad y país, además de hábitos cotidianos: dónde se trabaja, con quién se vive y cómo se compone la familia. También se incluyen datos laborales: correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas, detalles de clientes y proveedores, conversaciones y tickets, además de código fuente y arquitecturas internas.

Publicidad

En el plano personal, los chatbots se utilizan para consultas médicas, psicológicas o emocionales, con intercambio de síntomas, diagnósticos y medicación, así como conflictos de pareja, duelos o pedidos de consejo. Además, se vuelcan opiniones, creencias y posturas sensibles vinculadas a ideología política o religiosa, o apreciaciones sobre empresas, jefes o colegas, información que fuera de contexto puede generar daño reputacional.

Lopez sintetizó el eje del riesgo: “Meses de conversaciones construyen un perfil, que puede tener un valor muy alto para un ciberatacante”. La exposición puede ocurrir si un tercero ingresa a la cuenta por acceso a la contraseña, ataques de phishing o reutilización de claves. También por chatbots manipulados mediante prompts maliciosos, por aceptar términos y condiciones sin leer —con recopilación y almacenamiento de historial y conversaciones para entrenar modelos—, por brechas de seguridad o errores de plataforma, o por extensiones y aplicaciones que acceden a más información de la prevista.

Eset enumeró cinco consecuencias posibles: robo de identidad e ingeniería social, con ataques personalizados; espionaje corporativo, por acceso a estrategias, documentos y decisiones internas; daño reputacional; exposición de datos sensibles; y extorsión, a partir de amenazas y chantajes basados en información privada.

Para reducir el impacto, la compañía recomendó no compartir datos personales (cédula, fecha de nacimiento, mail, teléfono), anonimizar casos reales (nombres, empresas, ubicaciones), no adjuntar documentos sensibles ni credenciales, revisar configuraciones de privacidad, proteger la cuenta con contraseña robusta y doble factor, y separar cuentas de trabajo y uso personal. El criterio final propuesto es simple: pensar si eso se diría en voz alta en una sala con desconocidos.

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

CONTENIDO RELACIONADO