Eset detalla cómo detectar llamadas con voz deepfake y reducir el fraude corporativo
La suplantación de voz con inteligencia artificial generativa se usa para impulsar transferencias, restablecimientos de contraseñas y pedidos de autenticación multifactor, mientras el Gobierno británico estimó que el año pasado circularon hasta 8 millones de clips falsos, un escenario que obliga a revisar controles internos y capacitación en ciberseguridad

La inteligencia artificial generativa (GenAI) volvió accesible la producción de audios y videos falsos y, en el entorno corporativo, ese cambio ya se traduce en ataques de suplantación de voz orientados a conseguir acciones sensibles. Entre los objetivos habituales aparecen las transferencias bancarias urgentes, los restablecimientos de contraseñas y la aprobación de autenticación multifactor (MFA), un mecanismo de verificación que agrega un segundo paso además de la contraseña.
Las deepfakes también pueden utilizarse para eludir controles y autenticaciones, o para infiltrar organizaciones mediante un candidato falso y sintético en procesos de selección. No obstante, el mayor impacto se concentra en el fraude financiero y en el secuestro de cuentas de ejecutivos, una modalidad que busca tomar control de credenciales y accesos con valor operativo.
El volumen del fenómeno creció con rapidez. El Gobierno británico afirmó que el año pasado se compartieron hasta 8 millones de clips falsos, frente a los 500 mil difundidos en 2023. Aun con ese registro, la cifra real podría ser mayor y las organizaciones tienden a subestimar la amenaza.
Un experimento de Jake Moore, Global Security Advisor de Eset, mostró que para lanzar un ataque de audio deepfake alcanza con un clip corto de la víctima: GenAI completa la suplantación. La secuencia típica incluye elegir a la persona a imitar —un CEO, un CFO o un proveedor—, obtener una muestra de audio en internet (redes sociales, entrevistas en video o televisión, o convocatorias de beneficios), identificar dentro de la empresa a quien recibirá el pedido —por ejemplo, personal de soporte informático o del equipo financiero, con búsquedas documentales en LinkedIn— y luego llamar o preparar el terreno con un correo previo.
En la instancia de contacto, el atacante puede seguir un discurso preestablecido o aplicar un método de “voz a voz”, en el que su voz se traduce casi en tiempo real a la de la víctima. “Este tipo de ataque es cada vez más barato, sencillo y convincente”, dijo Macio Micucci, investigador de Seguridad Informática de Eset Latinoamérica.
Para detectar la suplantación, la compañía enumera señales como un ritmo antinatural, un tono emocional inusualmente plano, respiración extraña o frases sin respiración, sonido robótico (en herramientas menos avanzadas) y un ruido de fondo ausente o demasiado uniforme. A eso se suman tácticas de ingeniería social, como la presión por urgencia y el uso de jerarquías.
En 2020, un empleado de una empresa de Emiratos Árabes Unidos fue engañado para transferir US$ 35 millones tras una supuesta llamada de su director, vinculada a una operación de fusión y adquisición. Como respuesta, se recomienda reforzar la formación con simulaciones de audio deepfake y ejercicios de red team, además de controles como verificación fuera de banda, doble firma en transferencias importantes o cambios de datos bancarios, y contraseñas o preguntas acordadas previamente. “El nuevo panorama del ciberfraude exige una atención constante”, dijo Micucci, investigador de Seguridad Informática de Eset Latinoamérica.
- Etiquetas
- eset
- Macio Micucci
- voz deepfake
Artículos relacionados

¿Por qué ChatGPT lanzó una campaña sin IA?
La última campaña de ChatGPT abrió el debate: en pleno auge de la inteligencia artificial, la marca optó por una ejecución completamente analógica —filmada en 35 mm, con talento humano y fuera de los canales digitales—. Una decisión que muchos calificaron de irónica, pero que refleja una tensión creciente en la industria: mientras aumenta el contenido generado por IA, también crece el valor de lo real.

Cognizant integra Codex de OpenAI en su ingeniería de software a escala global
La alianza incorpora las funciones de Codex a la plataforma de desarrollo de IA de la compañía y busca convertirlo en una función estándar del desarrollo y la entrega de software, con foco en acelerar ciclos de entrega, mejorar la calidad del código y reducir costo y riesgo en programas de modernización

La muerte del Excel: cómo la inteligencia artificial está redefiniendo las finanzas empresariales
Por Juan Pablo Picasso, Chief Information Officer & Co-Founder de Kuru

