En los últimos años, el número de los llamados deepfakes ha aumentado constantemente, al igual que su calidad. ¿Qué son los deepfakes?
Lo que comenzó como un software de edición de fotografías simple e inocente se ha convertido en una industria que busca sesgar el ecosistema en línea de información de video. El término deepfake se usa por lo general para referirse a un video que ha sido editado usando un algoritmo para reemplazar a la persona en el video original por otra persona (especialmente una figura pública) de forma tal que el video parece auténtico.
Mediante el uso de programas profesionales para la edición de imágenes, sonido y video, así como el uso de herramientas compatibles con IA, ha habido grandes avances en el desarrollo de grabaciones de audio, imágenes y video falsificadas (deepfakes) en los últimos años.
El experto en análisis de imágenes digitales, el profesor Hany Farid de UC Berkeley, distingue los deepfakes en cuatro tipos generales:
- La pornografía involuntaria es el ejemplo más común. El rostro de cualquier mujer u hombre se inserta en un video porno y se distribuye en línea.
- Las campañas de desinformación tienen como objetivo difundir información falsa y engañar deliberadamente al público. A menudo abordan temas controvertidos con el objetivo de alimentar las discusiones que ya han surgido.
- La falsificación de evidencia legal tiene como objetivo documentar eventos que en realidad nunca ocurrieron, como la mala conducta policial.
- El fraude clásico que utiliza nuevos medios también puede tener consecuencias penales o de seguridad. Un ejemplo de esto es un deepfake de audio de 2019 que solicita una transferencia de una empresa de energía del Reino Unido. El audio encarnaba al director ejecutivo de la empresa.
Identificar y reconocer deepfakes
Pero, ¿cómo reconoces estas falsificaciones? Una posibilidad es analizar las peculiaridades y expresiones faciales con mucho cuidado e identificar las peculiaridades de cada persona.
Farid llama a esto “biometría suave” porque no es una ciencia exacta, como el ADN o las huellas dactilares, que pueden identificar a alguien de manera muy confiable. La previsibilidad aumenta con las celebridades filmadas con frecuencia, de las cuales existe una gran cantidad de material de video existente que se puede usar para comparar con los “ticks” visuales.
Por ejemplo, si intenta decir las palabras “madre”, “hermano” y “padres” sin cerrar la boca, rápidamente descubrirá que solo los ventrílocuos pueden hacerlo. Cuando Alec Baldwin hace sus imitaciones de Trump, no entiende estas peculiaridades faciales, lo que sugiere una falsificación.
Las plataformas de redes sociales deben ser proactivas
Tenemos algunos desafíos. Primero, la tecnología está evolucionando rápidamente y mejorando cada vez más en la creación de deepfakes convincentes. La velocidad de transmisión en las redes sociales también está aumentando. Lo que solía tomar días o semanas ahora se logra en horas o incluso minutos.
El público está polarizado ahora. Esto significa que la gente está dispuesta a creer lo peor de aquellos con quienes no están de acuerdo o que no les agradan en particular. También hay un aumento en lo que el profesor Farid llama el “dividendo mentiroso”. Esto significa que la mera afirmación de que algo es falso suele ser suficiente para neutralizarlo, incluso si no es cierto. Las personas que ya han sido criticadas por una determinada mala conducta pueden afirmar cada vez más fácilmente que los archivos incriminatorios son falsificados. Como resultado, también se cuestiona la credibilidad de las instancias auténticas.
No hay una solución fácil para acabar con el apocalipsis de la desinformación. En cambio, las plataformas sociales deben asumir la responsabilidad y poner un mejor etiquetado con un enfoque más fuerte en regular el alcance y presentar puntos de vista alternativos, en lugar de simplemente eliminar contenido ofensivo o falso.
(*) Por Mauro Vicente, Regional Sales Manager Latam – Avast Business