Deepfakes: 7 casos reales de estafas que te harán dudar de todo
• Desde la clonación de personalidades famosas y directivos de importantes empresas, a un director de escuela

Hay refranes que nuestros abuelos usaban, como, por ejemplo, “No todo lo que brilla es oro» o también “Las apariencias engañan.” La sabiduría de nuestros abuelos se puede aplicar actualmente porque los cibercriminales utilizan la inteligencia artificial con la finalidad de potenciar sus estafas e inclusive generar engaños que pueden ser reales.
Actualmente, se pueden observar videos falsos en donde existe la suplantación de la identidad de personas de renombre internacional, como Lionel Messi, o el CEO de una importante organización e inclusive existen también en escalas pequeñas, como el director de un centro educativo o también en estos tiempos que estamos de campaña electoral de los mismos candidatos a la presidencial.
¿Qué es el deepfake?
Es una técnica de síntesis de imágenes humanas basada en inteligencia artificial para crear contenido falso desde cero, utilizando vídeos existentes o, incluso, solo a partir de una imagen estática. Están diseñados para replicar la apariencia y el sonido de una persona real.
“Con la evolución de la Inteligencia Artificial, estos vídeos y audios parecen cada vez más reales. Muchos explotan la imagen de figuras públicas o entidades de renombre diciendo algo falso, como parte de una estafa que busca obtener dinero o información sensible”, comenta Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica.
Casos de Deepfakes
A nivel de Costa Rica existen varios casos entre ellos se pueden destacar la creación de videos falsos con la imagen y voz del director de Telenoticias, Ignacio Santos, así como de Geanina Dinarte, exministra de la Presidencia, con el objetivo de atraer víctimas y obtener dinero mediante engaños e inclusive otros tipos de personalidades se han visto afectada por este tipo de situaciones.
En Honduras ahora que se encuentra en la campaña electoral ha sido utilizada la Inteligencia Artificial con la finalidad de desinformar a la población hondureña se trata de clips hiperrealistas elaborados con la herramienta Veo 3 (propiedad de Google) que muestran testimonios fabricados de supuestos hondureños, quienes exaltan con entusiasmo la gestión del alcalde capitalino Jorge Aldana, que busca la reelección, o atacan directamente a su principal contendiente, Juan Diego Zelaya, del Partido Nacional.
La campaña opera desde dos cuentas separadas en TikTok e Instagram: El gordito Aldana, que promueve al actual alcalde, y Che Catracho, que desacredita a Zelaya y a otros candidatos de oposición, respectivamente.
Más allá de que los engaños que utilizan deepfake sean cada vez más realistas y difícil de detectar, desde ESET comparte buenas prácticas que permiten reducir el riesgo de ser víctima de este tipo de estafas:
- Desconfiar de los anuncios llamativos, que ofrecen una ganancia demasiado buena para ser verdad. Y también de aquellos que involucran a personalidades de renombre mundial.
- Prestar atención a la calidad del video: si se evidencian fallas a nivel visual, mala sincronización o baja resolución, posiblemente se trate de un deepfake.
- Utilizar un software de seguridad en todos los dispositivos, que contribuya al bloqueo de sitios falsos y mails con contenido malicioso.
- Para las empresas, es importante que no se puedan autorizar pagos solamente por una llamada o videollamada. En este punto se puede incluir el uso de palabras clave o códigos internos, como método extra de validación.
- Ponderar la capacitación continua: estar entrenado para reconocer las señales de alarma de deepfakes y fraudes es otro hábito clave.
- Aprovechar las herramientas que existen actualmente para detectar deepfakes y combatir la desinformación.