
Entender cómo identificar un deepfake se ha vuelto clave en la protección de datos personales e identidad digital. Un deepfake es un contenido audiovisual (video, audio o imagen) que ha sido manipulado mediante herramientas tecnológicas para hacer que una persona parezca decir o hacer algo que en realidad nunca ocurrió.
A principios del año pasado, un empleado del departamento financiero de una multinacional en Hong Kong pagó 25 millones de dólares tras una videollamada con el director ejecutivo de la empresa. Al otro lado de la pantalla todo parecía normal, pero en realidad se trataba de una de las estafas más sofisticadas jamás vistas: un grupo de estafadores había creado una versión deepfake del directivo, clonando su apariencia y voz, y en esa ocasión, un rostro falso bastó para vulnerar las finanzas, la reputación y la seguridad de toda la organización.
De acuerdo con datos de Sumsub, los intentos de fraude a través de la suplantación mediante deepfakes han tenido un crecimiento exponencial de 700% a nivel mundial al primer trimestre del 2025, respecto al mismo periodo de 2024, afectando a bancos, plataformas digitales y gobiernos por igual.
Te puede interesar
El riesgo se amplifica con el avance de tecnologías como Veo3 de Google, capaz de generar en minutos videos sintéticos hiperrealistas con audio perfectamente sincronizado.
Lo que distingue a una empresa segura no es cuántos filtros tiene, sino qué tan rápido puede detectar y bloquear lo que los demás no ven. La detección en tiempo real, más que una tendencia, es una necesidad para sobrevivir en el entorno digital actual”, afirmó Daniel Mazzucchelli, director de Expansión de Sumsub en Latinoamérica.
Detrás de esta capacidad en tiempo real, está la inteligencia artificial como motor analítico. La IA permite escanear rostros, detectar signos vitales (como movimientos involuntarios o parpadeos) y diferenciar entre una persona real y una imagen animada en milisegundos. Las tecnologías de liveness detection, biometría facial y machine learning se combinan para identificar incluso anomalías mínimas en documentos, metadatos o patrones de uso.
Esta arquitectura también aprende en el proceso. Cada intento de fraude entrena a los modelos para mejorar su capacidad de predicción. Por eso, muchas plataformas utilizan IA híbrida, donde algoritmos automatizados se complementan con revisión humana, logrando una defensa multilayer mucho más efectiva.
¿Cómo proteger?
Más que reaccionar ante el fraude, las organizaciones deben anticiparse con soluciones inteligentes, ágiles y multilayer. Estas son algunas de las acciones para fortalecer sus defensas:
- Adoptar tecnologías de verificación biométrica y facial que validen rasgos únicos del usuario, más allá de contraseñas o documentos.
- Implementar detección de vida (liveness detection) para distinguir entre una persona real y una imagen o video sintético.
- Evaluar el comportamiento contextual del usuario (ubicación, patrones de uso, horarios) para identificar actividades sospechosas en tiempo real.
- Integrar alertas automatizadas y sistemas de riesgo adaptativo que respondan de inmediato ante intentos de suplantación.
- Utilizar APIs escalables y conectadas para mantener procesos de verificación consistentes en múltiples plataformas y geografías.
- Actualizar constantemente los sistemas con nuevas bases de datos y patrones de fraude, permitiendo que la inteligencia artificial aprenda de cada intento.
- Invertir en soluciones que combinen automatización e intervención humana, creando capas múltiples de defensa cibernética.
En un entorno donde los deepfakes evolucionan a un ritmo vertiginoso, estas acciones deben verse como un sistema integral de defensa.
Cortesía de El Economista
Dejanos un comentario: