No vayas a caer. Condusef alerta por estafas con tu imagen en videos generados con inteligencia artificial

Criminales modifican tu imagen con inteligencia artificial. Foto: Getty Images

Con la adaptación constante de los delincuentes para hallar nuevas formas de cumplir sus fechorías, ahora involucran hasta la inteligencia artificial (IA), con la modalidad de estafa deepfake o ultrafalsa, según alerta la Condusef a los usuarios de algún servicio financiero.

De hecho, seguramente has estado a punto de ser víctima de alguna estafa con el uso de inteligencia artificial, pues en otra modalidad la usan para atraer víctimas usando la imagen de alguna personalidad o autoridad.

¿Cómo son las estafas con deepfake?

Como ya mencionamos, a través de su cuenta de X, la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) alertó a la población sobre las estafas con la modalidad deepfake o ultrafalsa, en las que se usa inteligencia artificial para lograr su cometido de engañar a las víctimas.

En su publicación, el organismo federal destaca que con esa nueva modalidad los criminales usan una fotografía tuya, poniendo tu imagen en alguna situación de urgencia con la IA para pedir dinero o algún dato personal a tus conocidos.

Con este método, los delincuentes pueden usar una fotografía tuya para mostrarte herido o secuestrado, animándola artificialmente, para que algún familiar o amigo les entregue dinero por tu liberación.

De igual forma, con este método les es fácil generar un video que les permita acceder a algún sistema protegido con reconocimiento facial, pues regularmente los sistemas computacionales sin incapaces de reconocer un deepfake de una imagen real.

[¿YA CONOCES EL CANAL DE WHATSAPP DE UNO TV? Da clic aquí, síguenos y obtén información útil para tu día a día]

Ante ello, la institución recomienda aprender a reconocer este tipo de imágenes, a fin de que evites caer en ellas, ya sea que usen tu imagen, eligiendo inteligentemente dónde subes fotografías tuyas que muestren tu rostro por completo, o aprendiendo a reconocerlas para identificar cuando te llegue algún video supuestamente de un conocido tuyo.

No solo es con conocidos directos

Incluso, este tipo de estafas se hace cada vez más común, y no es tan nuevo, pues ya en diversas ocasiones se ha alertado sobre videos falsos donde alguna personalidad o autoridad supuestamente recomienda invertir en alguna plataforma o sitio engañoso.

Ejemplo de esto son los videos que a veces nos aparecen en redes sociales en los que la presidenta Claudia Sheinbaum, o el expresidente Andrés Manuel López Obrador, “recomiendan” invertir directamente en Petróleos Mexicanos (Pemex) a través de alguna plataforma.

Al respecto, varias veces en la conferencia mañanera se ha advertido de esta estafa, pues además de que Pemex no recibe inversiones de la ciudadanía, se ha mostrado que para esto utilizan grabaciones de entrevistas o actos públicos, a las que les cambian la voz con la ayuda de la IA.

Cortesía de UNO TV



Dejanos un comentario: