Claudia Sheinbaum advierte de estafas en video realizados con IA

Durante su conferencia matutina del 26 de febrero, la presidenta de México, Claudia Sheinbaum Pardo, emitió una advertencia dirigida a la ciudadanía sobre la circulación de videos fraudulentos generados mediante Inteligencia Artificial (IA). En estos materiales, se utiliza su imagen y voz de manera manipulada para incitar a la población a participar en inversiones ilegales, especialmente relacionadas con Petróleos Mexicanos (Pemex).

Sheinbaum enfatizó la falsedad de estos contenidos e invitó a la población a no dejarse engañar por ellos. La mandataria ha señalado que estos videos apócrifos, que imitan su voz e imagen, son elaborados con técnicas avanzadas de IA con el propósito de promover plataformas de inversión fraudulentas. Estos sitios prometen ganancias a cambio de inversiones mínimas y utilizan la figura de Sheinbaum para generar confianza y así atraer a las víctimas.

“No estoy invitando a invertir en nada, particularmente hay una de Pemex por ahí, que mucha gente me ha preguntado en las giras. Son falsas, son mentira”

Miguel Elorza Vásquez, coordinador de Infodemia, anunció que los videos apócrifos serán analizados y expuestos en la sección del “detector de mentiras” en la próxima semana.

Cabe mencionar que esta no es la primera vez que un deepfake afecta a Sheinbaum. En 2024 esta tecnología impactó el proceso electoral. Un video fraudulento generado con Inteligencia Artificial utilizó la imagen y voz de Claudia Sheinbaum para promocionar una falsa plataforma financiera y asegurar rendimientos irreales con solo una pequeña inversión, cabe resaltar que la, en ese entonces candidata, reportó el tema a través de un live de instagram.

En octubre de 2023 también se reportó una estafa similar en la que se utilizaban videos manipulados con IA para hacer creer a los ciudadanos que figuras públicas como el presidente Andrés Manuel López Obrador, el empresario Carlos Slim y el medio de comunicación Milenio respaldaban inversiones en petróleo. Estos videos, que se difundieron en TikTok y YouTube Shorts, alteraban la voz e imagen de periodistas como Azucena Uresti para dar credibilidad al engaño. 

El fenómeno de los deepfakes y su creciente amenaza

Los videos falsos que suplantan la identidad de figuras públicas, conocidos como deepfakes son una amenaza creciente en el ámbito digital. Estos contenidos son creados utilizando técnicas de aprendizaje profundo y redes generativas antagónicas (GAN), que permiten generar imágenes, audios o videos sintéticos que imitan con gran precisión a personas reales.

Según un estudio de 2019, el 96% de los deepfakes detectados eran de naturaleza pornográfica y afectaban principalmente a mujeres. Sin embargo, su uso se ha expandido a ámbitos políticos y financieros, como es el caso de los videos que involucran a la presidenta Sheinbaum, con el objetivo de manipular la opinión pública y cometer fraudes.

Cómo funcionan los deepfakes y su proceso de creación

La creación de deepfakes implica el uso de algoritmos de aprendizaje profundo que analizan y replican patrones de voz e imagen de una persona específica. Este proceso consta de dos componentes principales:

  1. Generador: crea contenido sintético ya sea imágenes, audios o videos al basarse en los datos de entrenamiento proporcionados.
  2. Discriminador: evalúa la autenticidad del contenido generado, lo compara con datos reales y retroalimenta al generador para mejorar la precisión y realismo del contenido sintético.

Este ciclo iterativo continúa hasta que el generador produce contenido tan convincente que el discriminador no puede distinguirlo de los datos reales de manera confiable.

Riesgos asociados a los deepfakes y su impacto en la sociedad

Los deepfakes no solo son un desafío técnico, sino que también son riesgos significativos para diversos sectores en el país y a nivel personal.

  • Fraude y estafas financieras: como en el caso de los videos que involucran a la presidenta, los delincuentes pueden utilizar deepfakes para promover inversiones fraudulentas.
  • Desinformación política: la manipulación de imágenes y videos de figuras políticas puede influir en la opinión pública y alterar procesos electorales.
  • Daño a la reputación: individuos pueden ser víctimas de deepfakes que los involucren en situaciones comprometedoras o inapropiadas.

Medidas para detectar y protegerse de los deepfakes

Dada la sofisticación de los deepfakes, es muy importante que la ciudadanía adopte medidas para protegerse:

  • Educación y concienciación: informarse sobre la existencia y funcionamiento de los deepfakes es el primer paso para reconocerlos y no caer en sus engaños.
  • Verificación de fuentes: antes de aceptar la veracidad de un contenido, especialmente si es controversial o solicita acciones como inversiones financieras, es importante verificar su autenticidad y consultar fuentes oficiales o confiables.
  • Uso de herramientas tecnológicas: existen aplicaciones y software diseñados para detectar inconsistencias en videos y audios que pueden indicar la presencia de deepfakes.

Cortesía de Xataka



Dejanos un comentario: