
La rápida expansión de las tecnologías basadas en inteligencia artificial ha generado transformaciones estructurales en los entornos productivos, sociales y políticos a escala global. Esta revolución tecnológica no solo redefine la creación de bienes y servicios, sino que también transforma las relaciones laborales, los modelos de gobernanza y los mecanismos de interacción ciudadana. En este nuevo panorama, las economías emergentes como México enfrentan una tensión crucial: cómo capitalizar los beneficios de la transformación digital sin comprometer su autonomía regulatoria ni profundizar las desigualdades existentes.
La adopción de la IA en países emergentes requiere un enfoque estratégico que combine la inversión en infraestructura digital, el fortalecimiento institucional y el desarrollo de capacidades locales para evitar que la brecha tecnológica se convierta en una brecha de poder. Además, las políticas públicas deben diseñarse con sensibilidad social, garantizando que la innovación no excluya, sino que amplíe las oportunidades para todos los sectores de la población.
La proliferación de sistemas de IA obliga a las naciones del Sur Global a desarrollar nuevos marcos de gobernanza. Para un país como México, que opera principalmente como adoptante de tecnologías, este desafío adquiere una dimensión geopolítica crucial: la necesidad de gestionar los términos de esta adopción para proteger su soberanía digital. La carrera geopolítica por la supremacía entre grandes potencias como Estados Unidos y China, con la emergencia de actores como los Emiratos Árabes Unidos y Arabia Saudita realizando inversiones masivas para asegurar su soberanía digital, coloca a México ante la urgencia de definir su posición estratégica.
Los países en desarrollo enfrentan una marcada disparidad en el acceso a recursos informáticos de alto rendimiento y están subrepresentados en los conjuntos de datos globales, lo que puede perpetuar sesgos en los sistemas de IA. Estas “brechas digitales” y “faltas de datos” requieren el desarrollo de conceptos como la “soberanía de la IA”, donde las naciones desarrollan sus propios modelos lingüísticos para garantizar la representación de sus culturas e idiomas.
La estrategia regulatoria óptima para una economía emergente como la mexicana no reside en emular marcos legislativos amplios y generalizados, sino en adoptar un enfoque centrado en casos de uso, basado en las capacidades institucionales existentes. Las regulaciones horizontales, promulgadas en un contexto de capacidad estatal limitada para la supervisión y el cumplimiento, corren el riesgo de crear cargas asimétricas que inhiben la innovación nacional y consolidan la posición dominante de las empresas transnacionales sin alcanzar los objetivos sustantivos de protección ciudadana.
Lecciones de marcos regulatorios internacionales
Marcos pioneros como el Reglamento General de Protección de Datos de la Unión Europea (RGPD) y las leyes de California sientan precedente al codificar los derechos de los titulares de los datos, incluyendo el acceso, la portabilidad y, fundamentalmente, la eliminación. La implementación del “derecho al olvido” revela una complejidad técnica significativa: la necesidad de una verificación fiable de que los responsables del tratamiento de datos dispongan de los mecanismos para la eliminación irreversible de datos.
Sin embargo, un análisis crítico de la experiencia europea sugiere que el modelo del RGPD, si bien conceptualmente sólido, generó externalidades negativas. Los elevados costes de cumplimiento y la percepción de un alto riesgo legal generaron una notable aversión al riesgo entre los agentes económicos, en particular las pequeñas y medianas empresas. Esta carga regulatoria ha introducido fricciones en los ciclos de innovación, afectando a la competitividad del ecosistema tecnológico europeo en comparación con sus homólogos en otras regiones con regímenes más laxos.
La nueva Oficina de IA de la Unión Europea inevitablemente requerirá el uso de herramientas de supervisión automatizadas e inteligentes para supervisar eficazmente el cumplimiento de la Ley de IA en todo el vasto mercado único europeo. Este precedente ilustra la necesidad de desarrollar sistemas de gobernanza basados en IA, donde la propia inteligencia artificial se utiliza para supervisar el cumplimiento, analizar datos y proporcionar retroalimentación en tiempo real para ajustes de políticas.
La transposición de un modelo regulatorio enfrenta un obstáculo fundamental: la brecha entre la ambición legislativa y la capacidad institucional para su ejecución. La supervisión de la IA exige un alto grado de experiencia técnica en los organismos reguladores y judiciales. Un déficit en esta capacidad estatal conduce inevitablemente a una brecha de implementación y a un escenario de gobernanza sin aplicabilidad práctica, lo que desalienta la inversión sin producir los beneficios esperados.
El estado actual de la regulación en México
México no parte de cero en materia de gobernanza digital, pero su marco jurídico actual resulta insuficiente frente a los desafíos que plantea la inteligencia artificial. Existen normas relevantes en ámbitos específicos, aunque todavía no se han articulado en una estrategia nacional de regulación de la IA.
En materia de protección de datos personales, el país cuenta con dos leyes que constituyen la base de referencia: la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (2010) y la Ley General de Protección de Datos Personales en Posesión de Sujetos Obligados (2017). Ambas establecen principios de consentimiento, finalidad, proporcionalidad y responsabilidad en el uso de información personal, y otorgan a la ciudadanía derechos de acceso, rectificación, cancelación y oposición (ARCO). No obstante, estas leyes fueron diseñadas antes del auge de la IA y carecen de disposiciones específicas para el tratamiento masivo y automatizado de datos que alimentan modelos de aprendizaje automático.
En el terreno de la protección al consumidor, la Procuraduría Federal del Consumidor (PROFECO) tiene facultades para sancionar prácticas engañosas, incluidas aquellas mediadas por algoritmos de recomendación o publicidad dirigida. Sin embargo, no existen lineamientos claros que obliguen a las plataformas digitales a transparentar cómo operan sus sistemas automatizados de personalización o fijación dinámica de precios.
Por su parte, la Comisión Federal de Competencia Económica (COFECE) ha advertido sobre la concentración de poder de mercado en plataformas digitales, pero la complejidad de los algoritmos de fijación de precios, gestión de datos y coordinación entre empresas aún no cuenta con un marco regulatorio que permita investigarlos eficazmente.
En el Congreso de la Unión, se han presentado desde 2022 varias iniciativas de ley en torno a la inteligencia artificial, con propuestas que van desde la creación de una Ley General de IA hasta la conformación de un Instituto Mexicano de Inteligencia Artificial. Ninguna ha prosperado, en parte por falta de consenso político, pero también por la dificultad técnica de traducir conceptos avanzados en disposiciones legales aplicables.
En materia de ciberseguridad, México carece de una legislación integral. El marco vigente descansa en la Ley de Seguridad Nacional y en reformas dispersas al Código Penal y la Ley Federal de Telecomunicaciones y Radiodifusión. Estas normas permiten sancionar delitos cibernéticos, pero no atienden fenómenos nuevos como los ataques adversarios contra modelos de IA o la manipulación de datos de entrenamiento.
Finalmente, la violencia digital se ha visibilizado gracias a la Ley Olimpia, que tipifica como delito la difusión de contenido íntimo sin consentimiento. Aunque esta norma representa un avance, no cubre todos los riesgos derivados de la manipulación de identidades digitales mediante técnicas de IA, como los deepfakes, ni establece obligaciones específicas para las plataformas que los difunden.
México dispone de piezas aisladas de regulación digital, pero todavía carece de un marco integral y adaptativo para la IA. El reto inmediato es decidir si se construye una legislación específica —con los riesgos de sobrerregulación y difícil implementación— o si se modernizan y articulan los marcos ya existentes, dotando de capacidad técnica a las instituciones encargadas de su aplicación.
Riesgos político-institucionales específicos
La complejidad técnica de la IA y el debate público que suscita crean un caldo de cultivo para tres riesgos político-institucionales específicos: el simbolismo sin sustancia, donde las propuestas legislativas sirven más como gestos políticos que como soluciones efectivas; la fragmentación regulatoria, debido a múltiples iniciativas aisladas y descoordinadas que pueden resultar en un marco legal contradictorio; y quizás el riesgo más grave que es la captura regulatoria, donde la dependencia de la experiencia técnica de los actores dominantes del mercado les permite influir decisivamente en la legislación.
La ambigüedad y los altos costos del cumplimiento imponen una carga desproporcionada a las nuevas empresas y PYMES, actuando como una barrera de entrada de facto y concentrando el mercado. Este fenómeno tiende a consolidar la posición dominante de las corporaciones transnacionales sin alcanzar los objetivos sustantivos de protección ciudadana que motivan dicha regulación.
Desafíos técnicos y éticos de la IA
El fenómeno de la “caja negra” en los sistemas de IA presenta desafíos significativos para la transparencia y la rendición de cuentas. La necesidad de técnicas de “IA Explicable” debe operacionalizarse con precisión, definiendo el propósito y el público objetivo de la explicación. Sin embargo, es imperativo mantener una clara distinción analítica entre el modelo algorítmico y el régimen de gobernanza de datos, ya que muchas de las externalidades negativas atribuidas a la IA son, en realidad, fallas en la gobernanza de datos.
El concepto de “contención” se refiere al desafío arquitectónico crítico de garantizar que los sistemas de IA puedan controlarse y desactivarse si es necesario. Las “alucinaciones” en los modelos de IA, que proporcionan información incorrecta o inventada, ilustran los riesgos del comportamiento impredecible y la necesidad de mecanismos robustos de verificación.
Propuesta de marco regulatorio adaptativo
Un paradigma regulatorio diferente podría centrarse en el riesgo y los casos de uso, en lugar de regular la “inteligencia artificial” como una categoría monolítica. Los esfuerzos normativos deberían dirigirse a aplicaciones específicas de alto impacto, como el reconocimiento facial en espacios públicos, la justicia predictiva o las decisiones crediticias automatizadas.
El establecimiento de “sandboxes regulatorios” representa un mecanismo clave para permitir que las empresas innoven bajo la supervisión de los reguladores, garantizando la seguridad de las nuevas aplicaciones antes de su implementación masiva. Este enfoque busca crear un marco de gobernanza que equilibre la gestión de riesgos, la regulación, la inversión y la innovación.
Más allá de la protección de derechos y la gestión de riesgos, la regulación de la IA debe considerar su impacto en el desarrollo productivo local. Un marco sobrerregulado o con altos costos de cumplimiento puede desincentivar la innovación de las PYES y startups mexicanas, que son las que impulsan aplicaciones en sectores estratégicos como fintech, salud, agroindustria o educación. En este sentido, la política pública debe equilibrar la protección ciudadana con la promoción de un ecosistema tecnológico nacional, evitando que las cargas regulatorias terminen consolidando la dependencia de plataformas transnacionales. La creación de espacios de experimentación regulada, incentivos fiscales y esquemas de colaboración público-privada puede generar un entorno propicio para que las empresas mexicanas desarrollen soluciones de IA adaptadas a las necesidades del país, potenciando su competitividad en la región.
Dada la discordancia entre la ambición regulatoria y la capacidad institucional, un enfoque más pragmático y eficiente para México sería centrar los esfuerzos en la aplicación rigurosa y la modernización de los marcos legales existentes, como las leyes de protección de datos personales, protección al consumidor y competencia económica, priorizando las acciones de los principales actores del mercado nacional, en particular las empresas transnacionales.
Cooperación internacional y marcos institucionales
La adopción por consenso de la primera Resolución de la Asamblea General de la ONU sobre IA en marzo de 2024 representa un paso histórico hacia un marco global unificado. La creación de una “Agencia Internacional de Inteligencia Artificial”, inspirada en el OIEA, podría gestionar tecnologías complejas de IA y garantizar una representación equitativa de todos los países, en particular del Sur Global. Esto proporcionaría un objetivo tangible para el papel de México en la conversación global sobre la gobernanza de la IA, como por ejemplo en su participación en el GPAI (Alianza Global sobre Inteligencia Artificial) lanzada en 2020 en el marco de la Cumbre del G7 y donde México participa junto a otros 28 países.
Modelo regulatorio centrado en la persona
El crecimiento acelerado de la IA exige un modelo regulatorio centrado en la persona, capaz de proteger su identidad digital y sus derechos fundamentales. Dinamarca ha establecido un estándar al reconocer legalmente los derechos de autor sobre datos personales como la voz, el rostro y los gestos, impidiendo su uso no autorizado en tecnologías como los deepfakes. Este tipo de medida ofrece una alternativa sólida para prevenir abusos como los que dieron origen a la Ley Olimpia en México, al establecer que la representación digital de una persona no puede ser manipulada ni difundida sin su consentimiento.
Un modelo regulatorio centrado en la persona puede convertirse en una herramienta poderosa para prevenir diversas formas de violencia, especialmente aquellas que afectan desproporcionadamente a mujeres, niños y grupos históricamente desfavorecidos. Al establecer que la identidad digital pertenece a cada individuo, se limita el uso no autorizado de representaciones personales en tecnologías como los deepfakes, que se han utilizado para la difusión de contenido sexual no consensuado, la suplantación de identidad y otras formas de violencia digital.
Para niñas, niños y adolescentes, este enfoque implica una mayor protección contra la explotación de su imagen en redes sociales, videojuegos o entornos educativos virtuales, donde el consentimiento suele ser vago o inexistente. Para las comunidades indígenas, las personas con discapacidad o las personas migrantes, significa reconocer su derecho a decidir cómo se les representa en los sistemas automatizados, evitando sesgos algorítmicos que perpetúan la exclusión.
Igualmente debe pensarse en proteger a los menores de edad de la aplicación premeditada de algoritmos o estímulos que generen adicción por ejemplo a videojuegos o redes sociales. Al exigir transparencia, trazabilidad y mecanismos de control sobre los datos, se promueve una cultura de responsabilidad tecnológica que no solo previene la violencia, sino que también permite el pleno ejercicio de derechos como la libertad de expresión, la participación informada y el acceso a la justicia. Regular desde la dignidad humana no es solo una medida técnica: es un compromiso ético con sociedades más seguras, equitativas y democráticas.
Conclusiones y perspectivas
México tiene una oportunidad histórica para construir un modelo de gobernanza digital que responda a sus propias realidades sociales, técnicas e institucionales. La clave no reside en replicar regulaciones extranjeras ni en buscar marcos regulatorios idealizados, sino en articular políticas que reconozcan la identidad digital como parte de los derechos humanos fundamentales. Esto implica diseñar normas aplicables basadas en los casos de mayor impacto y riesgo, garantizando mecanismos de transparencia y rendición de cuentas.
Este enfoque permitiría abordar los desafíos de la violencia digital, prevenir formas de exclusión algorítmica y proteger a los sectores más vulnerables, a la vez que potenciaría un ecosistema tecnológico local más justo, seguro y competitivo. Al centrar la regulación en la dignidad de las personas, México no solo avanzaría en la protección de sus ciudadanos en entornos digitales, sino que también redefiniría su papel en la conversación global sobre inteligencia artificial.
Este modelo pragmático y ético —que prioriza el ciclo de vida de los datos, promueve la innovación responsable y resiste las presiones de los intereses corporativos— puede convertirse en un referente regional, capaz de influir en el diseño de políticas públicas en América Latina. La gobernanza de la IA no es solo una cuestión técnica o legal, sino un compromiso con el tipo de sociedad que queremos construir en el siglo XXI. Y ahí, México puede marcar la diferencia.
*Martha Delgado Peralta es presidenta de APCO para México y América Latina
* José Ramón López-Portillo Romano es experto y asesor internacional en gobernanza global de IA y tecnología
Cortesía de El Economista
Dejanos un comentario: