Trabajadores mexicanos usan la inteligencia artificial pero no con mucha ética

La inteligencia artificial se volvió rutina para millones de trabajadores mexicanos, pero lo está haciendo por la puerta lateral, con cuentas personales, sin lineamientos claros y con empresas que todavía no terminan de traducir la ética en procesos, métricas y gobernanza. 

El resultado es un ecosistema donde se automatiza cada vez más trabajo, pero en el que la protección de datos, la transparencia de los modelos y la rendición de cuentas vienen detrás.

De acuerdo con el estudio Work:InProgress, elaborado por Google Workspace junto con IDC y Provokers, 67% de los empleados en México ya utiliza asistentes de IA personales, no corporativos, para realizar actividades laborales. Sin embargo, sólo 35% dice que su organización le ofrece acceso formal a estas herramientas.

Quienes usan su propia IA lo hacen porque sienten que es más segura (44%), porque la prefieren frente a las opciones corporativas (32%) o porque es más fácil acceder a ella (37 por ciento).

El trabajador percibe que el camino no oficial es el más eficiente y menos riesgoso, aunque en realidad expone a la empresa a filtraciones de información sensible, incumplimiento regulatorio y dependencias tecnológicas que nadie está gestionando.

El mismo estudio muestra que sólo 30% de las empresas en México tiene políticas claras sobre el uso de la IA y apenas 31% incentiva a sus colaboradores a experimentar con estas herramientas. Mientras tanto, 41% de los profesionales percibe un riesgo alto o muy alto al usar asistentes de IA personales para trabajar.

Los trabajadores saben que hay riesgo, pero siguen utilizando IA por fuera del perímetro corporativo porque las reglas que deberían gestionarlo o no existen, o son tan rígidas que se vuelven impracticables.

Uso de la IA en el trabajo

Del lado de la infraestructura, el mensaje es mucho más optimista. Un estudio global de Intel muestra que nueve de cada 10 organizaciones en México ya están preparadas para incorporar computadoras con IA en sus operaciones.

En 92% de las empresas mexicanas, los equipos de TI consideran que están listos para integrar PCs con inteligencia artificial ejecutada localmente, incluso por encima del promedio regional.

Te puede interesar

Dentro de estas organizaciones, 45% de los empleados ya utiliza funciones con IA para tareas como búsqueda optimizada, traducción en tiempo real o texto predictivo. Es decir, la IA ya está embebida en el hardware y en las aplicaciones cotidianas.

Pero que la infraestructura esté lista no significa que la cultura y la gobernanza lo estén. Un estudio de KPMG sobre el panorama de la inteligencia artificial en México y Centroamérica revela que 56% de las empresas mexicanas todavía no logra identificar el valor comercial que la IA puede aportar a su negocio, y solo 10% ha confirmado beneficios con métricas firmes, pese a que 27% asegura tener una estrategia de IA bien definida.

Te puede interesar

Si la mayoría no sabe bien qué está ganando, es razonable suponer que tampoco tiene claro qué está poniendo en riesgo: cómo se usan los datos, qué sesgos pueden reforzarse o quién responde cuando un modelo toma una decisión errónea. La ética se convierte en un apéndice, no en un diseño de origen.

Poca ética

Un estudio del IBM Institute for Business Value, realizado con el Notre Dame-IBM Tech Ethics Lab, aporta otra capa: sí hay evidencia de que invertir en IA ética paga. Las empresas que destinan más recursos a prácticas éticas de IA han logrado hasta 30% más beneficios operativos atribuibles a estos sistemas frente a las que menos invierten, y 53% de los ejecutivos mexicanos reporta una mayor confianza de los clientes y una mejor calidad de producto cuando aplican marcos éticos.

Aun así, solo 36% de los ejecutivos en México utiliza herramientas esenciales de IA ética. Y apenas 44% de las organizaciones mexicanas ha integrado la ética en su estrategia de IA; el resto opera con principios generales o iniciativas aisladas.

La mayoría reconoce que esto no será sostenible por mucho tiempo. El 64% admite que tendrá que replantear de forma significativa sus marcos de IA ética para seguir el ritmo de sistemas cada vez más autónomos y 71% cree que los agentes de IA requerirán directrices más estrictas que las de los modelos actuales.

Consumidores menos confiados

Entre los usuarios finales, la foto tampoco es cómoda. De acuerdo con el más reciente estudio de tendencias de experiencia de cliente de Zendesk, dos tercios de las personas encuestadas en México utilizan a diario alguna herramienta de IA, desde asistentes para el calendario hasta funciones de redacción de correos, pero solo alrededor de 31% dice sentirse muy cómodo y confiar totalmente en estas tecnologías.

Te puede interesar

En la oficina, los trabajadores normalizan la IA hasta el punto de usarla fuera del perímetro corporativo; como clientes, mantienen una confianza limitada y elevan la vara para las empresas con las que interactúan. Si la IA se percibe como invasiva, opaca o injusta, por ejemplo, si se usa para tomar decisiones sin explicación, o se cometen alucinaciones sin corrección visible, la confianza se erosiona rápido.

Las prácticas poco éticas de uso, o simplemente la ausencia de reglas, tienen consecuencias directas. Usar cuentas personales para subir bases de datos de clientes, copiar información sensible a un chatbot público o automatizar respuestas sin transparencia son decisiones cotidianas que, sumadas, pueden traducirse en crisis de reputación, sanciones regulatorias o pérdida de negocio.

Negocio de IA acelera

Todo esto ocurre mientras el negocio de la IA en México se acelera. IDC estima que el mercado empresarial de inteligencia artificial cerrará 2025 con un valor de 32,884 millones de pesos y podría alcanzar 110,535 millones para 2029, impulsado por casos de uso que mejoran productividad, servicio al cliente y toma de decisiones.

Te puede interesar

La inversión está en marcha; lo que no está claro es si el país está construyendo, al mismo tiempo, las capacidades para usar esa tecnología de forma responsable. KPMG advierte que cuatro de cada diez empresas en México usan datos de forma aislada por equipos y tres de cada diez lo hacen sin principios ni procesos centrales de gestión; el gobierno de datos sigue siendo reactivo más que preventivo.

En paralelo, el estudio de Google Workspace confirma que la práctica de Shadow AI se está consolidando. Trabajadores que dominan el uso de IA antes que sus empresas, que aprenden por ensayo y error y que resuelven problemas reales, pero sin el respaldo de estructuras claras de seguridad, ética y cumplimiento.

Dejar de culpar al trabajador

Decir que los trabajadores mexicanos usan IA sin mucha ética no significa que exista una intención de dañar, sino que están operando en un vacío normativo que las organizaciones no han llenado.

La responsabilidad ética de la IA en el ámbito laboral no se agota en pedirle al colaborador que no suba datos sensibles a ChatGPT; implica construir políticas claras, herramientas corporativas competitivas, capacitación continua y marcos de gobernanza que definan quién decide, quién audita y quién responde cuando algo sale mal.

Los estudios coinciden en que la ética no es un obstáculo para la IA, sino una condición para que el mercado de miles de millones de pesos que se está formando no se convierta en una fuente de escándalos, demandas y pérdida de confianza. En la medida en que México apuesta por más IA en PC, centros de contacto y procesos de negocio, la discusión urgente ya no es si los trabajadores van a usarla; es cómo evitar que lo sigan haciendo sin reglas.

[email protected]

Cortesía de El Economista



Dejanos un comentario: