
Lo importante no es el resultado –aunque sea muy bueno–, lo relevante es si se utiliza alguna herramienta de inteligencia artificial (IA) para llegar a él. Junto con el creciente uso de la IA generativa en diferentes industrias, también lo han hecho los prejuicios hacia los trabajadores que la utilizan en su actividad rutinaria.
De acuerdo con una investigación publicada por Harvard Business Review (HBR), en los últimos meses ha crecido lo que denominan “penalización oculta por usar IA en el trabajo”. En pocas palabras, cuando se considera que alguna tarea se realizó con inteligencia artificial, los colegas tienden a evaluar con menor nivel de competencia a quienes la utilizan.
El experimento consistió en pedir a 1,026 ingenieros de software que evaluaran un mismo fragmento de código en Python. En algunos casos se dijo que lo había escrito otro ingeniero, en otros que se había hecho con ayuda de IA. Cuando se creía que había mediado la IA, el autor era calificado como 9% menos competente, aunque el código era exactamente el mismo.
Lo más inquietante es que este “castigo de competencia” es todavía mayor para ciertos grupos, pues las ingenieras fueron penalizadas hasta en 13%, frente a 6% en el caso de los hombres; los ingenieros de mayor edad también resultaron más cuestionados. Un dato adicional revela otro gran sesgo, pues los más severos con sus juicios fueron precisamente quienes no usan IA, sobre todo varones, que castigaron hasta 26% más duramente a mujeres que usaron estas herramientas.
La conclusión de los investigadores es que muchos trabajadores anticipan ese estigma y, para “proteger su reputación”, prefieren no utilizar la IA. No es falta de entrenamiento ni de acceso, sino pura autopreservación profesional. En otras palabras, el rechazo a la IA no es una resistencia tecnológica, sino una estrategia de supervivencia al considerar que lo que hoy importa más es la “demostración de talento real” que los resultados obtenidos con apoyo de nuevas herramientas.
Algunos datos de Pew Research citados por HBR ayudan a poner esta dinámica en perspectiva. Casi tres años después de la irrupción de ChatGPT, apenas 16% de los trabajadores en Estados Unidos dice usar IA en su empleo, pese a que el 91% tiene permitido hacerlo. La mayoría reconoce que algunas de sus tareas podrían ser automatizadas, pero opta por no utilizar estas soluciones de manera abierta.
Si traemos el debate a México, la discusión se vuelve todavía más pantanosa. Somos un país con baja productividad laboral y un déficit de habilidades que ya se reconoce en diagnósticos oficiales y empresariales. El Foro Económico Mundial estima que 40% de los trabajadores mexicanos necesitará actualizarse en los próximos años para mantenerse vigente, mientras que estudios como los de ManpowerGroup confirman que 70% de las empresas batalla para encontrar los perfiles que necesitan.
En ese contexto, la IA debería ser vista como un aliado estratégico. Pero si quienes la usan son también estigmatizados como “menos competentes”, lo que tendremos será una barrera cultural más que impedirá aprovechar su potencial.
El ego juega un papel central en esta historia. Los trabajadores que no adoptan la IA parecen sentirse amenazados por quienes sí lo hacen, y en lugar de verlos como pioneros, los menosprecian. Pareciera que se trata de ese instinto de cerrar filas frente a lo que pone en riesgo la identidad profesional. El problema es que esta actitud no frena la llegada de la tecnología, sólo retrasa su aprovechamiento colectivo y profundiza las desigualdades en el mercado laboral.
La pregunta que debemos resolver es si queremos trabajos más eficientes y productivos, o preferimos preservar la ilusión de competencia basada en la manera en que llegamos a un resultado. La IA ha puesto en evidencia una contradicción de un mundo laboral que dice premiar la innovación, pero en la práctica castiga a quien se atreve a usarla.
Para México, donde el reto de la competitividad es urgente, rechazar la IA por cuestión de egos podría ser un lujo que no nos podemos permitir.
Cortesía de El Economista
Dejanos un comentario: