
Miles de personas en búsqueda de empleo, se postulan diariamente como candidatos para ocupar vacantes publicadas en Internet. En muchas ocasiones, en especial cuando la empresa contratante es transnacional o de gran tamaño, el proceso requiere que el candidato cargue su currículum vitae en alguna plataforma de reclutamiento, que le hace llegar mensajes notoriamente automatizados sobre los avances en el proceso. Es común que los candidatos reciban una notificación informándoles que su perfil ha sido rechazado después de una “cuidadosa” revisión, antes de siquiera haber tenido contacto con algún humano dentro de la empresa, e incluso cuando apenas han transcurrido unos minutos de haberse postulado.
De acuerdo con diversas notas periodísticas, en mayo de este año, la jueza Rita Lin, del Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California, otorgó una certificación preliminar para admitir una demanda interpuesta por Derek Mobley en contra de Workday Inc., una plataforma de reclutamiento que utiliza la inteligencia artificial (IA) para la selección de candidatos. Mobley alega, entre otras cosas, que las herramientas utilizadas por Workday lo han perjudicado sistemáticamente a él y a otros solicitantes de empleo, al discriminar a los candidatos mayores de 40 años de edad. Por su parte, un portavoz de Workday manifestó que las decisiones de reclutamiento no son tomadas por la Inteligencia Artificial de Workday, sino por sus clientes. La acción legal ejercida por Derek Mobley es de naturaleza colectiva y hasta ahora se han sumado a ésta por lo menos otros cuatro demandantes.
A pesar de que la certificación de la jueza no es una sentencia definitiva, su determinación sin duda ha abierto la puerta para algunos de los debates más importantes que en mi opinión se avecinan en el campo jurídico sobre el uso de la IA.
Por una parte, se encuentra la discusión sobre la delimitación de responsabilidades en la toma de decisiones basadas en herramientas de IA. En el caso concreto de Workday, si en efecto se han descartado candidatos de manera injustificada o discriminatoria, habría que determinar si fue el propio algoritmo de Workday el que generó ese resultado, o si el cliente que contrató sus servicios entrenó o dio instrucciones a la plataforma para excluir perfiles de candidatos mayores de cierta edad, o dentro de categorías sospechosas de discriminación. En cualquier caso, si existe un sesgo ilegal en la selección de candidatos, alguien tendrá que tomar responsabilidad, ya que la inteligencia artificial no tiene voluntad propia y no es sujeto de derecho por sí misma.
Por otro lado, me parece que uno de los retos jurídicos que se presentarán próximamente en lo que respecta a la IA, es la valuación del impacto psicológico que ésta tiene a gran escala sobre la población de internautas. Muchos de los conflictos jurídicos que se han presentado en distintas partes del mundo por el uso de IA, tienen en común el desarrollo de una confianza excesiva en la plataforma, por parte del usuario, que quizá lo lleva a generar expectativas desmedidas, o incluso una dependencia emocional con ésta, sobre todo cuando la IA emula a una persona real (Chatbot). En el caso de Workday, por ejemplo, el impacto de la plataforma sobre los candidatos no solamente puede generar un acto discriminatorio, sino que el rechazo reiterado y sistemático de las postulaciones, simulando una revisión humana cuidadosa, también puede tener un impacto emocional en el usuario.
Desde luego, la solución no sería prohibir la IA, pero sí se podría obligar a sus desarrolladores a publicar advertencias claras, en específico cuando simulan que se trata de una inteligencia humana.
Cortesía de El Economista
Dejanos un comentario: