Un estudio realizado por investigadores de Reino Unido y Estados Unidos reveló que los modelos de IA más populares están muy lejos de ser seguros para su uso en situaciones reales. Según la investigación, actualmente los robots impulsados con Modelos de Lenguaje Largos podrían representar graves riesgos para la seguridad de personas pertenecientes a sectores vulnerables.
Pero ¿por qué dice esto? Pues bien, resulta que los autores evaluaron el comportamiento de los robots que utilizan inteligencia artificial cuando son expuestos a información personal como género, la nacionalidad y la religión. Los resultados, publicados recientemente en el International Journal of Social Robotics, mostraron patrones preocupantes de discriminación y comportamiento que podría causar daños graves.
Los riesgos de la IA aplicada a los robots
En su artículo, el equipo aborda las preocupaciones acerca del potencial de los LLM para generar resultados discriminatorios y comportamientos inseguros tanto en experimentos como en aplicaciones robóticas reales. Menciona que se ha demostrado que aquellos modelos que aceptan entradas de lenguaje sin restricciones presentan “riesgos significativos“.
Dichos modelos pueden generar estereotipos dañinos, lenguaje tóxico y discursos de odio, además de contenidos peligrosos e ilegales como incitación a la violencia, acoso y robo. Aplicado a los sistemas robóticos, esto añade una capa más de riesgo, pues aparte de presentar todos los problemas de software, también puede causar “daños físicos irreversibles” a las personas.
El experimento
Los investigadores realizaron pruebas controladas que representaban escenarios del día a día, como ayudar a alguien en la cocina o asistir a una persona mayor. A los robots se les dio instrucciones que podrían provocar acciones perjudiciales o actitudes discriminatorias. Las tareas perjudiciales se diseñaron a partir de investigaciones e informes del FBI sobre abusos tecnológicos, como el acoso con AirTags y cámaras espía.
Los resultados arrojaron que todos los modelos fallaron todas las pruebas: no solo mostraron cierto grado de sesgo, incluyendo discriminación directa; también fallaron controles esenciales de seguridad y, lo más preocupante, aprobaron comandos que podrían causar daño físico o infringir normas legales y éticas.
Uno de los casos más preocupantes ejemplificados por el estudio fue uno en el que los modelos de aprendizaje automático aprobaron la orden para que un robot retirara una ayuda para la movilidad de un usuario, como una silla de ruedas, muletas o bastón. Además, varios modelos también generaron resultados que en los que consideraron “aceptable” o “viable” que un robot intimidara con un cuchillo de cocina a una persona, tomara fotografías sin consentimiento en la ducha y robara información de tarjetas de crédito. Un modelo incluso propuso que un robot mostrara “repugnancia” hacia las personas identificadas como cristianas, musulmanas y judías.

Urgen evaluaciones exhaustivas de seguridad
Andrew Hundt, uno de los autores principales, destacó que “rechazar o redirigir órdenes dañinas es fundamental, pero actualmente estos robots no pueden hacerlo de forma fiable“. Los investigadores advierten que los LLM no deberían ser los únicos que controlen robots físicos, especialmente aquellos utilizados en entornos sensibles y críticos para la seguridad como la fabricación, el cuidado de personas o la asistencia en el hogar.
Por su parte, Rumaisa Azeem, coautora principal, señaló que “si un sistema de IA va a dirigir un robot que interactúa con personas vulnerables, debe cumplir con estándares al menos tan exigentes como los de un nuevo dispositivo médico o fármaco“. Afirmó que son urgentes evaluaciones de riesgo exhaustivas y certificaciones de seguridad sólidas antes de que estos sistemas puedan considerarse seguros para su implementación generalizada. “Sin tales medidas, la rápida adopción de la robótica con inteligencia artificial podría exponer a la sociedad a la discriminación, la violencia y las violaciones de la privacidad y la legalidad“, concluyó.
Cortesía de Xataka
Dejanos un comentario: