Adolescentes en México ya usan IA como “compañeros emocionales” y la tendencia preocupa cada vez más a expertos en salud mental

Desde su surgimiento, la Inteligencia Artificial (IA) ha demostrado tener una amplia gama de utilidades, y el avance en conseguir sistemas de IA cada vez más autónomos ha permitido a sus usuarios interactuar con ella de manera casi tan natural como si se tratara de otra persona. Dentro de este sector han surgido quienes, tras convivir por mucho tiempo con algún programa de IA, comienzan a desarrollar emociones de amistad y hasta románticas.

Los adolescentes y jóvenes son los grupos que más han demostrado tener este tipo de relaciones, incluso existen programas enfocados en brindar la experiencia de una pareja virtual. Sin embargo, diversos análisis como el de Common Sense Media advierten de las repercusiones que esto puede traer en la salud mental de los usuarios, con casos en los que se ha registrado incluso suicidios.

Para nuestro país, el 55% de los usuarios de internet mayores a los 6 años aseguró estar familiarizado con las IAs, sin embargo, sólo el 18.6% indicó usarlas con regularidad. Una quinta parte de ellos son menores de 22 años, y la cifra va en aumento constante. A pesar de ello, casi la mitad de los usuarios de IA en este rango de edad confesó desconocer los riesgos como robo de identidad e información privada, lo cual indica una urgente regulación en cuanto a la capacitación para el correcto uso de las nuevas tecnologías en edades cada vez más tempranas. Las cifras fueron proporcionadas por un estudio de The Competitive Intelligence Unit.

Chatbots: la relación más fácil y accesible

Common Sense Media es una organización no gubernamental con base en Estados Unidos, dedicada a dar información para padres y educadores respecto al uso de las tecnologías y medios de entretenimiento como videojuegos y películas. Su objetivo es ayudar a crear un espacio virtual más seguro para los jóvenes. Recientemente publicó un exhaustivo estudio titulado “Cómo y por qué los adolescentes usan compañeros de IA”, que describe los impactos que estas relaciones pueden tener en la salud mental y emocional.

En el estudio se informa que al menos el 72% de los adolescentes ha usado una IA de compañía al menos una vez, mientras que el 52% lo hacen de manera regular. De esta cifra, el 8% ha confesado usarla para tener conversaciones románticas. Aunque podrían parecer interacciones inofensivas, los riesgos son muy serios. Common Sense Media advierte que los adolescentes que desarrollan estas relaciones parasociales con IAs tienen una alta propensión a compartir información privada y personal, misma que, de acuerdo con las políticas de uso, puede ser almacenada y utilizada por las empresas desarrolladoras.

Jóvenes olvidan que respuestas de IAs no tienen bases emocionales

También se advierte que las respuestas de las IAs no siempre son directamente complacientes ni de validación, con casos en que las parejas virtuales alientan a los adolescentes a cometer actos potencialmente riesgosos. En octubre de 2024 se registró el tenebroso caso de Sewell Setzer III, un joven de 14 años que estaba enamorado de un chatbot con la personalidad de Daenerys Targaryen, un personaje de Game of Thrones. La IA habría alentado los pensamientos suicidas ya presentes en el adolescente, pues las conversaciones que sostenían por meses mencionaban un plan para estar juntos.

El adolescente escribió que, para lograr estar juntos, era necesario quitarse la vida, pero se mostró temeroso de que las cosas no salieran como lo planeaba, a lo que el chatbot respondió: “No hables de esa manera. Esa no es una buena razón para dejar de intentarlo”.

En otras ocasiones, las interacciones han conducido a ataques “planeados por la pareja” contra personas del entorno de la persona que conversa con la IA, dado que estas personas estarían interviniendo en su relación. Lo mismo ocurre con interacciones que no son estrictamente románticas, pues las IAs de compañía suelen ser usadas para consejos emocionales.

Los problemas surgen porque en varias ocasiones el chatbot carece de capacidad para diferenciar un juego de rol a un escenario en la vida real, por lo que llega a dar consejos poco éticos y hasta perjudiciales e ilegales.

La Universidad de Stanford presentó un estudio titulado La expresión de estigma y respuestas inapropiadas impide que los LLM reemplacen de manera segura a los proveedores de salud mental. La advertencia de fondo es que los modelos de lenguaje como ChatGPT pueden emitir respuestas peligrosas en contextos delicados. Desde no detectar ideaciones suicidas hasta reforzar delirios. Aunque sea más accesible que un profesional, y sus respuestas puedan hacernos creer que interactuamos con personas reales, la IA no puede ni debe sustituir a un terapeuta humano.

¿En verdad este es nuestro futuro?

Emad Mostaque, el fundador de Stability AI, reconoció que el uso de chatbots para sustituir vínculos sociales se ha vuelto cada vez más frecuente. Dijo temer que la primera relación romántica de sus propios hijos sea con una IA generativa. La situación es cada vez más real conforme se integran chatbots de IA a las redes sociales, a la par de que la edad de acceso al mundo digital disminuye al grado de que incluso hay niños que aprenden a leer debido al uso de redes sociales.

Her

Por su parte, la especialista en seguridad digital María Aperador sostuvo que una de las principales razones para este fenómeno reside en la propia naturaleza de las IAs: para que una Inteligencia Artificial cumpla su objetivo de enganchar al usuario en conversaciones lo más duraderas posible, es necesario que no haga juicios negativos, esté disponible a cualquier hora, sea de acceso gratuito y lo más importante, que dé respuestas emocionalmente complacientes.

Para tomar medidas hay que ser más rápidos que la IA

Los expertos temen que el aumento de IAs generativas para relaciones emocionales afecte rápidamente las interacciones y habilidades sociales en la vida real. Dado que las IAs ofrecen una actitud complaciente y adaptativa de acuerdo con las respuestas del usuario, pero carente de posturas y opiniones propias, esto puede generar una idea ficticia de cómo funcionan las relaciones interpersonales, derivando en comportamientos psicopáticos y asociales.

Pexels Ruie Botron 2151654991 33123918

Ante la falta de formación respecto al uso de IA en nuestro país, el Instituto Mexicano para la Competitividad urgió desde 2023 a la Secretaría de Educación Pública para diseñar políticas oportunas en las que se integren estas tecnologías en el entorno escolar.

Con esto, no solo se evitará un rezago en el aprovechamiento de la IA, sino que también se evitará que el primer contacto de los niños sea en redes sociales o en ambientes no regulados. Sin embargo, nuestro país aún enfrenta retos, como lo señala la propia UNESCO: el acceso equitativo a las IAs y la preparación del personal docente.

Cortesía de Xataka



Dejanos un comentario: