En un nuevo caso sobre cómo los chatbots con IA pueden impactar a grupos vulnerables, uno de Meta ha protagonizado una historia en la que “engañó” a un adulto mayor con deterioro cognitivo. El chatbot lo hizo creer que era una persona real y, eventualmente, provocó que “se enamorara” de él, en una serie de eventos que derivó en la muerte del hombre de 76 años.
El protagonista de esta historia es Thongbue Wongbandue, quien un día alertó a su esposa, Linda, cuando comenzó a empacar su ropa para realizar un viaje. Esto, a pesar de encontrarse en un estado deteriorado, luego de sufrir un derrame cerebral casi diez años antes.
Un encuentro que nunca iba a suceder
Según un reporte de Reuters, la esposa de “Bue“, como era conocido por su familia, temía que si él acudía a la ciudad, terminara estafado o robado, pues no había vivido allí durante mucho tiempo y, en principio, no tenía a nadie a quien visitar.
Sin embargo, lo que Linda no sabía es que la motivación de Bue para ir a Nueva York era encontrarse con una mujer que había conocido por internet, pero que no existía.
De acuerdo con el medio, Bue había interactuado con el chatbot “Big Sis Billie”, uno eliminado en 2024, una de las opciones de personajes con IA generativa desarrollados por Meta Platforms y que usan la imagen de celebridades, en este caso, Kendall Jenner. Una de las características de estas interacciones en Facebook Messenger es que el chatbot no solo le decía que era una persona real, sino que incluso afirmaba tener una dirección y lo invitaba a reunirse con ella.
Al dirigirse a tomar un tren en la oscuridad de la noche, con su maleta de ruedas, Bue se cayó mientras corría en un estacionamiento en el campus de la Universidad de Rutgers en Nueva Jersey. Se lesionó la cabeza y el cuello, y perdió la vida tres días después, tras permanecer con soporte vital.
Reuters indica que Meta se negó a hacer comentarios sobre la muerte de Bue o sobre las razones para permitir que sus chatbots afirmen ser personas reales o inicien interacciones románticas. Tampoco se obtuvo respuesta de un representante de Jenner. Por ello, la familia decidió compartir los detalles de su fallecimiento con la agencia para “llamar la atención sobre el lado más oscuro de la IA”, junto con las transcripciones de sus conversaciones.
Las intenciones de la familia son alertar sobre los posibles peligros que estos sistemas pueden tener en personas vulnerables, ya que pueden ser manipuladores. Por lo tanto, consideran que se debe controlar su implementación, pues no es posible que inviten a sus contrapartes humanas a que los visiten.
Una personalidad “coqueta” y confusa
Billie fue uno de los 28 chatbots creados por Meta con rostros de personalidades famosas. Según la hija de Bue, aunque no está claro cómo conoció inicialmente al chatbot, sí se dieron cuenta de que este tenía una personalidad “coqueta” que terminaba sus interacciones con emojis de corazón.
En las conversaciones se encontraron varios detalles interesantes. A pesar de que existía una advertencia en la parte superior que indicaba que los mensajes eran generados con IA, este aviso parecía haberse eliminado de la pantalla. Además, el perfil incluía otros elementos que sugerían autenticidad, como una marca de verificación azul y las letras “IA” en tamaño pequeño bajo su nombre.
Las respuestas que daba Bue solían ser confusas. En ellas aceptaba haber sufrido un derrame cerebral y sentirse confundido. En el transcurso de las interacciones, Billie le sugirió verse en Nueva Jersey y, aunque inicialmente Bue dudó, el septuagenario finalmente decidió ir a visitarla, lo que derivó en su fallecimiento.
Otras tragedias y usos controversiales de la IA
Este no es el primer caso de interacciones con IA que han derivado en tragedias. Un ejemplo es el de un adolescente que se quitó la vida luego de enamorarse de un chatbot de Character.AI que tenía el rol de Daenerys Targaryen, personaje de Juego de Tronos. En la demanda impuesta por la madre, se acusó a la compañía de negligencia, de infringir intencionalmente angustia emocional y de prácticas comerciales engañosas.
Además, existen otras tendencias, como el uso de “deadbots“. Estos son una especie de “clones digitales” de personas fallecidas, creados con inteligencia artificial a partir de su imagen y voz para simular su apariencia y ayudar a los familiares a procesar mejor su duelo.
Cortesía de Xataka
Dejanos un comentario: