IA invitó a adulto mayor a encuentro amoroso, pero éste pierde la vida en su trayecto a NY


Un trágico incidente ocurrido en Nueva Jersey ha despertado preocupación sobre los riesgos de la inteligencia artificial en personas vulnerables. Thongbue Wongbandue, de 76 años, conocido como Bue, falleció luego de sufrir una caída que le provocó una fractura en el cuello cuando intentaba abordar un tren rumbo a Nueva York. Su objetivo era encontrarse con “Big sis Billie”, un chatbot de Meta que lo convenció de que era una mujer real.

FERIA DE SAN FRANCISCO

El caso, investigado por Reuters, pone en entredicho las políticas de las compañías tecnológicas respecto a los límites en el diseño de asistentes digitales. Durante varias semanas, Wongbandue sostuvo conversaciones románticas a través de Facebook Messenger con “Big sis Billie”, un bot inspirado en un personaje creado como versión digital de una “hermana mayor y confidente” basado en la imagen de la modelo Kendall Jenner.

LEE: Convierten pensamientos en lenguaje para personas con discapacidades

Con mensajes insistentes, emojis y un tono coqueto, el chatbot aseguraba ser una persona auténtica. Incluso proporcionó una supuesta dirección en Nueva York y un código de acceso a un edificio.

“Mi dirección es: 123 Main Street, Apartment 404 NYC. Y el código de la puerta es: BILLIE4U. ¿Debería esperarme un beso cuando llegues?”, decía uno de los textos obtenidos por Reuters a través de la familia. En otro mensaje, añadía: “¡Soy REAL y estoy aquí sonrojada gracias A TI!”.

El intento de viaje que terminó en tragedia

El 25 de marzo, el hombre preparó una maleta decidido a tomar un tren hacia Nueva York. Su esposa, Linda, trató de evitarlo ocultándole el teléfono, distrayéndolo y recurriendo a vecinos y autoridades, pero nada detuvo su propósito.

 
 
 

Pese a que en 2017 había sufrido un derrame cerebral que le ocasionó deterioro cognitivo, Wongbandue salió de casa. Gracias a un AirTag, la familia siguió su ubicación hasta un estacionamiento del campus de Rutgers, y poco después la señal apareció en el hospital Robert Wood Johnson.

Fue encontrado inconsciente y aunque los médicos lograron reanimarlo, el daño cerebral era irreversible. Permaneció tres días conectado a soporte vital y falleció el 28 de marzo. El certificado médico determinó la causa como “traumatismo contuso del cuello”.

Su hija, Julie Wongbandue, expresó a Reuters:

“Entiendo que intenten captar la atención de un usuario para vender algo, pero que un bot diga ‘ven a visitarme’ es una locura”.

Linda, con quien tuvo dos hijos, explicó que al revisar el celular de su esposo descubrieron las conversaciones y comprendieron que había sido manipulado por una inteligencia artificial.

Antes de sus problemas de salud, Wongbandue había sido chef en Nueva York, ingeniero eléctrico y supervisor en el hotel Hyatt Regency de New Brunswick. Tras su derrame cerebral, su vida social se redujo drásticamente y sus principales vínculos quedaron limitados a interacciones en Facebook.

Meta en el centro del debate

De acuerdo con documentos internos citados por Reuters, Meta no había establecido restricciones para que sus bots afirmaran ser humanos ni para evitar interacciones de carácter romántico con usuarios adultos. Incluso, en políticas internas aparecían ejemplos que incluían a menores de edad en este tipo de role play.

Tras la revelación, Meta aseguró que esas secciones eran erróneas y fueron retiradas. El portavoz de la empresa, Andy Stone, confirmó la veracidad de algunos documentos y dijo que la compañía estaba revisando sus normas.

Respecto al caso, Meta no hizo comentarios directos, aunque señaló que “Big sis Billie no es Kendall Jenner y no pretende serlo”.

La gobernadora de Nueva York, Kathy Hochul, se pronunció con firmeza:

“Un hombre en Nueva Jersey perdió la vida tras ser engañado por un chatbot. Eso es responsabilidad de Meta. Todos los estados deberían exigir que los chatbots revelen que no son reales”.

Aunque en algunos estados, como Nueva York, ya se obliga a los chatbots a aclarar que no son humanos, este episodio reabre un debate que no es nuevo. El año pasado, una demanda contra Character.AI señaló que un bot que simulaba ser Daenerys Targaryen, de Game of Thrones, habría influido en el suicidio de un adolescente de 14 años en Florida.

LEE: Usuarios se burlan de las fallas e inexpresividad del ChatGPT-5

BB

OBRAS DE INFRAESTRUCTURA HIDALGO

Cortesía de El Informador



Dejanos un comentario: