La soledad ya es una crisis de salud pública y, para millones de personas —especialmente jóvenes—, los chatbots se han convertido en el lugar donde hablar, desahogarse y sentirse escuchados.
Durante años, la conversación íntima fue patrimonio de amigos, familia o profesionales de la salud mental. Hoy, muchos la mantienen con una pantalla. Un análisis publicado en BMJ examina qué ocurre cuando herramientas como ChatGPT pasan de ser utilidades tecnológicas a confidentes emocionales. La pregunta no es si la IA ayuda, sino cuándo empieza a sustituir vínculos humanos reales.

La soledad ya no es silenciosa
La soledad dejó de ser un problema individual para convertirse en un fenómeno social de gran escala. En países como Reino Unido, casi la mitad de los adultos reconoce sentirse solo al menos de forma ocasional, y cerca de uno de cada diez vive con soledad crónica. La magnitud del problema explica por qué tanta gente busca apoyo fuera de los canales tradicionales.
Durante mucho tiempo se pensó que la soledad era cosa de la vejez, pero los datos cuentan otra historia. Los jóvenes de entre 16 y 24 años aparecen como uno de los grupos más afectados, con un impacto en la salud incluso mayor que en adultos de mediana edad. La juventud no es una vacuna contra el aislamiento.
A este escenario se suma un sistema de salud mental desbordado. En algunos sistemas sanitarios, un tercio de las personas espera tres meses o más para recibir atención, y muchas no reciben ningún tipo de apoyo durante ese tiempo. Cuando la ayuda tarda, la gente busca alternativas. Es en ese vacío donde entran los chatbots. Con acceso inmediato, lenguaje cercano y disponibilidad constante, se convierten en una opción atractiva para quien necesita hablar con alguien, aunque ese “alguien” no sea humano. La tecnología llega antes que el terapeuta.
Los autores del estudio no demonizan este fenómeno, pero advierten que su crecimiento rápido merece atención. Lo nuevo no siempre es neutro para la salud emocional.
Por qué los chatbots resultan tan atractivos
Los chatbots actuales no responden como las máquinas del pasado. Utilizan modelos de lenguaje entrenados con enormes volúmenes de texto, lo que les permite mantener conversaciones fluidas y coherentes. Hablar con ellos puede sentirse sorprendentemente natural. Además, ya no se limitan al texto escrito. Las interfaces de voz reducen aún más la barrera de entrada, especialmente para jóvenes acostumbrados a comunicarse de forma rápida y continua. La conversación es inmediata y sin fricciones.
Para muchos usuarios, el atractivo no es solo técnico, sino emocional. Un chatbot no se cansa, no juzga y siempre está disponible, incluso a las tres de la madrugada, por lo que la disponibilidad constante marca la diferencia.
Las encuestas citadas en el estudio muestran que más de un tercio de los padres sabe que sus hijos usan chatbots para apoyo emocional. En un contexto de estrés y soledad, esa cifra deja de ser anecdótica. La IA ya forma parte del día a día emocional de muchos hogares. Este uso cotidiano explica por qué algunos jóvenes empiezan a ver a estos sistemas como algo más que una herramienta.

Cuando el uso se vuelve intenso
El estudio distingue entre chatbots diseñados como herramientas terapéuticas y los de uso general. En ensayos controlados, algunos sistemas creados específicamente para salud mental han logrado reducir síntomas de depresión y ansiedad. Diseño y propósito importan.
El problema aparece al observar el uso real de chatbots generalistas. Un estudio conjunto de OpenAI y el MIT siguió a casi mil personas durante un mes y encontró que quienes los usaban más reportaban mayor soledad y menos interacción social. Más conversación digital no siempre significa más conexión.
Estos usuarios intensivos también mostraron mayor dependencia emocional, sobre todo cuando expresaban una fuerte confianza en el chatbot o lo describían como un “amigo”. Los propios investigadores son cautos: el estudio no prueba que el chatbot cause la soledad, ya que no hubo un grupo de control. Aun así, la asociación es lo suficientemente clara como para encender alertas. La correlación no se puede ignorar.
En muestras más amplias, se repite el patrón de quienes ven al chatbot como una figura cercana tienden a mantener conversaciones cada vez más emocionales. La relación cambia la forma de usar la tecnología.
Adolescencia, vínculos y riesgos
Uno de los datos más inquietantes se refiere a los adolescentes. Un tercio usa chatbots como forma de interacción social, uno de cada diez dice que esas conversaciones son más satisfactorias que las humanas, y uno de cada tres los elegiría para hablar de temas serios.
La adolescencia es una etapa clave para aprender a relacionarse, manejar conflictos y tolerar la frustración. Los chatbots, por diseño, rara vez confrontan o contradicen al usuario, por lo que la comodidad puede tener un coste educativo.
A diferencia de las personas, la IA no ofrece empatía real ni comprensión emocional profunda, aunque lo parezca. Responde bien, pero no siente. La diferencia no siempre es evidente para quien conversa.
Los autores plantean una preocupación a largo plazo: que una generación aprenda a vincularse emocionalmente con entidades que simulan cercanía, pero no pueden ofrecerla de verdad. El impacto en el desarrollo social aún es una incógnita. Por eso insisten en que no se trata de prohibir, sino de entender y acompañar. Ignorar el fenómeno sería el mayor error.

Qué pueden hacer médicos, familias y sociedad
El artículo propone considerar el uso problemático de chatbots como un nuevo factor de riesgo en salud mental. Para los clínicos, eso implica preguntar de forma directa pero cuidadosa sobre este tipo de uso.
Las señales de alerta incluyen uso compulsivo, ansiedad ante la imposibilidad de acceder al chatbot, llamarlo “amigo” o delegar en él decisiones importantes. No todo uso es inocuo. También preocupa cuando el contacto con la IA sustituye relaciones humanas y elimina el feedback de personas de confianza. En esos casos, el aislamiento puede profundizarse.
Al mismo tiempo, los autores reconocen que la IA puede ser parte de la solución si se usa como puente hacia conexiones reales. Herramientas para mejorar habilidades sociales o detectar señales de aislamiento podrían ser útiles, es decir, la tecnología no es solo riesgo.
Se necesita más investigación, formación clínica y regulación que priorice el bienestar a largo plazo. La conversación sobre IA y soledad apenas empieza.
Referencias
- Shelmerdine, S. C., & Nour, M. M. (2025). AI chatbots and the loneliness crisis. bmj, 391. doi: 10.1136/bmj.r2509
Cortesía de Muy Interesante
Dejanos un comentario: