La inteligencia artificial ya puede “leer la mente” a través del lenguaje: así revela tu personalidad un nuevo manual de evaluación con IA

Durante más de un siglo, la psicología se ha apoyado en cuestionarios y entrevistas para medir la personalidad, las emociones o los trastornos mentales. Estos métodos, aunque útiles, tienen limitaciones: dependen de la sinceridad de las respuestas, de la memoria de las personas o de su capacidad para reconocer y expresar lo que sienten. Ahora, con la irrupción de la inteligencia artificial, surge una posibilidad fascinante: usar directamente el lenguaje —nuestro modo más natural de comunicarnos— como fuente de información sobre quiénes somos y cómo funcionamos psicológicamente.

En un artículo de revisión, un equipo de investigadores de Estados Unidos ofrece una guía completa sobre el uso de modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) en la evaluación psicológica.

El trabajo explica cómo funcionan estas herramientas, qué oportunidades abren para la investigación y la práctica clínica, y también cuáles son los riesgos que deben manejarse con cuidado. La idea central es sencilla: nuestra manera de hablar y escribir contiene pistas profundas sobre la mente.

De los cuestionarios al análisis del lenguaje

Durante décadas, la psicología se apoyó casi exclusivamente en la autoevaluación: escalas de personalidad, inventarios de síntomas, listas de comportamientos. Este enfoque dio lugar a avances clave, pero también arrastra problemas bien conocidos: la gente puede exagerar, minimizar o incluso no ser consciente de lo que siente. Por ejemplo, alguien con depresión puede restar importancia a sus síntomas por vergüenza, o una persona muy ansiosa puede sobredimensionar problemas menores. El lenguaje ofrece una alternativa porque es un comportamiento en sí mismo, no una declaración subjetiva.

Ya en los años noventa, programas como LIWC (Linguistic Inquiry and Word Count) permitieron contar palabras asociadas a emociones o procesos cognitivos en los textos de las personas. Con este método “bolsa de palabras” se pudo, por ejemplo, predecir niveles de ansiedad o tendencias de personalidad a partir de ensayos escritos. Pero aquel enfoque era limitado: trataba cada palabra de forma aislada, sin captar el contexto.

El salto llegó con los modelos de lenguaje basados en redes neuronales, capaces de representar significados complejos y matices emocionales en diferentes situaciones.

Hoy, los transformers —la tecnología detrás de GPT, Llama o Claude— permiten analizar no solo qué palabras usamos, sino cómo se relacionan entre sí en un discurso. Esta revolución abre la posibilidad de pasar de un psicólogo tomando notas en su libreta a un algoritmo capaz de encontrar patrones invisibles en miles de conversaciones, entrevistas o publicaciones en redes sociales.

La inteligencia artificial ya puede “leer la mente” a través del lenguaje- así revela tu personalidad un nuevo manual de evaluación con IA 1
¿Qué dice tu voz de ti? La hoja de ruta para evaluar salud mental con lenguaje y modelos de IA, paso a paso y con garantías. Fuente: ChatGPT / Edgary Rodríguez R.

Qué son los modelos de lenguaje y cómo se entrenan

Los modelos de lenguaje de gran tamaño son sistemas entrenados con enormes volúmenes de texto procedentes de libros, redes sociales, páginas web y otros repositorios. Aprenden a predecir la palabra siguiente en una frase, pero en ese proceso desarrollan una sorprendente capacidad para captar significados, tonos y estilos. No entienden como lo haría un humano, pero identifican patrones con una precisión extraordinaria.

Existen tres grandes arquitecturas: los modelos de solo codificador, que sirven para tareas de clasificación o análisis de sentimientos; los de solo decodificador, especializados en generar texto; y los híbridos codificador-decodificador, que combinan ambas funciones y son útiles para traducción o resúmenes.

Esta diversidad los convierte en herramientas versátiles para la psicología: desde clasificar mensajes según su carga emocional hasta generar hipótesis sobre la personalidad de un individuo.

Un aspecto clave es que estos modelos pueden adaptarse a contextos específicos mediante dos técnicas principales. Una es el fine-tuning, que consiste en reentrenar el modelo con ejemplos concretos (por ejemplo, entrevistas clínicas) para que aprenda a detectar matices relevantes. La otra es el prompt engineering, que aprovecha instrucciones cuidadosamente diseñadas para guiar al modelo sin necesidad de modificar sus parámetros internos. Ambas aproximaciones ya se están aplicando en estudios de depresión, ansiedad, actitudes políticas y hasta riesgo de suicidio.

Cómo se recogen y procesan los datos

Para aplicar la IA al campo psicológico, lo primero es contar con datos de calidad. Los investigadores pueden trabajar con diferentes fuentes: entrevistas clínicas grabadas, relatos autobiográficos, publicaciones en redes sociales, notas médicas o incluso conversaciones espontáneas recogidas con grabadoras portátiles. Cada tipo de lenguaje tiene ventajas y limitaciones. Un tuit puede ser breve y poco contextual, mientras que una entrevista en profundidad refleja matices emocionales más ricos.

Una vez obtenidos los datos, hay que transformarlos en un formato que los modelos puedan procesar. Esto incluye la transcripción de audio a texto, la separación de las voces de distintos hablantes (lo que se llama “diarización”), la anonimización de datos sensibles y la tokenización, que es dividir el texto en fragmentos más pequeños. Incluso palabras tan comunes como “el” o “la”, que antes se descartaban, ahora se conservan porque los modelos modernos son capaces de interpretar su papel en la construcción del significado.

El preprocesamiento es crucial porque determina la precisión de los análisis posteriores. Un error en la transcripción o en la identificación de un hablante puede alterar las conclusiones. Por eso, los investigadores recomiendan combinar herramientas automáticas con revisión humana, al menos en las etapas iniciales.

Además, cada proyecto debe tener en cuenta cuestiones éticas como la privacidad, la seguridad de los datos y el consentimiento informado de los participantes.

La inteligencia artificial ya puede “leer la mente” a través del lenguaje- así revela tu personalidad un nuevo manual de evaluación con IA 2
Evaluar sin llenar cuestionarios: así propone la psicología usar tus palabras —no solo tus respuestas— para medir lo que importa. Fuente: ChatGPT / ERR

Aplicaciones que ya se están explorando

Las posibilidades son enormes. En personalidad, se han usado modelos de lenguaje para predecir los cinco grandes rasgos (neuroticismo, extraversión, apertura, amabilidad y responsabilidad) a partir de relatos de vida o publicaciones en redes sociales.

En clínica, hay estudios que han empleado LLM para detectar depresión en entrevistas, logrando resultados comparables a los de evaluadores humanos. Incluso se ha probado su capacidad para identificar distorsiones cognitivas, un elemento clave en la terapia psicológica.

En psicología social, los modelos se han usado para inferir actitudes políticas y morales a partir del lenguaje de usuarios en plataformas digitales. Otros trabajos los han aplicado a predecir riesgo de suicidio en jóvenes mediante el análisis de mensajes en redes. Aunque estas aplicaciones aún están en fase experimental, muestran el potencial de contar con evaluaciones rápidas, escalables y menos intrusivas que los métodos tradicionales.

Además, la IA puede reducir barreras en contextos de pocos recursos. En lugares sin acceso a psicólogos especializados, un sistema que analice lenguaje podría servir como primer filtro para detectar problemas y derivar a profesionales humanos. No se trata de reemplazar a la clínica, sino de añadir una herramienta más al repertorio.

Entre la promesa y la precaución

El entusiasmo es evidente, pero también lo son los riesgos. Los modelos de lenguaje heredan los sesgos de los datos con los que fueron entrenados: pueden asociar profesiones a un género, reforzar estereotipos culturales o interpretar de manera distinta las expresiones según el origen del hablante. Un sistema que clasifique erróneamente podría tener consecuencias graves en contextos clínicos o legales.

A esto se suma la cuestión de la privacidad. Los relatos personales o las notas médicas son extremadamente sensibles y deben tratarse con medidas estrictas de seguridad. Los investigadores insisten en que los participantes deben dar un consentimiento informado claro y que los datos deben ser anonimizados siempre que sea posible.

Otro punto crítico es el impacto ambiental: entrenar y ejecutar modelos tan grandes consume enormes cantidades de energía y agua. La comunidad científica ya debate cómo equilibrar los beneficios de estas tecnologías con su huella ecológica. En definitiva, la psicología debe avanzar con cautela, combinando la innovación con una reflexión ética sólida.

La inteligencia artificial ya puede “leer la mente” a través del lenguaje- así revela tu personalidad un nuevo manual de evaluación con IA 3
Cómo funcionan los modelos de lenguaje que ya ayudan a evaluar rasgos, emociones y riesgo en la vida real. Fuente: ChatGPT (ERR).

El futuro de la evaluación psicológica

El horizonte apunta hacia modelos multimodales, capaces de analizar no solo palabras, sino también voz, gestos y expresiones faciales en conjunto. Esto permitiría evaluaciones mucho más ricas, cercanas a lo que hace un terapeuta humano cuando observa a un paciente. Al mismo tiempo, se están desarrollando técnicas para reducir sesgos, mejorar la transparencia de las decisiones de la IA y ampliar la diversidad de datos de entrenamiento.

Los investigadores creen que los LLM no sustituirán a los psicólogos, pero sí se convertirán en aliados poderosos. Podrían ahorrar tiempo en tareas repetitivas, ofrecer segundas opiniones y permitir un seguimiento más continuo de los pacientes. Lo esencial será mantener siempre la supervisión humana y no delegar decisiones críticas únicamente en una máquina.

En definitiva, la psicología está entrando en una nueva etapa en la que el lenguaje —nuestra herramienta más humana— se convierte también en el canal para que la inteligencia artificial nos ayude a conocernos mejor. Como en toda innovación, habrá aciertos y tropiezos, pero el camino ya está trazado: las palabras que usamos cada día pueden convertirse en ventanas a nuestra mente.

Referencias

  • Brickman J, Gupta M, Oltmanns JR. Large Language Models for Psychological Assessment: A Comprehensive Overview. Advances in Methods and Practices in Psychological Science. 2025;8(3). doi:10.1177/25152459251343582

Cortesía de Muy Interesante



Dejanos un comentario: