OpenAI implementará una función para que ChatGPT avise a los usuarios cuando lleven demasiado tiempo en la plataforma. Según la compañía, la última medida para optimizar su chatbot no solo busca captar la atención de los usuarios, sino también ayudarles a usarlo de forma correcta.
La empresa dedicó una sección completa de su entrada de blog más reciente, titulada “Para qué estamos optimizando ChatGPT”, para abordar lo que considera un uso saludable de esta tecnología.
Según OpenAI, una actualización a principios de 2025 hizo que el modelo fuera “demasiado agradable”, pues a veces decía lo que parecía ameno en lugar de lo realmente útil. Dicho cambio fue revertido posteriormente, y la compañía utilizó la lección aprendida para mejorar la respuesta de la IA a largo plazo.
La compañía indica que la IA puede resultar “más perceptiva y personal” que otras tecnologías, una percepción común entre personas vulnerables que experimentan angustia ambiental o emocional.
Por ello, y con el objetivo de “ayudar a prosperar a los usuarios”, la empresa busca que el chatbot esté presente cuando estos tengan dificultades. Por ejemplo, ofrecerá guías para enfrentar desafíos personales, en lugar de tomar decisiones por ellos, y brindará apoyo para controlar el tiempo de uso.
Las mejoras para cuidar la salud de los usuarios
Por esto, OpenAI tiene algunos cambios en su chatbot.
Uno de los detalles más interesantes es que el chatbot ahora mostrará “recordatorios útiles” durante las sesiones largas para animar a los usuarios a tomar descansos. La compañía advierte que, de momento, ajustará la frecuencia y el modo en que aparecen estos avisos para que resulten útiles y naturales.
Además, OpenAI dice que ChatGPT está capacitado para responder “con honestidad fundamentada”. La empresa optimiza el modelo 4o para que detecte señales de delirio o dependencia emocional. Esto se complementa con herramientas adicionales para identificar mejor la angustia mental o emocional, de modo que el chatbot pueda responder adecuadamente y dirigir a las personas a recursos basados en evidencia cuando sea necesario.
ChatGPT también tiene formas de ayudar en lo que la compañía llama “desafíos personales”. Ante preguntas como “¿Debería terminar con mi novio?”, el chatbot no debe responder directamente. En su lugar, debe ayudar al usuario a analizar la situación a través de preguntas que le permitan sopesar los pros y los contras. OpenAI anuncia que pronto implementará mejoras en este comportamiento para apoyar en decisiones personales importantes.
Más optimizacioens en camino
De forma adicional, la compañía trabaja en colaboración con expertos para mejorar la respuesta de ChatGPT en “momentos críticos”, como cuando alguien muestra signos de angustia mental o emocional.
Por ejemplo, colabora con más de 90 médicos en más de 30 países, entre ellos psiquiatras, pediatras y médicos generales, para crear rúbricas personalizadas que permitan evaluar conversaciones complejas.
La empresa también ha colaborado con investigadores y profesionales clínicos de la Interacción Persona-Computadora (HCI). Su objetivo es que evalúen cómo la compañía identifica comportamientos preocupantes para así perfeccionar los métodos de evaluación y someter a prueba las protecciones de sus productos. Además, un grupo asesor de expertos en salud mental, desarrollo juvenil y HCI garantiza que se apliquen las últimas investigaciones y mejores prácticas en esta área.
Cortesía de Xataka
Dejanos un comentario: