Este estudio confirma que la IA es perfecta para resolver miles de problemas, pero falla si cambias un detalle mínimo de su entorno

Las noticias sobre inteligencia artificial (IA) se han vuelto cotidianas, pues es una de las innovaciones tecnológicas más populares en la actualidad. Su impacto es tal que, por ejemplo, Microsoft ya la ha integrado en el ecosistema de Xbox. Sin embargo, a pesar de los avances y de su creciente adopción, hay un hecho indiscutible: hasta ahora, ningún modelo ha logrado comprender realmente cómo funciona el mundo.

De acuerdo con el portal TechSpot, los modelos de IA generativa no son capaces de entender por completo las reglas de sistemas complejos. Aunque pueden ofrecer respuestas aparentemente convincentes y algunas de las principales figuras tecnológicas sostienen que la IA terminará por reemplazar a millones de empleos al automatizar diversas tareas, varios investigadores advierten sobre la importancia de conocer sus límites.

Los académicos señalan que los grandes modelos de lenguaje (LLM) no piensan, sino que operan mediante la predicción de palabras basadas en patrones textuales. Debido a esto, pueden generar respuestas erróneas, aun cuando parezcan bien estructuradas.

Un análisis del contexto

Con el objetivo de analizar los alcances y limitaciones de esta tecnología, un grupo de investigadores del MIT diseñó diversas pruebas para evaluar si la IA generativa realmente comprende el mundo.

El estudio se enfocó en modelos como GPT-4 y su capacidad para interpretar el contexto en distintos escenarios. Por ejemplo, se le plantearon problemas específicos, como la navegación en la ciudad de Nueva York y el desarrollo de estrategias en el juego de Othello (o Reversi). Aunque la IA fue capaz de proporcionar direcciones precisas y movimientos válidos dentro del juego, su desempeño se vio afectado ante el más mínimo cambio en las condiciones iniciales.

Al modificar ligeramente un mapa de Nueva York con desvíos en ciertas calles, los modelos analizados sugirieron rutas imposibles de seguir, lo que evidenció su incapacidad para adaptarse a un entorno cambiante con reglas dinámicas.

En cifras, con el cierre del 1% de las calles, la precisión de sus respuestas cayó del 100% al 67%, lo que demostró su limitada capacidad de ajuste ante situaciones imprevistas. Este hallazgo refuerza la idea de que, aunque la inteligencia artificial pueda simular un grado de comprensión, aún no logra interpretar el mundo con la flexibilidad de un ser humano.

Aun así, estos sistemas seguirán evolucionando. Con cada nueva versión, su capacidad para procesar información y adaptarse a distintos entornos mejorará, lo que permitirá respuestas más precisas y ajustadas a la realidad.

Cortesía de Xataka



Dejanos un comentario: