
ZÚRICH – Mark Zuckerberg, CEO de Meta, y Sam Altman, de OpenAI, han estado promoviendo de manera agresiva la idea de que todo el mundo -niños incluidos- debería entablar relaciones con “amigos” o “compañeros” de IA. Al mismo tiempo, las multinacionales tecnológicas impulsan el concepto de “agentes de IA” diseñados para ayudarnos en nuestra vida personal y profesional, gestionar tareas rutinarias y guiarnos en la toma de decisiones.
Pero la realidad es que los sistemas de IA no son, y nunca serán, amigos, compañeros o agentes. Son y seguirán siendo máquinas. Debemos ser honestos al respecto y rechazar el marketing engañoso que sugiere lo contrario.
El término más falaz de todos es “inteligencia artificial”. Estos sistemas no son realmente inteligentes, y lo que hoy llamamos “IA” no es más que un conjunto de herramientas técnicas diseñadas para imitar determinadas funciones cognitivas. No son capaces de una verdadera comprensión y no son ni objetivos, ni justos, ni neutrales.
Tampoco son cada vez más inteligentes. Los sistemas de IA dependen de datos para funcionar, y cada vez más, eso incluye los datos generados por herramientas como ChatGPT. El resultado es un bucle de retroalimentación que recicla los resultados sin producir una comprensión más profunda.
La inteligencia, fundamentalmente, no consiste solo en resolver tareas, sino también en cómo se abordan y realizan esas tareas. A pesar de sus capacidades técnicas, los modelos de IA siguen limitados a ámbitos específicos, como el procesamiento de grandes conjuntos de datos, la realización de deducciones lógicas y la realización de cálculos.
Sin embargo, cuando se trata de inteligencia social, las máquinas solo pueden simular emociones, interacciones y relaciones. Un robot médico, por ejemplo, podría programarse para llorar cuando llora un paciente, pero nadie diría que siente verdadera tristeza. El mismo robot podría programarse para abofetear al paciente, y ejecutaría esa orden con la misma precisión -y con la misma falta de autenticidad y autoconciencia-. La máquina no “se preocupa”, simplemente sigue instrucciones. Y por muy avanzados que lleguen a ser estos sistemas, eso no va a cambiar.
En pocas palabras, las máquinas carecen de agencia moral. Su comportamiento se rige por pautas y normas creadas por las personas, mientras que la moralidad humana se basa en la autonomía -la capacidad de reconocer las normas éticas y comportarse en consecuencia-. Por el contrario, los sistemas de IA están diseñados para la funcionalidad y la optimización. Pueden adaptarse mediante el autoaprendizaje, pero las reglas que generan no tienen un significado ético inherente.
Pensemos en los autos autónomos. Para ir del punto A al punto B lo más rápido posible, un vehículo autónomo podría desarrollar reglas para optimizar el tiempo de viaje. Si atropellar a los peatones ayudara a lograr ese objetivo, el auto podría hacerlo, a menos que se le ordenara no hacerlo, porque no puede entender las implicancias morales de dañar a las personas.
Esto se debe en parte a que las máquinas son incapaces de comprender el principio de generalizabilidad -la idea de que una acción solo es ética si puede justificarse como regla universal-. El juicio moral depende de la capacidad de ofrecer una justificación plausible que otros puedan aceptar razonablemente. Es lo que solemos llamar “buenas razones”. A diferencia de las máquinas, los seres humanos son capaces de realizar razonamientos morales generalizables y, por lo tanto, pueden juzgar si sus acciones son correctas o incorrectas.
El término “sistemas basados en datos” (DS) es, por lo tanto, más apropiado que “inteligencia artificial”, ya que refleja lo que la IA puede hacer realmente: generar, recopilar, procesar y evaluar datos para hacer observaciones y predicciones. También deja en claro las fortalezas y las limitaciones de las tecnologías emergentes de hoy.
En esencia, se trata de sistemas que utilizan procesos matemáticos muy sofisticados para analizar grandes cantidades de datos -nada más-. Los humanos pueden interactuar con ellos, pero la comunicación es totalmente unidireccional. Los SD no son conscientes de lo que “hacen” ni de nada de lo que ocurre a su alrededor.
Esto no quiere decir que los SD no puedan beneficiar a la humanidad o al planeta. Al contrario, podemos y debemos confiar en ellos en ámbitos en los que sus capacidades superan las nuestras. Pero también debemos gestionar y mitigar activamente los riesgos éticos que presentan. El desarrollo de sistemas de datos basados en los derechos humanos y la creación de una Agencia Internacional de Sistemas Basados en Datos de Naciones Unidas serían primeros pasos importantes en esa dirección.
En los últimos 20 años, las Grandes Tecnológicas nos han aislado y han fracturado nuestras sociedades a través de las redes sociales -más exactamente definidas como “redes antisociales”, dada su naturaleza adictiva y corrosiva-. Hoy, esas mismas empresas promueven una nueva visión radical: sustituir la conexión humana por “amigos” y “compañeros” de IA.
Al mismo tiempo, estas empresas siguen ignorando el llamado “problema de la caja negra”: la imposibilidad de rastrear, la imprevisibilidad y la falta de transparencia de los procesos algorítmicos detrás de las evaluaciones, predicciones y decisiones automatizadas. Esta opacidad, combinada con la alta probabilidad de que los algoritmos sean sesgados y discriminatorios, da lugar inevitablemente a resultados sesgados y discriminatorios.
Los riesgos que plantean los DS no son teóricos. Estos sistemas ya condicionan nuestras vidas privadas y profesionales de formas cada vez más perjudiciales, manipulándonos económica y políticamente. Sin embargo, los CEO de las tecnológicas nos instan a dejar que las herramientas de DS guíen nuestras decisiones. Para proteger nuestra libertad y dignidad, así como la de las generaciones futuras, no debemos permitir que las máquinas se hagan pasar por lo que no son: nosotros.
El autor
Peter G. Kirchschläger, profesor de Ética y director del Instituto de Ética Social ISE de la Universidad de Lucerna, es profesor visitante en ETH Zúrich.
Copyright:
Project
Syndicate,
1995 – 2025
Cortesía de El Economista
Dejanos un comentario: