El uso de la tecnología con propósitos que puedan causar daño es uno de los principios de inteligencia artificial que Google ha eliminado de sus lineamientos. Anteriormente, la compañía se comprometía a mantener ciertas pautas éticas en el desarrollo e implementación de la IA, pero esta postura ha cambiado.
El ajuste en sus lineamientos fue detectado por The Washington Post. Google señalaba diversas restricciones en torno al desarrollo de la inteligencia artificial, especificando que no diseñaría ni implementaría tecnologías en ciertos ámbitos. En su lugar, la compañía aseguraba que trabajaría únicamente en objetivos con beneficios sociales.
Previamente, las limitaciones establecidas por Google se encontraban en una sección denominada “Usos que no le daremos a la IA”, donde se indicaba que la empresa no desarrollaría ni implementaría inteligencia artificial en determinados entornos.
Entre otras cosas, Google se comprometía a no desarrollar tecnologías que pudieran causar daño general ni aquellas que violaran principios legales internacionales o derechos humanos. Además, especificaba su negativa a crear armas o tecnologías con el propósito de causar daño, así como herramientas de vigilancia que excedieran las normas aceptadas a nivel global.
No obstante, el cambio más significativo en la página de Google es la eliminación de su compromiso de no implementar IA en vigilancia, armamento y tecnologías diseñadas para causar daño. De acuerdo con el reporte de The Washington Post, esta modificación refleja una revisión en sus principios fundamentales.
Las justificaciones de la compañía
En una nueva publicación en su blog, Google argumenta que esta actualización responde a la necesidad de alinear sus principios con la innovación, la colaboración y el desarrollo responsable de la inteligencia artificial, aunque sin establecer compromisos explícitos.
Según la compañía, este cambio está relacionado con “la competencia global en curso por el liderazgo de la IA en un panorama geopolítico cada vez más complejo”. Asimismo, Google considera que empresas, gobiernos y organizaciones deben trabajar en el desarrollo de una inteligencia artificial que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional.
Por esta razón, Google afirma que sus nuevos principios se centran en tres ejes: innovación, desarrollo e implementación responsables. Aunque no menciona explícitamente su postura sobre el uso de IA en armas o vigilancia, sí enfatiza la necesidad de un enfoque responsable en su desarrollo, pruebas e iteraciones. También resalta la importancia del progreso colaborativo para aprovechar el potencial positivo de la IA.
Más contratos militares
Si bien en versiones anteriores de sus principios Google aseguraba que no desarrollaría armas de inteligencia artificial, en el pasado la compañía ha participado en contratos militares, como Project Maven, una iniciativa del Pentágono en la que se utilizó IA para analizar imágenes de drones.
Cabe destacar que Google no es la única empresa que ha firmado contratos gubernamentales en este ámbito. Tecnologías como Llama de Meta, ChatGPT de OpenAI y Claude AI de Anthropic pueden utilizarse bajo ciertas condiciones para propósitos militares.
Cortesía de Xataka
Dejanos un comentario: