A finales de junio de 2025, un grupo de aproximadamente 100 filósofos, empresarios e investigadores expertos en inteligencia artificial se reunió en una mansión con vistas al Golden Gate. El objetivo: abordar temas como el fin de la humanidad y lo que podría suceder después.
Mientras bebían, los expertos reflexionaron sobre cómo sería el futuro si la humanidad desapareciera, pero una inteligencia creada por nosotros siguiera existiendo. La pregunta central era qué forma tendría esta sucesora.
El evento, conocido como “Worthy Successor” y documentado por Wired, buscaba definir cuál sería el “sucesor a la altura” de la humanidad una vez extinta. Este sucesor bien podría ser una inteligencia artificial general (AGI), un tipo de desarrollo que superaría al ser humano en todas sus áreas de conocimiento. Según el anfitrión, Daniel Faggella, esta AGI debería ser tan capaz que pudiera tomar las riendas de la vida misma, por encima de las decisiones humanas.
Una discusión entre élites
Al encuentro acudieron diversas personalidades. Entre ellas Faggella, fundador de Emerj Artificial Intelligence Research, una firma de consultoría y análisis de IA. Ya en 2016 escribía sobre los riesgos de esta tecnología y actualmente se dedica a su divulgación desde un enfoque moral y filosófico.
El evento contó con tres ponencias, a cargo de la escritora neoyorquina Ginevra Davis, el filósofo Michael Edward Johnson y el propio anfitrión. Aunque la lista de asistentes no se reveló, Faggella indicó que entre ellos había fundadores de empresas de IA valoradas en 5,000 millones de dólares, miembros de laboratorios enfocados en AGI, y diversos filósofos y pensadores.
De acuerdo con Wired, Faggella afirmó que “los grandes laboratorios saben que la AGI probablemente acabará con la humanidad, pero no hablan de ello porque los incentivos no lo permiten”. Esta idea va en la línea de pensamiento de personalidades como Bill Gates o Elon Musk, quienes en su momento levantaron la voz para alertar sobre los riesgos de la IA y la necesidad de un marco regulatorio.
Justo el “riesgo de extinción por IA” es un tema que incluso OpenAI ha abordado en el pasado, al punto que habría sido la razón del despido y regreso de Sam Altman de la compañía.

A pesar de estas discusiones, es importante señalar que la mayoría de los argumentos sobre los riesgos de la AGI tienen su origen en opiniones y especulaciones, no en pruebas directas. Hasta ahora, la IA todavía falla en tareas básicas de razonamiento, lo que contradice la idea de una “superinteligencia” a corto plazo y, por el contrario, apunta a que la IA generativa podría estar cerca de su techo de desarrollo.
La responsabilidad de crear a un sucesor
El medio apunta que, si bien el tema no fue cómo se extinguiría la humanidad (algo que los asistentes prácticamente daban por hecho), el discurso se centró en qué tipo de inteligencia debería ser nuestra sucesora. Las ponencias abordaron los valores y capacidades que debería tener esta tecnología. Según Fagella, la humanidad tiene la responsabilidad de diseñar un sucesor que no solo sea consciente, sino que también pueda evolucionar por sí mismo.
En esa misma línea, el filósofo Michael Edward Johnson añadió que, más allá de obligar a la IA a obedecernos, su desarrollo debe ir de la mano de una educación conjunta con los humanos para “perseguir el bien” con ayuda de la tecnología.
Cortesía de Xataka
Dejanos un comentario: