Tecnologia
Un Proyecto Manhattan para dominar la IA: el plan de Trump contra China – El Orden Mundial

Un presidente caprichoso con un proyecto para desarrollar una tecnología todopoderosa con la que imponer su dominio frente a su archienemigo. No es un argumento de una película de Hollywood, sino la propuesta que ha hecho una comisión del Congreso de Estados Unidos al Gobierno de Donald Trump. La idea parece simple: “Establecer y financiar un programa similar al Proyecto Manhattan dedicado a la carrera por alcanzar y adquirir una capacidad de Inteligencia Artificial General (IAG)”.
La propuesta es la primera de 32 recomendaciones del informe de 2024 de la Comisión para la Revisión Económica y de Seguridad entre Estados Unidos y China (USCC, por sus siglas en inglés). En apenas dos párrafos, recomienda al Congreso aportar la financiación necesaria a las principales empresas de inteligencia artificial, computación en nube y centros de datos, ordenar al secretario de Defensa que califique de máxima urgencia para la defensa nacional a los elementos del ecosistema de IA, y otorgar una amplia autoridad de contratación al Ejecutivo. Tan solo un día tras su llegada, la primera ya se había cumplido: medio billón de dólares para infraestructura de IA, una iniciativa “histórica”, según Trump.
Se trata del proyecto Stargate, anunciado el pasado 21 de enero. El dinero no lo pondrá el Gobierno estadounidense, sino un consorcio creado por OpenAI, Oracle y Softbank junto con MGX (una firma de inversión de Emiratos Árabes Unidos). A estas se unen como socios tecnológicos Nvidia, Microsoft y Arm, una empresa británica de semiconductores. ¿Cuál es el objetivo? El mismo que propone la USCC como Proyecto Manhattan para la IA: lograr una inteligencia artificial general (IAG). La declaración de intenciones es obvia en el comunicado del proyecto: “Todos esperamos seguir construyendo y desarrollando la IA (y, en particular, la IAG) para el beneficio de la humanidad. Creemos que este nuevo paso es fundamental en el camino”.
Pero, ¿qué es la IAG? ¿Es científicamente posible y técnicamente viable? ¿Qué haría falta para desarrollar un sistema así, y a qué precio? Según la USCC, la IAG es un sistema “tan bueno o mejor que las capacidades humanas en todos los dominios cognitivos”, que “usurparía las mentes humanas más agudas en cada tarea”. Sería un salto cualitativo con respecto a la IA actual, que precisamente tiene sus orígenes en el Proyecto Manhattan original, del que salió la bomba atómica. Lograr la IAG sería, en este caso, el equivalente al descubrimiento de la fisión nuclear.
‘Make America Great AgAIn’
La USCC es una comisión bipartidista del Congreso de Estados Unidos que informa anualmente sobre las implicaciones de la relación económica con China para la seguridad nacional. Es un grupo que tiende a adoptar una postura agresiva con respecto a Pekín y cuyas propuestas se tildan como radicales. Así lo explica Scott Bade, analista de Eurasia Group, quien señala que la perspectiva de que China desarrolle una IAG y de que lo haga antes de Estados Unidos es bastante alarmante para muchos en Washington y Silicon Valley. Desde esta perspectiva, lograr ese objetivo antes que el gigante asiático sería clave.
El experto en geotecnología cree que la propuesta refleja cómo buena parte del sector tecnológico está enmarcando su trabajo desde una perspectiva de competencia con China. Lo consideran un argumento ganador para conseguir financiación del Gobierno estadounidense. De hecho, la propuesta de la USCC no es la primera. Los aliados de Trump plantearon una idea similar el pasado julio, según un documento al que dijo haber tenido acceso el Washington Post. Se trata de una copia de una orden ejecutiva de IA en ciernes, que lanzaría una serie de “Proyectos Manhattan” para desarrollar tecnología militar y revisar de inmediato las regulaciones “innecesarias y gravosas».
La orden ejecutiva incluye, según el periódico, una sección titulada “Hacer que Estados Unidos sea el primero en IA”, muy al estilo del lema Make America Great Again (MAGA) de Trump, que propone devolver al país su grandeza. También menciona la creación de agencias lideradas por la industria para evaluar los modelos de IA y proteger los sistemas de los adversarios extranjeros. Un claro signo de la dirección favorable a la autorregulación y a las reivindicaciones de los inversores y empresas de Silicon Valley.
El comunicado sobre Stargate no hace apelación directa a China, pero sí el propio Trump en el anuncio de proyecto, señalando la competición con el gigante asiático por el liderazgo mundial en la carrera de la IA. El lanzamiento vino precedido, el mismo día de su investidura como presidente de Estados Unidos, de la derogación de una orden ejecutiva de Joe Biden que buscaba reducir los riesgos de la IA para los consumidores, los trabajadores y la seguridad nacional, incluyendo los riesgos económicos, de salud pública, químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados.
Superinteligente y sobrehumana
La IAG se ha convertido casi en una cuestión de fe, que divide a los tecnólogos y a la comunidad científica. De un lado, quienes piensan que es posible una superinteligencia sobrehumana capaz de realizar cualquier tarea mejor que un humano, con conciencia propia. Del otro, quienes lo descartan por completo.
Los del primer saco equiparan la IAG a la superinteligencia. En él se encuentran figuras como el nobel de Física Geoffrey Hinton o el CEO de OpenAI, Sam Altman, quien a menudo infla las expectativas sobre la superinteligencia y después se contradice diluyéndolas y definiendo la IAG de forma más ruda y no como una superinteligencia. Estos emplean palabras como “creo que”, “podría ser”, “confío en que” para referirse al potencial desarrollo de una tecnología superior. A dedo, calculan que llegaría en esta década, sin ninguna base científica más allá de su supuesta autoridad, que usan para inflar la burbuja de la IAG.
En el otro bloque están los realistas o “escépticos”, que consideran la IAG como sistemas con capacidades de nivel humano en un amplio espectro de habilidades cognitivas. Yann LeCun, compañero de Hinton en el premio Turing (los Nobel de la IA) y el profesor emérito de la Universidad de Nueva York Gary Marcus están en este grupo. También lo está el español Ramón López de Mántaras, que en 2011 se convirtió en el primer investigador de fuera de Estados Unidos en recibir el Premio Robert S. Engelmore, uno de los más importantes en el campo de la IA. López de Mántaras equipara la IAG a una IA con sentido común y capacidad multitarea, pero no necesariamente superior a la humana. Sobre las bases de lo posible, asegura que la idea de alcanzar la superinteligencia es “completamente absurda” y “carente de sentido”.
La neurocientífica computacional Sophia Sanborn, de la Universidad de California en Santa Bárbara, también se muestra crítica con la idea de superinteligencia, que califica de mera propaganda. “En cierto sentido, todo el mundo quiere ver cómo se desarrolla la novela de ciencia ficción de sus fantasías”, asegura. Sin embargo, el procesamiento y la experiencia humana, la motivación y el impulso para hacer algo no están en la IA, y probablemente no podrán estar nunca. “Hasta donde sabemos, podría ser algo únicamente biológico. La IA está fundamentalmente limitada por sus creadores, y creo que la gente se olvida de esto. Hay una especie de salto de lógica que hace pensar en la idea de una superinteligencia que va a tomar el control y a doblegarnos a su voluntad, cuando en realidad no tiene voluntad. Solo los humanos la tenemos”, afirma la investigadora.
¿Una IA con cuerpo?
Dejando de lado la superinteligencia, ¿cómo y cuándo se podría desarrollar una IAG? Algo está claro: como ya advirtió Marcus, no será a través de la IA generativa ni de los grandes modelos de lenguaje (LLM) que impulsan los ChatGPT de turno. Hasta Altman lo ha reconocido.
Entonces, ¿cómo podría hacerse? Según López de Mántaras, habría varios estadíos. Primero, desarrollar sistemas que puedan representar los fundamentos más básicos del conocimiento humano: tiempo, espacio, causalidad y conocimiento básico de los objetos físicos y de los seres humanos y sus interacciones. Luego, incorporar estos conocimientos en una arquitectura cognitiva que incluya ·poderosas técnicas de razonamiento· (deducción, inducción, abducción, analogía, sentido común) y usar dichas técnicas para resolver problemas en situaciones imprevistas, inciertas y cambiantes. Además, sería necesario conectar el razonamiento con la percepción, la acción y el lenguaje.
Finalmente, la piedra angular: desarrollar un sistema de aprendizaje que utilice el conocimiento y las capacidades cognitivas para relacionar lo nuevamente aprendido con lo anteriormente aprendido. Para ello debería usar todas las fuentes de información posibles: interacción con el mundo, interacción con las personas, lectura, visionado de vídeos, etcétera. De ahí que, desde esta perspectiva, sea imprescindible dotar a la IA de un cuerpo multisensorial.
Nuria Oliver, otra española archipremiada y reconocida en el campo, coincide en la necesidad de corporeidad para que pueda darse una IAG. Aun así, no hay nada que lo garantice. Es una tarea, dicen, “extraordinariamente difícil” y que ha tendido a subestimarse durante décadas. Ni siquiera sabemos cómo funciona el cerebro, ni la conciencia, ni hay una definición consensuada de inteligencia.
Más allá de esto, se imponen otros límites, como el tiempo y el número de muestras necesarias para desarrollar modelos informáticos capaces de realizar tareas de complejidad humana en el mundo real. Es lo que dice un estudio de la Universidad de Radboud (Países Bajos), que critica que en las aproximaciones actuales a la IAG son “burdas subestimaciones” de la verdadera complejidad del problema de cómo lograr un sistema con capacidades humanas en cualquier escenario, fuera del laboratorio.
Iris van Rooij, la autora principal de esta investigación, asegura que crear una IAG con cognición a nivel humano es “imposible”. “Algunos argumentan que lograrlo es posible en principio, que es sólo cuestión de tiempo antes de que tengamos ordenadores que puedan pensar como lo hacen los humanos. Pero el principio no es suficiente para que sea realmente factible. Nuestro artículo explica por qué perseguir este objetivo es una tarea inútil y un desperdicio de los recursos de la humanidad”, afirma.
La cognición, o la capacidad de observar, aprender y obtener nuevos conocimientos, son “increíblemente difíciles” de replicar a través de la IA en la escala a la que ocurre en el cerebro humano. En su artículo, los investigadores presentan un experimento mental que permite desarrollar una IA en circunstancias ideales. “Incluso si le damos al ingeniero de IA todas las ventajas y todos los beneficios de la duda, no hay ningún método concebible para lograr lo que prometen las grandes empresas tecnológicas”, asegura Van Rooij. Y eso sin entrar a hablar de la superinteligencia.
Publicar artículos en profundidad para entender cómo funciona el mundo es posible gracias a quienes apoyan la divulgación internacional.
Un consumo eléctrico sin precedentes
El camino hacia la AGI conlleva retos y costes sociales, económicos y medioambientales. Uno de los desafíos más críticos es su alto consumo energético, que requiere de una infraestructura inexistente. Así lo reconoce Jacob Helberg, comisionado de la USCC y asesor del CEO de la tecnológica Palantir (una de las que podrían salir beneficiadas con el Proyecto Manhattan para la IA), que acaba de ser nombrado por Trump como subsecretario de Estado de Crecimiento Económico, Energía y Medioambiente. Este análisis lo confirma el centro de investigación Epoch AI, que en un estudio señala cuatro principales limitantes para el crecimiento de la IA: la energía, los chips, los datos y el ‘muro de latencia’, es decir, el límite de velocidad en los cálculos.
En efecto, las necesidades de electricidad para desarrollar la IA no tienen precedentes. Gigantes como Samsung, Google, Microsoft, Facebook consumen más que países enteros. No sólo energía, sino también agua para enfriar los centros de datos que propulsan el entrenamiento de los algoritmos. Las emisiones de carbono de Microsoft han aumentado cerca de un 30% desde 2020, y su consumo de agua aumentó un 34% en sólo un año: el del lanzamiento de ChatGPT. En ese 2022, la huella hídrica de Google creció un 20%.
En Estados Unidos, los centros de datos son una de las diez industrias más consumidoras de agua. Sólo uno de estos centros puede consumir al día la misma cantidad de agua que una ciudad de entre 10.000 y 50.000 habitantes. Estados Unidos es el país con más centros de datos, de lejos: más de 5.000 (casi la mitad del total global), seguido por Alemania, con algo más de quinientos. España ocupa el puesto dieciséis, con unos 143 centros de datos.
En el caso de Stargate, se espera que cada centro de datos consuma al menos cincuenta megavatios de energía, una cantidad “asombrosa” según Emil Sayegh, director ejecutivo de la consultora tecnológica PGI. Al igual que Helberg y Epoch AI, señala que este es el reto principal: “La red energética de Estados Unidos está al límite en muchas regiones, y las demandas de energía constantes y masivas de los sistemas de IA podrían hacerla quebrar”. Además, la naturaleza intermitente de las renovables las hace menos viables como fuentes de energía primaria para estas instalaciones, que funcionan las veinticuatro horas del día. Sayegh señala que se necesitarán incentivos sólidos para las energías renovables, algo poco probable dados los planes de Trump de revertir políticas de Biden para la transición energética. Luego está la cuestión nuclear, que ofrece una solución estable pero podría suponer un problema para SoftBank, cuyo fundador y presidente ha mostrado su postura antinuclear desde el desastre de Fukushima en 2013.
Epoch AI señala otros obstáculos. Uno es el temporal: las plantas de gas natural y solares se pueden construir en menos de dos años, mientras que la energía nuclear o la hidroeléctrica requieren plazos más largos, y actualmente no hay plantas nucleares a gran escala en construcción en Estados Unidos. Además, las líneas de transmisión para conectar las plantas de energía a los centros de datos suelen tardar unos diez años en completarse, con retos a nivel de la red. Otra posible limitación son las restricciones políticas y regulatorias que bloquean o retrasan la construcción de plantas de energía y de infraestructura de apoyo.
En cuanto al coste de la construcción de redes de energía, podría ser asequible si la energía se pudiera aumentar a escala al precio marginal actual. Sin embargo, a escalas muy grandes, alrededor de los cien gigavatios, requeriría un “esfuerzo sin precedentes”, según Epoch AI. Por último, estos planes colisionarían con los objetivos de las grandes tecnológicas desarrolladoras de IA de ser neutrales en carbono en 2030, incluso pese a los esfuerzos por reavivar centrales nucleares. Varias de ellas están anunciando el apoyo a la construcción de reactores, y plantean crear campus de hasta cinco gigavatios, algo no visto hasta la fecha.
La conclusión del informe de Epoch AI —anterior al anuncio de Stargate— es que es probable que para 2030 se pueda mantener un buen ritmo de escala para la IA. Para ello se debería ampliar enormemente la infraestructura energética, construir nuevas plantas de energía y redes de gran ancho de banda para conectar centros de datos distribuidos geográficamente, y expandir de forma significativa la capacidad de producción de chips. En cuanto a los límites de latencia o de velocidad en los cálculos, no está claro si podrán superarse. El análisis es más optimista en cuanto al hambre de datos de la IA: confía en que buena parte de la solución sea usar datos sintéticos (creados por la propia IA), algo que ya ha dado serios problemas: defectos irreversibles que conducen al colapso de los modelos de IA.
“Carrera suicida” con Trump al mando
Otras preocupaciones en la carrera por el dominio en IA afectan a la seguridad del país y a sus potenciales riesgos existenciales. Quienes sí creen que la superinteligencia es posible, están muy preocupados por la propuesta del nuevo Proyecto Manhattan para la IA. Entre ellos, el Future of Life Institute. Su presidente, el investigador del Instituto Tecnológico de Massachusetts (MIT) Max Tegmark, asegura que el pulso por la IAG es una “carrera suicida” que podría “minar masivamente” la seguridad nacional de Estados Unidos.
Este instituto —al que el magnate Elon Musk ha donado millones de dólares— apoya tesis alarmistas de los riesgos existenciales de la IA. De hecho, fue el impulsor de la famosa carta que en 2023 pedía pausar el desarrollo de modelos de IA avanzados. Su premisa es que, si tecnologías como la IA no se gestionan adecuadamente, podrían empujarnos al borde de la extinción. Uno de sus fundadores, el multimillonario estonio Jaan Tallinn, cofundador de Skype, apoya las corrientes del altruismo efectivo y el largoplacismo. Unas teorías ampliamente criticadas como forma de distracción de los problemas actuales de la IA y de sus riesgos reales, y venidas a menos tras el encarcelamiento de uno de sus principales apoyos, el empresario Sam Bankman-Fried, fundador del fraudulento negocio de criptomonedas FTX.
Tegmark considera que una IAG podría mejorar y replicarse a sí misma “a un ritmo aterrador”, y que sería impredecible e incontrolable. López de Mántaras descarta esta posibilidad. “Estoy de acuerdo en que posiblemente no sea una buena idea tratar de desarrollar una IAG, pero no por esos motivos. Mis temores tienen que ver con peligros mucho más tangibles que pueden darse sin necesidad de que estos sistemas sean superinteligentes”. Se refiere a problemas que llevan años emergiendo en los sistemas de IA: sesgos, discriminación, manipulación, desinformación, asimetrías de poder, conductas monopolísticas y la creciente huella de carbono de esta tecnología, entre otros.
Estos impactos no sólo podrían exacerbarse con una IAG, sino que su desarrollo en el marco de una guerra tecnológica cambia de términos y plantea la renuncia a una IA centrada en el ser humano. Sería una IA al servicio del poder —dice López de Mántaras— y de unos poderosos impredecibles como Trump, Musk o el presidente chino Xi Jinping. Cree que la IA pasará a ser un arma en manos de gobiernos y grandes tecnológicas, compitiendo en una nueva carrera armamentística, y permitiendo su despliegue de forma más autónoma y sin supervisión humana ni regulación, algo que considera un gran riesgo.
Según el comunicado sobre Stargate, la infraestructura que planean construir “garantizará el liderazgo estadounidense en IA, creará cientos de miles de puestos de trabajo estadounidenses y generará enormes beneficios económicos para todo el mundo”. ¿Hay un plan para redistribuir la riqueza y cumplir con esa promesa? Viniendo de Trump, es altamente improbable. ¿Los puestos de trabajo serán de calidad? Este negocio requiere personal de mantenimiento, logística, técnicos eléctricos, ingenieros y gestores de proyecto. ¿Cuál será el balance entre trabajos de cuello azul y de cuello blanco? Por el momento, son preguntas sin respuesta. En cuanto a la seguridad nacional, el anuncio asegura que Stargate “proporcionará una capacidad estratégica para proteger la seguridad nacional de Estados Unidos y sus aliados”.
Otro momento ‘Sputnik’
Imponerse en la carrera por la IAG es uno de los principales argumentos de quienes piden aumentar el gasto en torno al desarrollo de la IA. David Wade, exjefe de gabinete del Departamento de Estado, sostiene que Estados Unidos ha llegado a su momento Sputnik. Alude a la carrera espacial entre Estados Unidos y la Unión Soviética durante la Guerra Fría, y en específico al lanzamiento del satélite Sputnik en 1957 que dio entonces el liderazgo a los soviéticos. Fue un revulsivo para el país norteamericano, que finalmente ganó la batalla por el liderazgo espacial, con el simbólico alunizaje de Neil Armstrong.
“La IA es el campo de batalla geopolítico más crítico de este siglo, y las potencias revisionistas lo saben. Las advertencias están a la vista de todos: China está explotando el ecosistema de innovación estadounidense para alinear sus inversiones tecnológicas con sus ambiciones estratégicas más amplias y se ha fijado el objetivo de liderar el mundo en IA para 2030”, escribe Wade. Y cita una frase atribuida a Vladímir Putin: “Quien se convierta en líder en esta esfera será el gobernante del mundo”.
Es el mismo argumento que usa OpenAI para reivindicar que Estados Unidos invierta más en los tres recursos que determinarán el futuro de la IA: chips, datos y energía. La empresa, además, forma parte del grupo de trabajo bipartidista sobre IA en el Congreso, que también incide en la necesidad de aventajar a China en esta materia, con grandes inversiones para desarrollar los modelos de IA más sofisticados.
A dichos modelos se refieren a menudo como Frontier AI (‘IA de frontera’). Es un término ambiguo, que a veces se usa para referirse a sistemas de IA avanzados ya existentes y otras como sinónimo de lo que está por venir, la próxima frontera: la IAG. Sin embargo, invertir en capacidades de IA para competir como superpotencia es una cosa, y perseguir específicamente el desarrollo de una IAG es otra muy distinta, aunque muchos intenten presentarlas como dos caras de la misma moneda, como hace Stargate.
Desregulación y poder tecnoestatal
La carrera por el liderazgo en IA también se usa para justificar la no regulación de estas tecnologías. Recientemente, el senador republicano Ted Cruz escribió una carta al fiscal general en la que afirma que los Gobiernos europeos y las organizaciones dedicadas a la seguridad de la IA “están implicados en actividades políticas ilegales en Estados Unidos”. La carta sostiene que seguir un enfoque influido por Europa pondrá al país norteamericano en desventaja en su competencia con China.
Esta narrativa tiene dos problemas principales: el tono belicista de la escalada por el desarrollo de la IAG y la falsa dicotomía entre regulación e innovación y avance tecnológico. Al contrario, como muestra Anu Bradford, catedrática de Derecho y Organización Internacional de la Universidad Columbia, la regulación promueve innovación, tanto directamente —como la propiedad intelectual— como indirectamente, al aportar seguridad jurídica o facilitar la competencia, entre otras. Crea costes de cumplimiento, pero también oportunidades de negocio, como ha sucedido mediante el Reglamento General de Protección de Datos (RGPD) europeo, con nuevas empresas, servicios y productos para proteger la privacidad.
La profesora de Columbia destaca un hecho histórico: la Unión Europea no empezó realmente a regular las plataformas digitales hasta 2010, pero todas las grandes empresas tecnológicas con sede en Estados Unidos se fundaron antes de 2010. Entonces, ¿qué efecto tuvo realmente la regulación en el hecho de que no emergieran en Europa? Bradford apunta a otros motivos: la inexistencia de un verdadero mercado único digital, acceso al capital fragmentado y demasiado dependiente de los bancos y la falta de financiadores institucionales (no hay nada comparable con la ARPA estadounidense). También la mayor penalización y el estigma social de la bancarrota, y la falta de retención del talento y dependencia del talento extranjero.
Las señales claras de Stargate
Siendo realistas, a Trump le da igual la evidencia al respecto. En lugar de construir marcos regulatorios para el desarrollo de la IA, se están desmantelando los mecanismos de supervisión, con medidas como la derogación de una orden ejecutiva de Biden sobre riesgos y seguridad de la IA. La desregulación es algo que llevan tiempo demandando las grandes tecnológicas, cuyos cabecillas no se despegaron del presidente en su toma de posesión. “Esta fusión del poder estatal y el tecnológico no es sólo otro cambio en el panorama: es un desafío fundamental para la gobernanza democrática en la era digital”, escribe Taylor Owen, director fundador del Centro de Medios, Tecnología y Democracia de la Universidad McGill.
Además, la señal con el anuncio de Stargate y el nombramiento de Helberg es clara: la IA tendrá su Proyecto (o proyectos) Manhattan en Estados Unidos. El excomisionado de la USCC, además, ha sido uno de los principales defensores de la prohibición de TikTok por la amenaza de China para la seguridad nacional. Otros nombramientos también apuntan hacia el enfrentamiento con China, como el de Marco Rubio, nuevo secretario de Estado. Una semana antes de la investidura de Trump, Rubio advirtió ante el Comité de Relaciones Exteriores del Senado que, sin cambios rápidos y sustanciales de política, China seguirá siendo la “mayor amenaza” a la prosperidad de Estados Unidos en este siglo.
Aunque la mayoría de los miembros del gabinete de Trump han expresado recelos contra China, en la Administración hay una mezcla de detractores y de empresarios que se han beneficiado de las políticas comerciales con el gigante asiático. El primero de ellos es Elon Musk, líder del nuevo Departamento de Eficiencia Gubernamental, que previsiblemente tratará de templar las aguas. De hecho, ya ha cuestionado la viabilidad financiera del proyecto Stargate.
Con todo, Stargate representa un punto de inflexión en la carrera tecnológica global. No sólo por su ambición de alcanzar una IAG, sino por las profundas implicaciones políticas, económicas, sociales y medioambientales que conlleva. Desde su concepción como una competencia geopolítica con China, hasta los desafíos prácticos de su implementación, el proyecto plantea cuestiones fundamentales sobre el equilibrio entre el desarrollo tecnológico y sus riesgos inherentes.
Además, los esfuerzos por alcanzar la superinteligencia y dominar la IA, en un contexto de rivalidad internacional y desregulación, pueden acentuar desigualdades, tensiones globales y riesgos para la sostenibilidad. Más allá de las promesas, Stargate ilustra cómo la fusión del poder estatal y tecnológico puede moldear no sólo el futuro de la IA, sino también las dinámicas de poder en el siglo XXI, dejando abiertas preguntas críticas sobre el impacto en la gobernanza democrática y los valores humanos fundamentales.