Kiosko y Más

Guerra, avaricia y tecnofascismo: la IA se quita la careta

Los nuevos acuerdos del Pentágono con las tecnológicas y el juicio de Elon Musk contra OpenAI tumban el discurso de la industria sobre una inteligencia artificial pensada para salvar a la humanidad

MANUEL G. PASCUAL

El juicio de OpenIA, por el que desfilan los grandes magnates del sector, los acuerdos de varias empresas con el Pentágono y el miedo del BCE al último modelo de Anthropic muestran la cara más tenebrosa de la IA.

A la inteligencia artificial (IA) cada vez le resulta más complicado proyectar una cara amable. El relato oficial que promueven las empresas que lideran esta tecnología es que ha llegado para mejorar el mundo. Prometen que aumentará las capacidades humanas, nos permitirá trabajar menos, facilitará tareas hasta ahora tediosas, revolucionará la ciencia, curará enfermedades, incluso resolverá la crisis climática. Pero esta semana, varios acontecimientos han aportado una buena dosis de realidad. El Banco Central Europeo (BCE) ha ordenado a la banca reforzar su ciberseguridad porque teme que el último modelo de Anthropic, que ha demostrado ser especialmente bueno detectando fallos de software, pueda causar estragos en el sector. En EE UU, Google rompió el martes su política antibelicista y firmó un acuerdo con el Pentágono para cederle sus modelos, que podrán ser usados para asuntos clasificados. El viernes, el Departamento de Guerra anunció que ese acuerdo se extendía a xAI, OpenAI, Amazon, Microsoft o Nvidia, entre otras. Todo eso mientras que el pasado lunes arrancó un juicio sobre OpenAI, la desarrolladora de ChatGPT, por el que desfilarán durante el próximo mes muchos tecnomagnates y que está dejando al descubierto la lucha de poder que subyace bajo sus proclamas para salvar el mundo con la IA.

En cinco días, ha quedado claro que la IA puede tumbar el sistema financiero mundial, que ya todas las big tech prestan sus servicios sin disimulo al mayor ejército del mundo y que esto no va de beneficiar a la humanidad, sino de enriquecer a sus dueños. Este punto es importante, no tanto por el fondo —nadie ha creído nunca que las desarrolladoras de IA fueran ONG— como por las formas. Las grandes compañías del sector se han esforzado en construir un relato que presenta esta tecnología como una fuerza de progreso imparable e inevitable.

Durante años, intentaron que no se les relacionara con el sector militar, con gobiernos autócratas ni con la desinformación. Ahora, la IA se quita la careta. El juicio a OpenAI está aireando los trapos sucios de algunos de los dueños de estas empresas, que también son las mayores del mundo. Los dos protagonistas del litigio, Elon Musk, cofundador de OpenAI y dueño de Tesla, SpaceX o X, y Sam Altman, director general de la primera, se han autoerigido como guías en una especie de misión civilizatoria.

No son los únicos. Aupados por un convulso contexto internacional donde la extrema derecha avanza por todo el mundo y con Donald Trump en la Casa Blanca como principal valedor, algunos tecnomagnates hasta publican manifiestos con su visión del mundo. Fue muy comentado el que sacó hace dos semanas Palantir, el mayor proveedor de herramientas de análisis de datos aplicadas a la vigilancia masiva del Pentágono, y que también tiene contratos, entre otros, con los ministerios de Defensa de España o el Reino Unido. En sus 22 puntos, el texto relativiza el valor de la democracia, hace un llamamiento a usar la IA como arma de guerra y defiende el control social o el tecnofascismo.

“El comportamiento de las grandes tecnológicas es consistente con lo que vienen haciendo desde hace años”, opina Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología. “El dueño de Meta, Mark Zuckerberg, ha exhibido camisetas con citas del Imperio Romano. OpenAI ha publicado artículos citando al Leviatán, de Thomas Hobbes. Lo que están haciendo es algo muy clásico en la historia de la filosofía política: desde Hobbes hasta John Locke o Jean-Jacques Rousseau, el modus operandi consiste en empezar describiendo lo que es el ser humano; luego, en función de ello, te dicen cómo es la buena sociedad y, en un tercer paso, cómo es posible crear esa sociedad con determinadas reglas políticas. Lo que hoy estamos viendo es eso: intentan integrarse en esa cronología del pensamiento histórico”.

Esta revisión del contrato social va más allá de la retórica. El inversor Peter Thiel, socio de Elon Musk en PayPal, presidente de Palantir y gurú de Silicon Valley, lleva un mes en Argentina. Su agenda no es pública, pero se sabe que mantiene encuentros con altos cargos del Gobierno de Javier Milei, probablemente para llevar a la práctica el manifiesto de su empresa. “El apoyo social a Milei está cayendo. Lo que ofrece Thiel a través de Palantir son tecnologías de control y vigilancia masiva personalizada. Todo apunta a que están trabajando para empezar a cruzar todas las bases de datos que tiene el Estado, pero también un montón de información a la que pueda acceder el servicio de inteligencia vía pinchazos telefónicos y solicitudes a las propias plataformas”, explica Cecilia Rikap, profesora de Economía del University College London.

Cantidades mareantes

Las tecnológicas invierten cantidades mareantes en desarrollar la IA. En los tres primeros meses de este año, Amazon, Google, Microsoft y Meta dedicaron unos 130.000 millones de dólares (110.900 millones de euros) a los centros de datos que alimentan y hacen posible la IA, según cifras recogidas por The New York Times. Eso significa que cada mes las tecnológicas se gastaron más dinero que todo el Proyecto Manhattan, que alumbró la bomba nuclear. Es un 70% más que el mismo periodo del año anterior.

Para que todo funcione, los centros de datos, el lugar donde se entrenan los modelos de IA y se ejecutan luego las aplicaciones resultantes, consumen cantidades cada vez mayores de energía que ponen a prueba el sistema.

En EE UU, se hablaba ya en la última etapa del demócrata Joe Biden de poner en marcha centrales nucleares de bolsillo para alimentar estas infraestructuras, cuyo consumo de agua para refrigerar los sistemas ha intensificado la sequía en algunas poblaciones.

¿Para qué se está usando toda esa capacidad de cómputo? Para facilitar la vida de los programadores, para traducir o escribir textos y, por supuesto, para hacer memes. Pero también para matar. “Desde tiempos del general Von Clausewitz [1780-1831], la toma de decisiones venía determinada por la misión, el terreno, el enemigo y los medios propios. Hoy todo eso se lo facilita al mando la IA, que incluso puede proponer posibles decisiones, lo que hasta ahora era labor de los Estados mayores”, describe Fernando Puell de la Villa, historiador, coronel reti

rado del Ejército y autor del libro Historia de la guerra: seiscientos años de enfrentamientos en Occidente (siglos XV-XXI) (Espasa).

El ejército estadounidense usó en Irán la IA para seleccionar un millar de objetivos militares en apenas 24 horas. O para diseñar la operación que acabó con la captura de Nicolás Maduro en Venezuela. Las fuerzas armadas israelíes fueron pioneras en este ámbito con Lavender, el algoritmo que usaron para decidir a quién bombardear en Gaza y que considera aceptable que, para matar a un alto cargo de Al Fatah o Yihad Islámica, mueran hasta un centenar de civiles. El Pentágono tendrá a su disposición a partir de ahora los modelos comerciales más potentes: desde ChatGPT, de OpenAI, hasta Gemini, de Google, pasando por la infraestructura de Microsoft y AWS (la filial de la nube de Amazon) o los avanzados microprocesadores de Nvidia.

“El acceso a un amplio abanico de capacidades de IA procedentes de todo el ecosistema tecnológico estadounidense dará a los combatientes las herramientas necesarias para actuar con confianza y proteger a la nación frente a cualquier amenaza”, dijo el viernes un portavoz del Pentágono.

El gran ausente en esta lista sigue siendo Anthropic, la desarrolladora de Claude o Mythos Preview, el modelo que tanto asusta al BCE. La empresa que dirige Dario Amodei se negó a compartir sin restricciones su código fuente con el Pentágono, lo que podría incluir el desarrollo de armas autónomas. Como castigo, Trump canceló todos sus contratos federales, cosa que, según fuentes consultadas por The New York Times, están ahora revisando en la Casa Blanca, donde ha causado mucha “impresión y preocupación” su modelo Mythos. Según alertó la propia compañía, es tan potente que puede descubrir en pocos minutos vulnerabilidades en el código fuente de sistemas operativos, navegadores o programas financieros que llevan décadas sin ser detectadas. Estos fallos son un caramelo para los ciberdelincuentes, un trampolín para que entren en sistemas ajenos.

La IA lleva años, o décadas, en el Pentágono, pero la diferencia es que, hasta ahora, la desarrollaba el Gobierno. Tras la irrupción de ChatGPT, Claude o Gemini, Trump ha decidido pasar el testigo a empresas comerciales. Incluso se le ha dado galones a directivos

Un reciente manifiesto de Palantir defiende el control social

Israel usó el algoritmo de Lavender para decidir a quién bombardear en Gaza

como Andrew Bosworth, jefe de producto de Meta, nombrado hace casi un año teniente coronel en la reserva. “Si el objetivo del uso de la IA es hacer que la guerra sea más caótica y devastadora, sin duda tendrá ese efecto. Si el objetivo es hacer que la guerra sea más precisa y menos peligrosa para la población civil, la IA podría tener la capacidad de reducir los errores en los conflictos, pero aún no se nos ha presentado ningún caso concreto en el que la IA generativa haya evitado errores en la guerra”, sostiene Arthur Holland, especialista en tecnología militar.

Mientras, en Oakland, el hombre más rico del mundo ha puesto el ventilador. Elon Musk cofundó OpenAI para tratar de romper el monopolio científico que entonces tenía Google en casi todos los frentes de la IA. Fue él quien puso a Sam Altman a dirigir la entidad no lucrativa, que más tarde se convirtió en empresa y que ahora se prepara para salir a Bolsa. Musk, que se fue de OpenAI y fundó su propia start-up del sector, xAI, pide 150.000 millones de dólares (128.000 millones de euros) de indemnización por el cambio de estatus legal que enriqueció a su pupilo. Altman, por su parte, alega que su mentor siempre supo que la única forma de hacer algo grande y escalar la tecnología era crear una empresa.

“Hasta cierto punto, esto es una batalla de egos, pero también es un juicio sobre si OpenAI debería cumplir su promesa de mantenerse como entidad sin ánimo de lucro y de trabajar por el bien de la humanidad, lo que claramente ya no hace”, opina Gary Marcus, profesor emérito de psicología y neurociencia en la Universidad de Nueva York. “No soy un gran fan de Musk, pero el mundo sería mejor si se obligase a OpenAI a perseguir su misión original”, añade.

Pasajes jugosos

El juicio ha revelado pasajes jugosos. Como que cuando Musk dirigía el Departamento de Eficiencia (DOGE), Mark Zuckerberg le preguntó si podía ayudarle. “No es mi intención ofenderte, pero está en juego el destino de la civilización”, le respondió. Pese a ese desplante, la documentación revelada muestra que Musk estuvo en constante comunicación con el dueño de Meta, a quien ofreció unirse a él para comprar OpenAI.

“Antiguamente, los profetas que hacían profecías imprudentes acababan mal”, señala la filósofa Carissa Véliz, profesora del Centro de Ética y Humanidades de la Universidad de Oxford. “Este juicio va a mostrarnos por primera vez en mucho tiempo si alardear de ciertas intenciones y luego no cumplirlas puede tener o no consecuencias legales”.

PORTADA

es-es

2026-05-03T07:00:00.0000000Z

2026-05-03T07:00:00.0000000Z

https://lectura.kioskoymas.com/article/281960319361838

Prisa media SAU