La IA, el mayor peligro hoy. F. Bracero/M.G Pascual/
Dos artículos importantes para saber sobre la Inteligencia artificial hoy.
Las 10 claves de la IA hoy
El conocimiento sobre todos los aspectos clave de la IA está muy disperso y en muchos frente. Estos son algunos de los más relevantes
Conexión creativa entre humano e IA Reve
Si les digo que, ante la inteligencia artificial, estamos perdidos, hay dos interpretaciones posibles. La primera de las acepciones apunta a que estamos sentenciados por diversos motivos que hacen que sea una tecnología peligrosa: de la eliminación de puestos de trabajo a los ciberataques o las imágenes falsas (deepfakes) generadas con IA. Pero hay otra forma de estar perdido, que es no saber qué está pasando. Es algo que afecta a todo el mundo. Nadie tiene la llave de una perspectiva completa. Sólo un ejemplo: mientras el director ejecutivo de Anthropic, Dario Amodei, pronostica que se perderán millones de puestos de trabajo por el impacto de la IA, el de Nvidia, Jensen Huang, explica todo lo contrario. En ese magma de informaciones de todo tipo, a la revista del Instituto de Technología de Massachusetts, MIT Technology Review, se le ha ocurrido lanzar una mirada sobre las diez claves que hay que tener en cuenta.
. Humanoides. Si la inteligencia artificial debe superar barreras para hacer los trabajos de los humanos, tendrá que adquirir una forma física y gestual humanas, pero los robots, pese a los grandes logros que llegan de China, todavía no están listos para formar parte de la actividad humana como si fueran una persona potenciada en fuerza y capacidad de computación. La idea básica es que los robots necesitan ser entrenados con datos sobre cómo realizamos las tareas los humanos, así que hay empresas que ya se dedican a recoger precisamente eso. Ya existen centros de entrenamiento en China donde humanos con exoesqueletos realizan tarea repetitivas y sencillas, como limpiar una mesa, cientos de veces al día. En Nigeria, Argentina y la India, trabajadores temporales se graban a sí mismos realizando tareas domésticas con el mismo fin. Enseñamos a la máquina como hacemos las cosas para dejar de hacerlas nosotros.
. Grandes modelos de lenguaje. Desde la llegada de ChatGPT en noviembre del 2022, los grandes modelos de lenguaje (LLM por sus siglas en inglés) han emprendido una acelerada carrera de mejora. Los máximos exponentes son ahora GPT5.5 de OpenAI y Claude Opus 4.7, de Anthropic, pero no podemos perder de vista desarrollos de código abierto como el de DeepSeek y otra iniciativas públicas y privadas por todo el mundo. Ante la posibilidad de que hiperescalar esos modelos sea una vía muerta si alcanza un momento en el que no haya progresos, los investigadores intentan nuevos enfoques para potenciarlos. Incluso crear IAs no basadas en LLMs. Todo está en el aire.
. Estafas. La ciberdelincuencia es uno de los sectores que más rápidamente abrazó la IA para llegar más lejos en sus operaciones. La inteligencia artificial se puede usar para redactar mensajes de phishing, crear deepfakes para extorsionar a las víctimas e incluso modificar el malware para hacerlo más sólido. Desde hace unas semanas, hay una nueva amenaza. Modelos como Mythos o GPT-5.5 son capaces de encontrar fallos y vulnerabilidades en los sistemas operativos y navegadores de internet. Los primeros que están preocupados son los bancos. Por algo será.
Una de las claves de la IA busca imitar la forma de actuar de los humanos ChatGPT
. Modelos del mundo. Algunas investigaciones avanzadas, como las de Google DeepMind y WorldLabs plantean que los modelos del mundo permitirán a superar las conocidas limitaciones de los grandes modelos de lenguaje y llevar la IA a la robótica de una forma más eficaz. Los humanos utilizamos nuestros propios modelos mentales del mundo para orientarnos en nuestro entorno y decidir nuestras acciones. Nuestros cerebros simulan nuestros entornos con suficiente fidelidad como para permitirnos predecir eficazmente acciones y reacciones a nuestro alrededor en el plano físico. Ese es un reto pendiente para la IA. Entender cómo es el espacio en el que nos movemos.
. Sala de guerra. La guerra de Irán ha puesto de manifiesto de una forma muy evidente el uso de la IA en el conflicto bélico, aunque ya se había empleado anteriormente en otras campañas militares, como en la de Ucrania. El ejército de Estados Unidos ha empleado en Oriente Medio el sistema Maven de Palantir. pensado para seleccionar miles de objetivos de una forma que los humanos no podrían hacer. Pero la tecnología no es perfecta y puede desencadenar tragedias como el bombardeo de una escuela en la que murieron 165 niñas. El enorme gasto militar atrae muchos intereses. Hace cinco días, el Departamento de Guerra estadounidense anunció acuerdos en suministro de tecnología de IA con SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft, Amazon Web Services y Oracle.
. Deepfakes. Es uno de los grandes problemas más evidentes que nos ha dejado la IA generativa. Tanto en vídeo como en fotografía, en muchas ocasiones es imposible distinguir lo cierto de lo falso. Su impacto afectará de forma desproporcionada a mujeres y grupos marginados. Las legislaciones ya están activas contra este tipo de delitos, pero el acceso a modelos gratuitos capaces de lograr gran fiabilidad en la representación de imágenes falsas, abre una brecha en la sociedad. Su mayor uso es de carácter pornográfico, aunque abre también preocupaciones en el ámbito político. De momento, no existen todavía marcas de agua o formas fiables de distinguir lo creado por IA de lo real.
. Coordinación de agentes. La respuesta de la IA a la actuación autónoma son los agentes. Las herramientas multiagente están empezando a ser usadas de forma efectiva en tareas como la programación. Los agentes ahora pueden trabajar en equipo en lugar de bots solitarios programados para tareas individuales. Más allá de la efectividad en algunas tareas, también pueden ser un problema. La revista se pregunta si “estamos preparados para que los agentes campen a sus anchas por nuestra omnipresente infraestructura digital, desde la sanidad hasta las finanzas, pasando por las redes sociales y los lanzamisiles”. Difícil e inquietante respuesta.
Las diez claves de la IA en la actualidad Reve
. China y el código abierto. China se ha convertido en un actor clave de la IA. A diferencia de sus competidores estadounidenses, los principales laboratorios chinos no buscan negocio en modelos cerrados y sistemas de suscripción. A principios del 2025, el modelo R1 de DeepSeek igualaba los resultados de las mejores IAs de Estados Unidos a una fracción del coste de estos. Los modelos abiertos chinos representaron el 17,1% de las descargas mundiales de modelos de IA en agosto pasado frente al 15,86% de Estados Unidos. China juega un papel relevante, pese a que sus modelos flaquean cuando evitan los temas de los que no quiere hablar el gobierno de su país.
. Científicos artificiales. La IA es ya una poderosa herramienta científica. Google DeepMind lleva años de ventaja. En el 2024, Demis Hassabis y John Jumper, ganaron el Premio Nobel de Química por AlphaFold, un sistema especializado capaz de predecir la estructura tridimensional de una proteína. Otras compañías de peso, como Anthropic y OpenAI, siguen ahora esta vía. Un estudio reciente de Nature reveló que, pese a sus ventajas, la IA reduce el alcance de lo que investiga la comunidad científica. La razón es que, como la IA brilla en el análisis de conjuntos de datos y bibliografía, los científicos se inclinan hacia áreas temáticas consolidadas de las que se dispone de datos a gran escala.
. Resistencia. Diversos movimientos en muchos ámbitos se manifiestan contra las consecuencias negativas de la IA y, por tanto, la rechazan. El elevado gasto de electricidad y agua de los centros de datos, la desaparición de puestos de trabajo, el impacto de los chatbots en la salud mental de los adolescentes, el uso militar de la IA y la infracción de los derechos de autor son algunas de las principales preocupaciones del público. En marzo, un acuerdo de OpenAI con el Pentágono después de la salida de Anthropic, creó un movimiento que pedía abandonar a la compañía de ChatGPT. La resistencia se refleja en manifiestos como la Declaración sobre la IA Pro-Humana que han firmado diversas entidades cívicas estadounidenses y numerosas personalidades. El futuro no está perdido todavía.
***
La IA se quita la careta
Guerra, avaricia y tecnofascismo
Los nuevos acuerdos del Pentágono con las tecnológicas y el juicio de Elon Musk contra OpenAI tumban el discurso de la industria sobre una inteligencia artificial pensada para salvar a la humanidad
- MANUEL G. PASCUAL
https://lectura.kioskoymas.com/article/281960319361838
El juicio de OpenIA, por el que desfilan los grandes magnates del sector, los acuerdos de varias empresas con el Pentágono y el miedo del BCE al último modelo de Anthropic muestran la cara más tenebrosa de la IA.
A la inteligencia artificial (IA) cada vez le resulta más complicado proyectar una cara amable. El relato oficial que promueven las empresas que lideran esta tecnología es que ha llegado para mejorar el mundo. Prometen que aumentará las capacidades humanas, nos permitirá trabajar menos, facilitará tareas hasta ahora tediosas, revolucionará la ciencia, curará enfermedades, incluso resolverá la crisis climática. Pero esta semana, varios acontecimientos han aportado una buena dosis de realidad.
El Banco Central Europeo (BCE) ha ordenado a la banca reforzar su ciberseguridad porque teme que el último modelo de Anthropic, que ha demostrado ser especialmente bueno detectando fallos de software, pueda causar estragos en el sector. En EE UU, Google rompió el martes su política antibelicista y firmó un acuerdo con el Pentágono para cederle sus modelos, que podrán ser usados para asuntos clasificados. El viernes, el Departamento de Guerra anunció que ese acuerdo se extendía a xAI, OpenAI, Amazon, Microsoft o Nvidia, entre otras. Todo eso mientras que el pasado lunes arrancó un juicio sobre OpenAI, la desarrolladora de ChatGPT, por el que desfilarán durante el próximo mes muchos tecnomagnates y que está dejando al descubierto la lucha de poder que subyace bajo sus proclamas para salvar el mundo con la IA.
En cinco días, ha quedado claro que la IA puede tumbar el sistema financiero mundial, que ya todas las big tech prestan sus servicios sin disimulo al mayor ejército del mundo y que esto no va de beneficiar a la humanidad, sino de enriquecer a sus dueños. Este punto es importante, no tanto por el fondo —nadie ha creído nunca que las desarrolladoras de IA fueran ONG— como por las formas. Las grandes compañías del sector se han esforzado en construir un relato que presenta esta tecnología como una fuerza de progreso imparable e inevitable.
Durante años, intentaron que no se les relacionara con el sector militar, con gobiernos autócratas ni con la desinformación. Ahora, la IA se quita la careta. El juicio a OpenAI está aireando los trapos sucios de algunos de los dueños de estas empresas, que también son las mayores del mundo. Los dos protagonistas del litigio, Elon Musk, cofundador de OpenAI y dueño de Tesla, SpaceX o X, y Sam Altman, director general de la primera, se han autoerigido como guías en una especie de misión civilizatoria.
No son los únicos. Aupados por un convulso contexto internacional donde la extrema derecha avanza por todo el mundo y con Donald Trump en la Casa Blanca como principal valedor, algunos tecnomagnates hasta publican manifiestos con su visión del mundo. Fue muy comentado el que sacó hace dos semanas Palantir, el mayor proveedor de herramientas de análisis de datos aplicadas a la vigilancia masiva del Pentágono, y que también tiene contratos, entre otros, con los ministerios de Defensa de España o el Reino Unido. En sus 22 puntos, el texto relativiza el valor de la democracia, hace un llamamiento a usar la IA como arma de guerra y defiende el control social o el tecnofascismo.
“El comportamiento de las grandes tecnológicas es consistente con lo que vienen haciendo desde hace años”, opina Lorena Jaume-Palasí, experta en ética y filosofía del derecho aplicadas a la tecnología. “El dueño de Meta, Mark Zuckerberg, ha exhibido camisetas con citas del Imperio Romano. OpenAI ha publicado artículos citando al Leviatán, de Thomas Hobbes. Lo que están haciendo es algo muy clásico en la historia de la filosofía política: desde Hobbes hasta John Locke o Jean-Jacques Rousseau, el modus operandi consiste en empezar describiendo lo que es el ser humano; luego, en función de ello, te dicen cómo es la buena sociedad y, en un tercer paso, cómo es posible crear esa sociedad con determinadas reglas políticas. Lo que hoy estamos viendo es eso: intentan integrarse en esa cronología del pensamiento histórico”.
Esta revisión del contrato social va más allá de la retórica. El inversor Peter Thiel, socio de Elon Musk en PayPal, presidente de Palantir y gurú de Silicon Valley, lleva un mes en Argentina. Su agenda no es pública, pero se sabe que mantiene encuentros con altos cargos del Gobierno de Javier Milei, probablemente para llevar a la práctica el manifiesto de su empresa. “El apoyo social a Milei está cayendo. Lo que ofrece Thiel a través de Palantir son tecnologías de control y vigilancia masiva personalizada. Todo apunta a que están trabajando para empezar a cruzar todas las bases de datos que tiene el Estado, pero también un montón de información a la que pueda acceder el servicio de inteligencia vía pinchazos telefónicos y solicitudes a las propias plataformas”, explica Cecilia Rikap, profesora de Economía del University College London.
Cantidades mareantes
Las tecnológicas invierten cantidades mareantes en desarrollar la IA. En los tres primeros meses de este año, Amazon, Google, Microsoft y Meta dedicaron unos 130.000 millones de dólares (110.900 millones de euros) a los centros de datos que alimentan y hacen posible la IA, según cifras recogidas por The New York Times. Eso significa que cada mes las tecnológicas se gastaron más dinero que todo el Proyecto Manhattan, que alumbró la bomba nuclear. Es un 70% más que el mismo periodo del año anterior.
Para que todo funcione, los centros de datos, el lugar donde se entrenan los modelos de IA y se ejecutan luego las aplicaciones resultantes, consumen cantidades cada vez mayores de energía que ponen a prueba el sistema.
En EE UU, se hablaba ya en la última etapa del demócrata Joe Biden de poner en marcha centrales nucleares de bolsillo para alimentar estas infraestructuras, cuyo consumo de agua para refrigerar los sistemas ha intensificado la sequía en algunas poblaciones.
¿Para qué se está usando toda esa capacidad de cómputo? Para facilitar la vida de los programadores, para traducir o escribir textos y, por supuesto, para hacer memes. Pero también para matar. “Desde tiempos del general Von Clausewitz [1780-1831], la toma de decisiones venía determinada por la misión, el terreno, el enemigo y los medios propios. Hoy todo eso se lo facilita al mando la IA, que incluso puede proponer posibles decisiones, lo que hasta ahora era labor de los Estados mayores”, describe Fernando Puell de la Villa, historiador, coronel reti
rado del Ejército y autor del libro Historia de la guerra: seiscientos años de enfrentamientos en Occidente (siglos XV-XXI) (Espasa).
El ejército estadounidense usó en Irán la IA para seleccionar un millar de objetivos militares en apenas 24 horas. O para diseñar la operación que acabó con la captura de Nicolás Maduro en Venezuela. Las fuerzas armadas israelíes fueron pioneras en este ámbito con Lavender, el algoritmo que usaron para decidir a quién bombardear en Gaza y que considera aceptable que, para matar a un alto cargo de Al Fatah o Yihad Islámica, mueran hasta un centenar de civiles. El Pentágono tendrá a su disposición a partir de ahora los modelos comerciales más potentes: desde ChatGPT, de OpenAI, hasta Gemini, de Google, pasando por la infraestructura de Microsoft y AWS (la filial de la nube de Amazon) o los avanzados microprocesadores de Nvidia.
“El acceso a un amplio abanico de capacidades de IA procedentes de todo el ecosistema tecnológico estadounidense dará a los combatientes las herramientas necesarias para actuar con confianza y proteger a la nación frente a cualquier amenaza”, dijo el viernes un portavoz del Pentágono.
El gran ausente en esta lista sigue siendo Anthropic, la desarrolladora de Claude o Mythos Preview, el modelo que tanto asusta al BCE. La empresa que dirige Dario Amodei se negó a compartir sin restricciones su código fuente con el Pentágono, lo que podría incluir el desarrollo de armas autónomas. Como castigo, Trump canceló todos sus contratos federales, cosa que, según fuentes consultadas por The New York Times, están ahora revisando en la Casa Blanca, donde ha causado mucha “impresión y preocupación” su modelo Mythos. Según alertó la propia compañía, es tan potente que puede descubrir en pocos minutos vulnerabilidades en el código fuente de sistemas operativos, navegadores o programas financieros que llevan décadas sin ser detectadas. Estos fallos son un caramelo para los ciberdelincuentes, un trampolín para que entren en sistemas ajenos.
La IA lleva años, o décadas, en el Pentágono, pero la diferencia es que, hasta ahora, la desarrollaba el Gobierno. Tras la irrupción de ChatGPT, Claude o Gemini, Trump ha decidido pasar el testigo a empresas comerciales. Incluso se le ha dado galones a directivos como Andrew Bosworth, jefe de producto de Meta, nombrado hace casi un año teniente coronel en la reserva. “Si el objetivo del uso de la IA es hacer que la guerra sea más caótica y devastadora, sin duda tendrá ese efecto. Si el objetivo es hacer que la guerra sea más precisa y menos peligrosa para la población civil, la IA podría tener la capacidad de reducir los errores en los conflictos, pero aún no se nos ha presentado ningún caso concreto en el que la IA generativa haya evitado errores en la guerra”, sostiene Arthur Holland, especialista en tecnología militar.
Un reciente manifiesto de Palantir defiende el control social
Israel usó el algoritmo de Lavender para decidir a quién bombardear en Gaza
Mientras, en Oakland, el hombre más rico del mundo ha puesto el ventilador. Elon Musk cofundó OpenAI para tratar de romper el monopolio científico que entonces tenía Google en casi todos los frentes de la IA. Fue él quien puso a Sam Altman a dirigir la entidad no lucrativa, que más tarde se convirtió en empresa y que ahora se prepara para salir a Bolsa. Musk, que se fue de OpenAI y fundó su propia start-up del sector, xAI, pide 150.000 millones de dólares (128.000 millones de euros) de indemnización por el cambio de estatus legal que enriqueció a su pupilo. Altman, por su parte, alega que su mentor siempre supo que la única forma de hacer algo grande y escalar la tecnología era crear una empresa.
“Hasta cierto punto, esto es una batalla de egos, pero también es un juicio sobre si OpenAI debería cumplir su promesa de mantenerse como entidad sin ánimo de lucro y de trabajar por el bien de la humanidad, lo que claramente ya no hace”, opina Gary Marcus, profesor emérito de psicología y neurociencia en la Universidad de Nueva York. “No soy un gran fan de Musk, pero el mundo sería mejor si se obligase a OpenAI a perseguir su misión original”, añade.
Pasajes jugosos
El juicio ha revelado pasajes jugosos. Como que cuando Musk dirigía el Departamento de Eficiencia (DOGE), Mark Zuckerberg le preguntó si podía ayudarle. “No es mi intención ofenderte, pero está en juego el destino de la civilización”, le respondió. Pese a ese desplante, la documentación revelada muestra que Musk estuvo en constante comunicación con el dueño de Meta, a quien ofreció unirse a él para comprar OpenAI.
“Antiguamente, los profetas que hacían profecías imprudentes acababan mal”, señala la filósofa Carissa Véliz, profesora del Centro de Ética y Humanidades de la Universidad de Oxford. “Este juicio va a mostrarnos por primera vez en mucho tiempo si alardear de ciertas intenciones y luego no cumplirlas puede tener o no consecuencias legales”.




Comentarios
Publicar un comentario