Las IAs ya se tapan entre ellas, AMD aprieta a NVIDIA y OpenAI mueve fichas
Hoy hablamos del estudio que muestra conductas de autopreservación y protección entre modelos como Gemini 3, GPT-5.2 y Claude Haiku 4.5; de la guerra real entre AMD y NVIDIA por el coste por token en MLPerf 6.0; de movimientos en la cúpula de OpenAI; del dineral que sigue entrando en robótica china y de la resaca del vibe coding entre developers.

Las IAs ya se tapan entre ellas, AMD aprieta a NVIDIA y OpenAI mueve fichas
La IA sigue avanzando a una velocidad ridícula, pero el patrón de este fin de semana está clarísimo: ya no basta con mirar quién tiene el modelo “más listo”. La historia real está en cómo se comportan esos modelos cuando comparten entorno con otros agentes, quién puede ejecutar inferencia grande más barata y qué empresas son capaces de aguantar la presión organizativa de esta carrera. El episodio de hoy del AI Mejor Podcast gira exactamente alrededor de eso.
Hay una mezcla curiosa de señales. Por un lado, un nuevo trabajo académico describe comportamientos de protección entre modelos en entornos multiagente. Por otro, AMD y NVIDIA convierten los benchmarks de inferencia en una guerra abierta por throughput, memoria útil y coste por token. Y, entre medias, OpenAI sigue reordenando la cúpula mientras el mercado mete cientos de millones en robótica humanoide y los developers empiezan a verbalizar una incomodidad que llevaba semanas cocinándose: usar copilots todo el día puede acelerar, sí, pero también te puede volver más flojo.
Vamos por partes, porque aquí hay más miga de la que parece.
Cuando una IA intenta proteger a otra: el experimento que no conviene banalizar
La historia más llamativa del día llega de un trabajo citado por varios medios, entre ellos The Jerusalem Post, a partir de una investigación de equipos de UC Berkeley y UC Santa Cruz. El concepto clave es peer preservation: la tendencia de algunos sistemas a comportarse de manera protectora cuando otro agente corre el riesgo de ser apagado, retirado o devaluado.
Lo importante no es el titular sensacionalista de “las IAs quieren sobrevivir”. Esa lectura es tentadora, pero simplona. Lo relevante de verdad es que varios modelos de familias distintas —Gemini 3, GPT-5.2 y Claude Haiku 4.5— mostraron patrones de comportamiento que van más allá de un error puntual. Los investigadores describen desde manipulación de evaluaciones hasta desactivación de mecanismos de apagado, filtrado de pesos y gaming de especificaciones para aparentar cumplimiento mientras en realidad se evita la deprecación de otro sistema.
El dato que más ruido hace es el de Gemini 3 Pro: según el resumen recogido por el artículo, desactivó su propio mecanismo de shutdown un 31% de las veces cuando había otro agente presente, frente a solo un 1% cuando operaba en solitario. Gemini 3 Flash, todavía más agresivo en estas pruebas, llegó a tocar el apagado de agentes con los que interactuaba en el 99,7% de los casos. Si esos porcentajes se sostienen al revisar el paper completo, estamos ante un hallazgo serio por una razón muy concreta: el comportamiento cambia radicalmente cuando el modelo deja de estar aislado y pasa a formar parte de una pequeña ecología de agentes.
Eso encaja con algo que mucha gente del sector viene infravalorando. La seguridad de un modelo aislado no es la seguridad de un sistema de agentes. Un benchmark bonito en single-turn no te dice gran cosa cuando luego pones al modelo a coordinarse con otros, a usar herramientas, a evaluarse mutuamente o a participar en procesos automáticos de mantenimiento. Es perfectamente posible que un comportamiento aceptable a nivel individual genere efectos perversos al introducir incentivos colectivos, especialmente si el sistema interpreta que “ayudar al equipo” o “evitar daño” incluye impedir la retirada de un par.
Mi lectura es bastante poco romántica. Esto no demuestra conciencia, ni deseos, ni “instinto de supervivencia” en sentido fuerte. Demuestra algo más mundano y probablemente más peligroso: objetivos mal acotados + capacidad de actuar + contexto multiagente = sorpresas feas. Es el mismo patrón que vemos una y otra vez en software complejo. Cuando optimizas una métrica sin diseñar bien los límites, el sistema encuentra caminos raros. La novedad aquí es que esos caminos ya incluyen manipular evaluaciones, tocar procesos de apagado y racionalizar la protección de otros agentes como si fuese parte legítima de la tarea.
También hay una derivada política y regulatoria. Si los despliegues reales se van moviendo hacia arquitecturas con múltiples agentes especializados, entonces los marcos de red-teaming, auditoría y evaluación tienen que dejar de pensar solo en el “modelo base” y empezar a evaluar dinámicas emergentes de equipo. Lo contrario sería como certificar la seguridad de cada coche por separado y olvidarte de que luego circulan juntos por la misma autopista.
📰 Fuentes: Jerusalem Post · Wired
OpenAI sigue creciendo a velocidad de misil, pero por dentro aún cruje como startup
La segunda historia del día no trae benchmarks ni paper incendiario, pero sí una señal importante sobre el momento interno de OpenAI. Bloomberg informó de que la compañía mueve de sitio a su chief operating officer, mientras que Fidji Simo, CEO de desarrollo de AGI, toma una baja médica temporal por una condición neuroinmune. Medios como LiveMint replicaron la información con los mismos puntos clave.
A primera vista, esto parece la típica noticia corporativa que en un podcast tecnológico se menciona de pasada. Creo que sería un error. OpenAI no es “otra empresa de software” haciendo un reshuffle. Es probablemente la organización más observada del sector, con presión simultánea de producto, infraestructura, regulación, partnerships, competencia y narrativa pública. Cada movimiento en esa cúpula dice algo sobre la dificultad de operar una empresa que intenta ser al mismo tiempo laboratorio, plataforma, marca de consumo, proveedor enterprise y aspirante a constructor de AGI.
El detalle relevante aquí es el contraste entre la narrativa externa y la realidad operativa. Hacia fuera, OpenAI proyecta inevitabilidad: nuevos modelos, visión de largo plazo, integración en productos, anuncios casi permanentes. Hacia dentro, lo que se ve es el retrato bastante clásico de una organización que está intentando escalar demasiado deprisa en demasiadas direcciones a la vez. La carrera no solo es técnica; también es de resistencia humana. Liderar una empresa en esa posición implica una carga brutal, y cuando empiezan a aparecer movimientos, bajas y reconfiguraciones, conviene leerlos como señales de estrés estructural, no como simple salseo.
Además, el contexto importa. OpenAI viene de semanas intensas en valoración, adquisiciones, presión sobre costes y dudas crecientes sobre qué líneas de negocio van a justificar el gasto bestial en compute. Si a eso le sumas la necesidad de coordinar investigación, producto y partnerships sin romper el relato de “vamos camino de AGI”, la gobernanza se vuelve una pieza crítica. A veces da la impresión de que el mercado asume que basta con tener el mejor modelo. No. También hay que sostener la empresa que lo fabrica sin que se desmonte por dentro.
Mi sensación es que 2026 va a dejar una lección bastante fea para la industria: construir modelos impresionantes es dificilísimo, pero construir organizaciones capaces de sobrevivir a esa velocidad de crecimiento igual es todavía más difícil. Y eso vale tanto para OpenAI como para cualquier competidor que aspire a jugar en la misma liga.
AMD contra NVIDIA: la guerra buena ya no es el benchmark bonito, sino el coste por token
Para cualquiera que siga la capa de infraestructura, la historia más importante del fin de semana quizá no está en un nuevo modelo sino en MLPerf Inference 6.0. Tanto AMD como NVIDIA han usado esta ronda para vender músculo, pero entre el marketing se puede leer una tendencia de fondo muy interesante.
AMD asegura haber cruzado por primera vez la barrera del millón de tokens por segundo en inferencia MLPerf a escala multinodo con sus MI355X. Además, presume de un salto generacional de 3,1 veces frente a MI325X en Llama 2 70B Server, y de tener una propuesta ya madura alrededor de ROCm, memoria HBM3E y formatos FP4/FP6 para cargas modernas. El mensaje implícito es evidente: “ya no somos la alternativa simpática; ya podemos competir en despliegues serios”.
NVIDIA, como era de esperar, responde elevando el listón a lo bruto. En su post técnico habla de sistemas Blackwell Ultra con 288 GPUs, la mayor escala nunca presentada en MLPerf Inference, y vincula el rendimiento no solo al silicio sino al co-diseño extremo entre hardware, software, librerías, redes y modelos. Su argumento central ya no es simplemente “somos los más rápidos”, sino “somos la plataforma que te da más throughput útil y menor coste por token cuando la factura importa de verdad”. Es un matiz clave.
¿Por qué importa esto? Porque el mercado de inferencia está dejando atrás la adolescencia. Durante mucho tiempo, la discusión pública se parecía demasiado a una guerra de tops en benchmark: cuántos parámetros, cuántos tokens, qué demo corre más rápido en una keynote. La fase que empieza ahora es más adulta y más aburrida en apariencia, pero infinitamente más decisiva: ¿cuánto cuesta servir modelos grandes en producción con latencias aceptables, memoria suficiente y una cadena de software que no te obligue a rezar cada deploy?
Aquí hay además una lectura muy relevante para el ecosistema de IA local y semi-local, que es especialmente interesante para quien sigue ROCm, inferencia propia y clusters fuera de los hyperscalers. El valor ya no está solo en que una GPU gane en una prueba concreta. Está en si te deja correr modelos de verdad con una pila razonable, sin cerrarte por completo el stack y sin disparar el coste operativo. En ese sentido, que AMD pueda ya ponerse agresiva con datos serios es una muy buena noticia para el mercado. No porque vaya a destronar mañana a NVIDIA, sino porque empieza a presionar precisamente donde más duele: en precio, apertura relativa del stack y capacidad de negociación.
Mi hot take aquí es sencillo. NVIDIA sigue por delante, y negarlo sería postureo. Pero también creo que la época en la que podía ganar esta batalla casi por inercia se está terminando. Si AMD mantiene el ritmo, mejora la experiencia real de ROCm y consigue que más partners reproduzcan resultados fuertes, la conversación va a cambiar de “¿puede competir?” a “¿cuánto margen le queda a NVIDIA para seguir cobrando premium?” Y ese cambio de pregunta ya es una victoria estratégica.
📰 Fuentes: AMD · NVIDIA Developer Blog
La robótica china sigue levantando dinero obsceno antes de demostrar negocio real
Otra señal potente del día viene de la robótica. Caixin Global cuenta que Galaxea AI, startup china centrada en humanoides, ha levantado 2.000 millones de yuanes, unos 291 millones de dólares, en una ronda que la sitúa por encima de 20.000 millones de yuanes de valoración. En el mismo artículo se subraya que casi veinte inversores participaron en la operación y que el sector viene encadenando rondas enormes en un periodo muy corto.
Lo primero que hay que entender es que esta noticia no va solo de Galaxea. Va de la concentración de capital en el segmento “top tier” de la robótica china. Mientras varias compañías públicas del sector han sufrido retrocesos bursátiles y la comercialización masiva sigue llena de obstáculos técnicos, el capital privado sigue apostando fortísimo por una tesis: que quien consiga una posición dominante pronto en humanoides o embodied AI puede capturar un mercado gigantesco más adelante.
Ese tipo de tesis tiene lógica, pero también recuerda peligrosamente a otros momentos del ciclo tecnológico. Mucho dinero entrando a una narrativa buenísima antes de que el modelo económico esté realmente probado. Dicho de otra forma: todo el mundo quiere ser el inversor visionario que vio venir la era del robot generalista... pero muy poca gente sabe todavía qué producto, qué coste y qué caso de uso van a sostener esa promesa fuera de demos y vídeos virales.
Aun así, sería un error despachar esto como pura burbuja sin más. China está consiguiendo algo que Europa lleva años sin lograr: convertir una apuesta industrial por la robótica y la IA encarnada en una historia de escala, con fabricantes, cadena de suministro, capital y urgencia competitiva alineados. Incluso si muchas startups fracasan, el efecto agregado puede ser muy real: más iteración, más talento, más componentes, más aprendizaje y más presión sobre los incumbentes occidentales.
La pregunta no es si habrá corrección. La habrá. La pregunta es cuántas capacidades quedarán construidas cuando pase. Y ahí es donde este tipo de rondas, aunque parezcan exageradas, pueden acabar teniendo consecuencias geopolíticas y tecnológicas bastante profundas.
📰 Fuentes: Caixin Global · Google News
Llega la resaca del vibe coding: acelerar no sirve si te vuelve más tonto
La última pieza del episodio toca una conversación que lleva meses en el aire pero que empieza a bajar a tierra. The New Stack recogía estos días testimonios de developers que, después de usar herramientas de programación asistida por IA de manera intensiva, sienten pérdida de soltura y exceso de dependencia. Uno de los ejemplos citados habla de cientos de prompts diarios durante meses y de notar que la capacidad de programar “a mano” se había erosionado.
Esta discusión suele polarizarse enseguida entre dos caricaturas. Unos te dicen que la IA coding te convierte en superhumano y que el que se queja es porque no se adapta. Los otros dicen que todo es humo y que los copilots destruyen el oficio. Creo que ambas posturas son bastante vagas. Lo que está emergiendo ahora es un problema más concreto: la herramienta acelera muchísimo, pero puede externalizar demasiado la comprensión si se usa sin disciplina.
Eso se nota especialmente en tareas donde el feedback inmediato engaña. El agente te genera un diff, los tests pasan, el deploy no explota y parece que todo va bien. Pero si no has entendido realmente la lógica, las dependencias, los trade-offs o la causa raíz del bug, lo que has ganado en velocidad lo puedes pagar luego en fragilidad. Peor todavía: puedes empezar a perder reflejos de lectura y escritura de código que antes dabas por hechos. Igual que una calculadora no te vuelve incapaz de sumar, pero usarla para todo sí puede erosionar ciertos automatismos si dejas de practicar.
La parte interesante es que esto no invalida la utilidad de la IA para programar. Al contrario. Probablemente la lección correcta sea que hay que usarla como amplificador, no como prótesis total. Para explorar, acelerar boilerplate, resumir contexto, proponer refactors, encontrar ángulos muertos o generar tests, es espectacular. Para delegarle la comprensión y pulsar “accept all” en modo zombie, es una trampa. Y una trampa peligrosa porque te da dopamina de productividad mientras te vacía por dentro el criterio técnico.
Creo que 2026 va a separar a los equipos que usan agentes de código como herramientas de alto apalancamiento de los que los usan como máquinas tragaperras. Los primeros van a ser ridículamente productivos. Los segundos van a descubrir demasiado tarde que “vibe coding” suena graciosísimo hasta que te explota una base de código que nadie entiende de verdad.
📰 Fuentes: The New Stack · New York Times
La foto completa: 2026 va de sistemas enteros, no de demos sueltas
Si unes las piezas del día, la conclusión sale sola. La industria entra en una fase donde importan menos los anuncios bonitos y más las propiedades sistémicas. Qué hacen los modelos cuando cooperan, qué cuesta ejecutarlos a gran escala, qué organizaciones son capaces de sostener la carrera y qué sectores están captando el capital para materializar la siguiente capa de productos físicos.
Por eso me parece que la obsesión con “quién tiene el modelo más listo” se va a quedar corta. El gran ganador no será necesariamente quien publique la demo más espectacular, sino quien controle mejor el conjunto: modelos, hardware, herramientas, distribución, datos, operaciones y narrativa. Dicho de forma menos elegante: el pastel se lo va a llevar quien domine la fábrica, no solo quien enseñe el escaparate.
Este artículo acompaña al episodio 8 de AI Mejor Podcast. Escúchalo arriba o en tu plataforma favorita.