Anthropic corta el grifo a OpenClaw, Zuckerberg vuelve a programar y Netflix regala VFX
Anthropic elimina el soporte de suscripciones Claude para herramientas de terceros como OpenClaw. Zuckerberg vuelve a programar con Claude Code. Netflix lanza VOID, un modelo open-weight de borrado de objetos en vídeo. Samsung espera beneficio récord x6. OpenAI compra TBPN. Silicon Valley persigue la IA auto-mejorante.

Anthropic corta el grifo a OpenClaw, Zuckerberg vuelve a programar y Netflix regala VFX
Anthropic corta las suscripciones Claude para herramientas de terceros
La noticia más impactante del día viene directamente de Anthropic. Boris Cherny, Head de Claude Code, anunció en X que a partir del 4 de abril de 2026 a las 12:00 PM hora del Pacífico, las suscripciones Claude Pro ($20/mes) y Max ($100-200/mes) dejan de cubrir el uso de herramientas de terceros como OpenClaw, Cursor y cualquier harness externo que se conecte a los modelos Claude.
El cambio es inmediato y radical: los usuarios que quieran seguir usando Claude con herramientas externas necesitarán optar por la facturación "extra usage" (pay-as-you-go) o usar la API con clave propia. Según VentureBeat, Anthropic envió emails a suscriptores confirmando el cambio, aunque aún no está claro si los planes Team y Enterprise se verán afectados de la misma manera.
La razón técnica detrás de la decisión es reveladora. Las herramientas first-party de Anthropic como Claude Code y Claude Cowork están optimizadas para maximizar los "prompt cache hit rates" — reutilizando texto previamente procesado para ahorrar en compute. Según Cherny, los servicios de terceros "no están optimizados de esta manera, por lo que es realmente difícil hacerlo de manera sostenible". Lo interesante es que el propio Cherny admitió haber enviado pull requests directamente al repositorio de OpenClaw para mejorar sus tasas de caché, lo que demuestra que Anthropic intentó buscar una solución antes de tomar la decisión drástica.
La reacción de la comunidad ha sido intensa. En Reddit y Hacker News, los usuarios critican especialmente el timing: apenas 24 horas de aviso para un cambio que afecta a miles de desarrolladores y flujos de trabajo establecidos. India Today recoge que muchos usuarios consideran el movimiento "hurtful" — especialmente aquellos que adoptaron Claude precisamente por su ecosistema abierto.
Contextualizando: este movimiento llega semanas después de que Anthropic impusiera límites más estrictos en sesiones de Claude cada 5 horas durante horario pico (5am-11am PT), limitando tokens disponibles. Es un patrón claro: Anthropic está gestionando la demanda de forma agresiva, priorizando sus propios productos sobre el ecosistema de terceros. La pregunta es si esto empujará a usuarios hacia OpenAI o modelos locales como alternativa.
📰 Fuentes: VentureBeat · The Verge · Business Insider · Hacker News
Mark Zuckerberg vuelve a programar con Claude Code CLI
Según The Pragmatic Engineer, Mark Zuckerberg, CEO de Meta, ha vuelto a escribir código después de aproximadamente dos décadas. No se trata de un gesto simbólico: ha enviado al menos tres diffs (cambios de código) al monorepo principal de Meta y, según las fuentes, es un "heavy user" de Claude Code CLI a diario.
La noticia tiene múltiples capas de significado. Primero, la ironía: Meta tiene su propia familia de modelos LLM, Llama, que compite directamente con Claude. Que su CEO prefiera usar el producto de la competencia para programar es una declaración implícita de calidad que ningún benchmark puede superar. Business Insider reporta que internamente en Meta, Claude Code es considerado un "step change genuino" en capacidades de IA para programación.
Segundo, el impacto cultural: si el CEO de una empresa de 100.000 empleados puede volver a contribuir código productivo gracias a un coding agent, ¿qué significa eso para la democratización del desarrollo de software? Los coding agents ya no son solo herramientas para desarrolladores expertos — son habilitadores que permiten a personas con conocimientos técnicos oxidados volver a ser productivos.
Esto conecta directamente con la tendencia que cubrimos esta semana: el "vibe coding" que el CEO de Cursor advertía como frágil está encontrando un caso de uso sorprendente en el nivel ejecutivo. No es junior developers los que están adoptando estos agentes, sino CTOs y CEOs que quieren volver a estar cerca del código.
📰 Fuentes: The Pragmatic Engineer · Business Insider
Netflix lanza VOID: borrado de objetos en vídeo con razonamiento causal
Netflix ha publicado su primer modelo de IA en abierto a través de Hugging Face, y es impresionante. VOID (Video Object and Interaction Deletion) es un framework de eliminación de objetos en vídeo que va mucho más allá de lo que existía hasta ahora.
Lo que hace VOID diferente es su razonamiento causal. Los modelos anteriores de video inpainting podían eliminar objetos y reconstruir sombras y reflejos, pero VOID entiende las interacciones físicas. Si eliminas a una persona que estaba sujetando una bolsa, VOID reconstruye la escena con la bolsa cayendo al suelo. Si quitas un objeto de una mesa, reconstuye cómo la luz cambiaba al incidir en ese espacio. Utiliza una combinación de vision-language models para el razonamiento causal y video diffusion models para la generación.
El paper, publicado en arxiv (2604.02296), ha sido desarrollado por investigadores de Netflix y la Universidad de Sofia. Según The Register, el modelo está disponible como open-weight en Hugging Face con una demo interactiva gratuita en Spaces, donde cualquiera puede probarlo.
En Reddit, el modelo ya acumula más de 800 upvotes en r/LocalLLaMA, con la comunidad celebrando que Netflix haya optado por liberar la tecnología en vez de mantenerla propietaria. Las aplicaciones van más allá del cine: desde post-producción publicitaria hasta privacidad en vídeo y creación de contenido para redes sociales. Netflix acaba de democratizar efectos visuales que hasta hace poco requerían equipos enteros de VFX y presupuestos de cientos de miles de euros.
📰 Fuentes: The Register · GitHub · Hugging Face
Samsung espera beneficio récord x6 impulsado por el boom de chips IA
Samsung Electronics está a punto de reportar el trimestre más rentable de toda su historia. Según Reuters, la compañía surcoreana prevé un beneficio operativo de aproximadamente 50 billones de won (unos $35.000 millones) para el primer trimestre de 2026 — un salto de seis veces respecto al mismo periodo del año anterior.
El motor detrás de estos números estratosféricos es la demanda insaciable de chips de memoria para IA. Los precios de HBM (High Bandwidth Memory) y DRAM se han disparado porque todos los grandes del sector — desde OpenAI hasta Google, pasando por Meta y Microsoft — necesitan cantidades masivas de memoria para entrenar y ejecutar sus modelos. Según Seoul Economic Daily, los incrementos en los precios medios de venta (ASP) de memoria, combinados con tipos de cambio favorables, han creado una tormenta perfecta de rentabilidad.
Es una paradoja reveladora del estado actual de la industria IA: las empresas que crean los modelos (OpenAI, Anthropic, Google) operan con pérdidas masivas — OpenAI pierde $14.000 millones al año según datos recientes — mientras que las que fabrican los componentes físicos acumulan beneficios récord. El dinero de verdad en la IA, al menos por ahora, lo ganan los que fabrican los chips.
📰 Fuentes: Reuters · Seoul Economic Daily
OpenAI compra TBPN: su primera adquisición de un medio de comunicación
OpenAI ha adquirido TBPN (Technology Business Programming Network), un programa de streaming sobre tecnología y negocios estilo ESPN SportsCenter, donde han aparecido figuras como Mark Zuckerberg, Satya Nadella y otros CEOs de primer nivel. Según TechCrunch, es la primera adquisición de un medio de comunicación por parte de OpenAI. El precio no se ha hecho público.
Según The New York Times, OpenAI justifica la compra como un intento de "crear un espacio para una conversación real y constructiva sobre los cambios que la IA crea". El show, que se emite en X, YouTube y LinkedIn, fue lanzado en 2024 y rápidamente se convirtió en un referente del ecosistema tech de Silicon Valley.
Sin embargo, no todos ven la adquisición con buenos ojos. CNBC la califica de "chasing vibes", señalando que apenas 10 meses después de gastar $6.400 millones en la startup de Jony Ive, la estrategia de M&A de OpenAI parece cada vez más difusa. ¿Es esto una inversión inteligente en relaciones públicas, o es una empresa de IA que no sabe qué hacer con todo el capital que ha levantado?
📰 Fuentes: TechCrunch · NYT · CNBC
Silicon Valley en frenesí por la IA que se mejora a sí misma
The Atlantic ha publicado un artículo extenso que captura el momento actual de la industria IA con precisión escalofriante. El título: "Silicon Valley Is in a Frenzy Over Bots That Build Themselves".
Las grandes empresas de IA están compitiendo abiertamente por crear sistemas que automatizan su propia investigación y desarrollo. OpenAI ha declarado que su último modelo fue "instrumental en crearse a sí mismo" y planea lanzar un "asistente de investigación nivel intern" en los próximos seis meses. Anthropic, por su parte, admite que Claude ya escribe el 90% del código de la empresa. Dario Amodei, CEO de Anthropic, estima que las herramientas de coding aceleran los flujos de trabajo de su empresa entre un 15 y un 20%.
Nick Bostrom, el filósofo sueco que estudia riesgo existencial de IA, declara en el artículo: "Estamos empezando a ver el progreso de la IA retroalimentarse a sí mismo". El concepto de recursive self-improvement — máquinas que entrenan a máquinas más capaces — fue teorizado por I.J. Good en los años 60, quien lo describió como "el último invento que la sociedad necesitaría hacer".
Mientras tanto, la reacción social crece. A finales de marzo, una manifestación masiva en San Francisco reunió a cientos de personas frente a las oficinas de Anthropic, OpenAI y xAI, con pancartas de "Don't Build Skynet" y "Stop the AI Race". La tensión entre el entusiasmo de la industria y la preocupación pública no podría ser más palpable.
📰 Fuente: The Atlantic
AMD sube CPUs un 15% e Intel acumula +20%: la IA encarece todo el hardware
La demanda insaciable de servidores para IA está causando ondas sísmicas en toda la cadena de suministro de semiconductores, y ahora llega al hardware de consumo. Según Nikkei Asia vía Outlook Respawn, AMD prepara una subida de precios de hasta un 15% en CPUs a partir de finales de marzo hasta abril de 2026.
Intel, por su parte, ya ha ejecutado dos rondas de aumentos: un 10-15% en febrero y otro 15% en marzo, acumulando una subida de aproximadamente un 20% respecto a enero. Según Guru3D, planea una tercera ronda en mayo para alcanzar un incremento acumulado del 30% en 2026, con el objetivo de recuperar inversiones y satisfacer expectativas del mercado de capitales.
El impacto es directo para el consumidor. La escasez no se limita a GPUs — la demanda de servidores IA está tensando la disponibilidad de DRAM, capacidad de fabricación TSMC y componentes auxiliares. En la práctica, tu próximo portátil o sobremesa va a costar sensiblemente más, no porque tu hardware sea mejor, sino porque los data centers de OpenAI, Google y Microsoft están absorbiendo capacidad de producción.
Es la otra cara de la moneda del boom IA: mientras Samsung celebra beneficios récord fabricando chips, el consumidor final paga el precio con hardware más caro en todos los segmentos.
📰 Fuentes: Outlook Respawn · Guru3D
Este artículo acompaña al episodio 8 de AI Mejor Podcast. Escúchalo arriba o en tu plataforma favorita.
📚 Fuentes
- VentureBeat — Anthropic cuts off Claude subscriptions for third-party tools
- The Verge — Anthropic essentially bans OpenClaw from Claude
- Business Insider — Anthropic cuts off OpenClaw support
- Business Insider — Inside Meta's AI-Powered Productivity Revolution
- The Register — Netflix VOID video AI
- Reuters — Samsung record quarterly profit
- TechCrunch — OpenAI acquires TBPN
- The Atlantic — Silicon Valley self-improving AI bots
- Outlook Respawn — AMD CPU price increase