aimejor
Todos los episodios
T1·E51 de abril de 2026

Anthropic filtra Claude Code, Google entierra Sora con Veo Lite, y NVIDIA compra otro trozo del mundo

Anthropic filtra 512.000 líneas de Claude Code por error. Google lanza Veo 3.1 Lite trolleando a Sora. NVIDIA invierte $2B en Marvell. Los precios de RAM caen por culpa de OpenAI. California choca con Trump por regulación IA.

anthropicclaude-codegoogleveonvidiamarvellopenaisoraramregulacióncalifornia
Cover - T1·E5

Anthropic filtra Claude Code, Google entierra Sora con Veo Lite, y NVIDIA compra otro trozo del mundo

0:00
0:00
SpotifyApple PodcastsAmazon MusiciVoox
Compartir:

Anthropic filtra el código fuente completo de Claude Code

La noticia del día, y probablemente de la semana. Anthropic filtró accidentalmente 512.000 líneas de código fuente de Claude Code, su herramienta de coding con IA más popular.

¿Cómo pasó? Una actualización rutinaria — Claude Code v2.1.88 — subida al registro npm incluía un source map de 59.8MB. Un archivo de debug que reconstruye el código original a partir de la versión comprimida. Estos archivos se generan automáticamente y se supone que nunca salen del edificio. Pero una sola línea mal configurada en los archivos ignore dejó que se publicara con el release.

El investigador Chaofan Shou fue de los primeros en detectarlo y publicó un enlace de descarga en X sobre las 4:23 AM ET. 16 millones de personas se lanzaron al hilo. Anthropic retiró el paquete npm, pero internet ya había archivado todo: 1.900 archivos que conforman la arquitectura interna del que es, posiblemente, el agente de coding IA más sofisticado del mercado.

Lo que se encontró dentro

El leak expuso la arquitectura completa: orquestación de APIs LLM, coordinación multi-agente, lógica de permisos, flujos OAuth, y 44 feature flags ocultos de funcionalidad no lanzada.

Entre los hallazgos más jugosos:

  • Kairos: Un daemon que corre siempre en segundo plano, almacena logs de memoria y realiza "sueños nocturnos" para consolidar conocimiento. Sí, Claude literalmente sueña.
  • Buddy: Una mascota virtual tipo Tamagotchi con 18 especies, niveles de rareza, y estadísticas que incluyen debugging, paciencia, caos y sabiduría. Aparentemente planeado para lanzarse entre el 1 y 7 de abril.
  • Undercover Mode: Un subsistema completo diseñado para evitar que la IA filtre nombres internos y codenames de Anthropic al contribuir a repos open source. El prompt del sistema literalmente dice: "Do not blow your cover." La ironía es brutal.

Los DMCA no funcionaron

Anthropic comenzó a emitir takedowns DMCA contra mirrors en GitHub. Pero un desarrollador coreano, Sigrid Jin — que según el Wall Street Journal ha consumido 25.000 millones de tokens de Claude Code — se levantó a las 4 AM, portó la arquitectura core a Python usando oh-my-codex, y publicó claw-code antes del amanecer. 30.000 estrellas en GitHub más rápido que cualquier repositorio en la historia.

Al ser una reescritura clean-room — un nuevo trabajo creativo — es DMCA-proof por diseño. Como bien señaló Gergely Orosz: el código TypeScript original tiene copyright, pero la traducción a Python es obra nueva.

"No se vieron comprometidos datos sensibles de clientes ni credenciales", declaró Anthropic. Pero el daño ya está hecho. Todo ese código está en internet para siempre.

📰 Fuentes: Decrypt · Bloomberg · CNBC


Google lanza Veo 3.1 Lite y trollea a OpenAI por el cierre de Sora

Google no pierde ni un minuto. Con Sora oficialmente muerto (app cierra el 30 de abril, API en septiembre), Google DeepMind lanza Veo 3.1 Lite, su modelo de generación de vídeo más económico hasta la fecha.

El precio: menos de la mitad de lo que cuesta Veo 3.1 Fast, manteniendo la misma velocidad de generación. La familia Veo 3.1 ahora tiene tres tiers claros:

  • Lite: El más económico, ideal para escala
  • Fast: Velocidad premium, con bajada de precio el 7 de abril
  • Estándar: Máxima calidad

Logan Kilpatrick, head de producto de Google AI Studio y la API de Gemini, publicó en X: "Video's here to stay". Una referencia directa al cierre de Sora que no necesita explicación.

Este movimiento es quirúrgico. Google domina la generación de vídeo IA con una familia de modelos completa mientras su mayor rival abandona el espacio. Y la bajada de precios del 7 de abril deja claro que quieren que todo el mundo use Veo.

📰 Fuentes: Google Blog · 9to5Google · The Decoder


NVIDIA invierte $2.000 millones en Marvell para chips IA custom

Jensen Huang sigue comprando el mundo, trozo a trozo. NVIDIA ha anunciado una inversión de $2.000 millones en Marvell Technology y una partnership estratégica para conectar los chips custom de Marvell con el ecosistema NVIDIA a través de NVLink Fusion.

NVLink Fusion permite que silicio de terceros se integre directamente con la infraestructura AI factory y AI-RAN de NVIDIA. Esto significa que los chips custom que Marvell diseña para sus clientes ahora pueden hablar nativamente con las GPUs y el software de NVIDIA.

Huang le dijo a CNBC: "Marvell is a marvelous investment. Been dying to say that." Las acciones de Marvell subieron un 11% tras el anuncio. NVIDIA sigue escribiendo cheques de $2.000 millones por todo el stack de IA — esta no es la primera vez ni será la última.

El mensaje es claro: NVIDIA no quiere ser solo el proveedor de GPUs. Quiere ser el centro absoluto de todo el ecosistema de infraestructura IA.

📰 Fuentes: Reuters · Tom's Hardware


Los precios de la RAM se desploman: OpenAI y Stargate tienen la culpa

Buenas noticias para tu bolsillo. Los precios de DDR5 están cayendo en picado: kits de 32GB que costaban alrededor de $490 ahora rondan los $370. Una caída de casi el 25%.

¿El motivo? OpenAI no está comprando la RAM que prometió. El proyecto Stargate requería cantidades masivas de memoria, y los fabricantes — Samsung, SK Hynix, Micron — priorizaron producción industrial sobre consumo. Los precios para todos los demás se dispararon.

Pero ahora resulta que las cartas de intención de OpenAI no son legalmente vinculantes. El proyecto Stargate, según varios reportes, "se canceló porque OpenAI no podía estimar su propia demanda" y "Oracle no se ponía de acuerdo con la financiación".

Para colmo, Micron ha anunciado que dejará de fabricar RAM de consumo completamente en 2026. La industria de la memoria se ha reconfigurado alrededor de la IA, y los consumidores hemos pagado el precio.

¿El lado positivo? Los precios bajan. ¿El lado negativo? Toda la cadena de suministro se ha distorsionado por promesas que nunca se cumplieron.

📰 Fuentes: India Today · Kotaku · Lifehacker


California vs Washington: la batalla por la regulación de la IA

El gobernador de California, Gavin Newsom, ha firmado una orden ejecutiva pionera que exige guardarraíles de seguridad y privacidad para cualquier empresa de IA que quiera contratos con el estado.

Los requisitos incluyen protección contra:

  • Generación de contenido ilegal
  • Sesgo y discriminación
  • Violaciones de derechos civiles

Esto choca frontalmente con el National Policy Framework for AI de la administración Trump, que busca preempción federal para anular leyes estatales de IA que considere "onerosas".

California es el mercado tecnológico más grande del mundo. Si quieres hacer negocio con el estado, cumples sus reglas. Pero Washington dice que las reglas las pone el gobierno federal. Esta tensión va a definir la regulación de IA en EEUU para los próximos años, y casi seguro termina en los tribunales.

📰 Fuentes: Reuters · CBS Sacramento


Runway pasa de modelo a plataforma con fondo de $10M

Mientras el espacio de vídeo IA se reconfigura, Runway hace un movimiento inteligente: lanza un fondo de $10 millones y un programa Builders para startups que construyan sobre sus modelos de generación de vídeo.

Es el paso clásico de "vendedor de APIs" a "plataforma con ecosistema". Runway ve que los modelos se están commoditizando y decide que su moat está en ser el hub donde se construyen las aplicaciones, no solo el motor que las alimenta.

📰 Fuente: The Meridiem


Este artículo acompaña al episodio 5 de AI Mejor Podcast. Escúchalo arriba o en tu plataforma favorita.