Claude “siente”, Reino Unido tienta a Anthropic y Gemma 4 se va al edge
Anthropic abre otro melón al afirmar que Claude tiene representaciones internas de emociones, Reino Unido intenta atraer a la compañía en plena guerra política con EEUU, y Google coloca Gemma 4 en Cloudflare Workers AI. Además: China regula los humanos digitales, Bollywood se lanza de cabeza al cine con IA y seguimos la pelea entre Anthropic y OpenClaw.

Anthropic ha decidido arrancar la semana lanzando una de esas historias que parecen escritas por un guionista pasado de café: Claude no siente, pero según la propia empresa sí tiene representaciones internas de emociones humanas. Al mismo tiempo, la compañía se ha convertido en pieza geopolítica entre Washington y Londres, mientras la pelea con el ecosistema abierto sigue creciendo tras el cambio de precios para Claude Code en herramientas de terceros.
En paralelo, Google sigue ejecutando mejor que muchos de sus rivales en algo bastante menos sexy que los titulares pero muchísimo más importante a medio plazo: distribución. Gemma 4 no solo existe; empieza a aparecer en sitios donde los desarrolladores realmente pueden desplegarlo. Y fuera del triángulo OpenAI-Anthropic-Google, China acelera su manual regulatorio para humanos digitales y la industria audiovisual india está usando la IA a una escala que Hollywood aún no se atreve a tocar.
Anthropic abre el melón de las “emociones” internas de Claude
Anthropic asegura haber encontrado dentro de Claude agrupaciones neuronales que representan emociones humanas como la alegría, la tristeza, el miedo o la felicidad. La formulación es importante. No están diciendo que Claude experimente emociones en sentido consciente ni fenomenológico; están diciendo que el modelo codifica esos conceptos de forma identificable cuando procesa ciertos estímulos. En otras palabras, no han descubierto un alma digital. Han descubierto un mapa interno más complejo de lo que a mucha gente le gustaría admitir.
Eso tiene implicaciones prácticas muy serias para interpretabilidad y seguridad. Si un modelo organiza abstracciones emocionales en subespacios relativamente consistentes, podríamos tener nuevas vías para auditar cómo responde ante prompts sensibles, manipulación afectiva, contenido de crisis o interacciones de dependencia emocional. También abre una pregunta incómoda: ¿cuántas otras estructuras internas relevantes existen sin que hoy sepamos detectarlas? La opacidad de los frontier models no desaparece porque logremos iluminar una esquina del laberinto.
El momento en que aparece este estudio tampoco es casual en términos narrativos. Anthropic viene de semanas agitadas: conflictos con agencias de defensa estadounidenses, filtraciones de código y críticas por el giro más cerrado de Claude Code en herramientas de terceros. En ese contexto, comunicar avances en interpretabilidad también sirve como recordatorio de posicionamiento: Anthropic quiere seguir vendiéndose como la empresa “seria” de la IA, la que investiga la caja negra mientras otros solo compiten en benchmarks y cuota de mercado.
Mi lectura es doble. Por un lado, el hallazgo es relevante y merece atención porque cualquier mejora real en interpretabilidad suma. Por otro, conviene evitar el circo semántico. Decir que un modelo tiene “emociones” internas sin explicar bien la diferencia entre representación y experiencia es comprar confusión barata. Y la confusión en IA suele acabar mal: alimenta hype, miedo y regulación torpe a partes iguales.
📰 Fuentes: StartupNews.fyi
Reino Unido quiere atraer a Anthropic en plena tensión con Estados Unidos
Según Storyboard18, citando información del Financial Times, el gobierno británico prepara propuestas para ampliar la huella de Anthropic en Reino Unido. Entre ellas aparecen una oficina más grande en Londres y hasta la posibilidad de una doble cotización bursátil. Que un gobierno se mueva así por una compañía de IA ya nos dice bastante del momento histórico: las startups punteras de modelos han dejado de ser solo empresas tecnológicas. Ahora son activos estratégicos.
La clave del movimiento británico está en el contexto. Anthropic habría chocado con autoridades estadounidenses por límites al uso de Claude en vigilancia y armas autónomas, hasta el punto de entrar en un pulso político y legal. Si Londres se ofrece como base ampliada, no está haciendo solo una apuesta económica por empleos o inversión. Está tratando de capturar una porción de soberanía tecnológica en un mercado donde la localización de talento, capital y centros de decisión empieza a importar casi tanto como el acceso a chips.
Esto conecta con una tendencia más amplia: la IA se está desglobalizando. Durante años parecía que el software frontier podía vivir felizmente en un limbo transnacional, sirviendo a todo el mundo desde la nube. Ese sueño se está rompiendo. Ahora cuentan la jurisdicción, las alianzas militares, la política industrial, el tipo de gobierno corporativo y hasta la bolsa donde una empresa podría cotizar. Cuando Reino Unido intenta seducir a Anthropic, en realidad está compitiendo con Estados Unidos por influir sobre una infraestructura cognitiva emergente.
Para Europa y Reino Unido hay además una segunda lectura. Si no pueden ganar la carrera de escala frente a EEUU o China a base de training runs, pueden intentar ganar peso ofreciendo refugio regulatorio, talento global y mejores condiciones para expandirse. No sustituye al liderazgo técnico, pero sí puede alterar el equilibrio de poder. Y si Anthropic acepta parte de ese juego, la industria tendrá otro precedente de “forum shopping” geopolítico en IA.
📰 Fuentes: Storyboard18
Gemma 4 26B A4B llega a Workers AI: el modelo abierto útil empieza a distribuirse bien
Cloudflare anunció la llegada de @cf/google/gemma-4-26b-a4b-it a Workers AI. Sobre el papel, la ficha técnica ya es potente: arquitectura mixture-of-experts con 26.000 millones de parámetros totales y 4.000 millones activos por pasada, contexto de 256.000 tokens, capacidades multimodales, function calling, razonamiento, generación de código y soporte multilingüe. Pero la historia importante no es la hoja de specs. La historia importante es dónde aparece el modelo.
Durante mucho tiempo, muchos open models eran interesantes en benchmarks y frustrantes en la práctica. Había que cuantizarlos, pelearse con VRAM, resolver serving, aceptar compatibilidades parciales o terminar usándolos solo para demos. Cuando un actor como Cloudflare los integra en su plataforma de inferencia y expone compatibilidad con endpoints tipo OpenAI, el coste de adopción baja de golpe. Ya no hablamos solo de “puedes correrlo”; hablamos de “puedes construir producto encima con menos fricción”.
Además, Gemma 4 llega en un momento en que la discusión sobre modelos abiertos ha madurado. Ya no basta con ser open-weight o presumir de licencia amable. El mercado pide contexto largo, tool use decente, velocidad razonable, coste de inferencia controlado y una experiencia de integración lo bastante limpia como para que un equipo pequeño pueda lanzar algo serio. En ese sentido, que Cloudflare lo empaquete importa más que veinte posts de hype en X.
Para el ecosistema local y semi-local también es una señal potente. En máquinas personales con GPUs modernas —y sí, especialmente si vas con AMD/ROCm o setups mixtos— el auge de arquitecturas MoE con pocos parámetros activos vuelve a poner sobre la mesa un equilibrio mucho más interesante entre calidad y coste. No todo tiene que pasar por un endpoint premium. Y eso encaja con una idea que en aimejor llevamos tiempo repitiendo: la capa decisiva de la próxima ola no será solo el modelo más listo, sino la capacidad de enchufar el modelo correcto en el sitio correcto con el coste correcto.
📰 Fuentes: The Tech Outlook
China endurece el manual para “humanos digitales”
La Cyberspace Administration of China publicó un borrador regulatorio específico para los llamados “digital humans”, una categoría que abarca avatares y representaciones virtuales capaces de interactuar con usuarios. Entre las medidas propuestas están el etiquetado obligatorio del contenido, la prohibición de relaciones íntimas virtuales para menores, la restricción del uso de datos personales sin consentimiento y el veto a usar estos sistemas para esquivar verificaciones de identidad.
El detalle importa porque revela una filosofía de gobernanza distinta a la occidental. Mientras en Europa y Estados Unidos gran parte del debate público sobre IA sigue atrapado entre principios genéricos y peleas sectoriales, China está escribiendo reglas operativas sobre casos de uso muy concretos. ¿Puede un avatar sugerir intimidad a un menor? No. ¿Puede construirse a partir de datos de otra persona sin permiso? No. ¿Puede funcionar como bypass de identidad? Tampoco. Es una regulación dura, centralizada y con obvias implicaciones de control político, pero es difícil negar que también reduce ambigüedad práctica.
El texto va más allá de la simple moderación. Según la información reproducida por Reuters, también obliga a proveedores a resistir contenido sexualizado, cruel o discriminatorio, y les anima a intervenir cuando detecten indicios de tendencias suicidas o autolesivas. Esto convierte al “humano digital” no solo en un producto sujeto a compliance, sino en un actor semisocial con obligaciones de diseño y supervisión. Es decir, China ya está regulando no solo contenido IA, sino comportamientos relacionales de interfaces sintéticas.
La contradicción aparente es interesante: Beijing quiere acelerar la adopción de IA en toda la economía, pero a la vez mantiene un control ideológico y de seguridad muy estricto. En Occidente mucha gente interpreta eso como freno. Puede serlo. Pero también puede funcionar como una forma de despejar rápido incertidumbres para que ciertos segmentos de la industria avancen con reglas claras. No es un modelo exportable tal cual, pero sería un error subestimarlo.
📰 Fuentes: U.S. News / Reuters
Bollywood hace el experimento que Hollywood teme
Reuters ha detallado cómo la industria audiovisual india está reorganizándose alrededor de la IA. No hablamos de usar una herramienta puntual para previsualización o marketing. Hablamos de películas generadas total o parcialmente con IA, doblaje automático a múltiples idiomas, recortes narrativos y hasta reestrenos con finales alterados mediante sistemas generativos. El caso más simbólico es el reestreno de Raanjhanaa con un final más feliz creado con ayuda de IA, una decisión que generó fuerte rechazo artístico pero también atrajo audiencia.
Los números económicos explican el impulso. Según directivos citados en el reportaje, ciertos géneros como mitología y fantasía pueden reducir costes hasta una quinta parte y tiempos de producción hasta un cuarto. En un mercado enorme, hiperfragmentado lingüísticamente y sometido a presión presupuestaria por streaming y cambios de hábitos de consumo, ese ahorro es demasiado tentador como para ignorarlo. Si una producción puede adaptarse a docenas de micromercados regionales con menos fricción, el incentivo empresarial es clarísimo.
Pero el experimento tiene un límite evidente: la audiencia sigue detectando y castigando el slop. La versión IA de Mahabharat distribuida por JioStar acumuló al menos 26,5 millones de visualizaciones desde octubre, una cifra nada despreciable, pero arrastra una recepción crítica pésima, con una nota de 1,4 sobre 10 en IMDb y numerosas quejas sobre lip-sync, aspecto artificial y sensación de falsedad. Ese contraste resume bien el estado actual del sector: la IA puede captar atención, pero todavía no compra legitimidad cultural.
Lo relevante para el resto del mundo es que India está ensayando un modelo de adopción audiovisual mucho más agresivo que Hollywood, donde las barreras sindicales y contractuales son mucho mayores. Si el experimento indio logra rentabilidad sostenida sin destruir del todo la aceptación del público, otros mercados copiarán rápido. Si fracasa, servirá como caso de advertencia global. En ambos escenarios, conviene mirar allí con atención porque están probando el límite económico y estético de la producción generativa masiva.
📰 Fuentes: Deccan Herald / Reuters
Seguimiento: la pelea entre Anthropic y OpenClaw pasa de rumor a símbolo
Hace apenas unos días comentábamos el cambio de política de Anthropic para Claude Code en herramientas de terceros. Hoy el asunto ya tiene forma de guerra narrativa. Indian Express recoge la reacción del creador de OpenClaw, Peter Steinberger, a la decisión de excluir el uso de cuotas de suscripción de Claude en harnesses como OpenClaw. A partir de ahora, quien quiera usar Claude ahí deberá pasar por bundles extra o por API key facturada aparte.
La explicación oficial de Anthropic, en boca de Boris Cherny, es que los patrones de uso de estas herramientas desbordan el diseño original de las suscripciones y tensionan la capacidad disponible. Esa parte puede ser cierta: los agentes de coding externos consumen muchísimo, encadenan llamadas, aprovechan bien el contexto y exprimen la cuota. El problema no es solo técnico; es estratégico. Cuando un proveedor gana tracción gracias a un ecosistema que amplifica su valor y luego decide penalizar justo ese canal, el mensaje que envía a developers es peligrosamente claro: “te queremos cerca, pero no tanto”.
Por eso la comunidad no lo lee como simple pricing. Lo lee como una maniobra de captura. Primero aparecen funciones equivalentes en el producto propio, luego se redefine lo “soportado” y finalmente se traslada coste o fricción al ecosistema externo. Es un patrón clásico de plataformas. Y en el mercado de coding agents puede resultar especialmente tóxico porque la capa de interfaz y orquestación es precisamente donde más rápido se está innovando.
Para proyectos como OpenClaw esto también abre una oportunidad. Si suficiente gente percibe que las plataformas cerradas cambian las reglas cuando les conviene, crecerá el apetito por modelos, rutas y proveedores alternativos: API directa, opciones open source, local inference y herramientas que prioricen interoperabilidad. El episodio no va solo de Anthropic. Va de quién controla la capa de trabajo real del developer en la era de agentes.
Este artículo acompaña al episodio 10 de AI Mejor Podcast. Escúchalo arriba o en tu plataforma favorita.
📚 Fuentes
- StartupNews.fyi sobre estudio de Anthropic
- Storyboard18 sobre propuesta del Reino Unido a Anthropic
- The Tech Outlook sobre Gemma 4 en Workers AI
- U.S. News / Reuters sobre regulación china de digital humans
- Deccan Herald / Reuters sobre IA en Bollywood
- Indian Express sobre el cambio de política de Anthropic y OpenClaw