La versión corta
En January 2026, Anthropic bloqueó OpenCode y todas las demás herramientas de IA para programar de terceros para que no accedieran a los modelos Claude a través de OAuth basado en suscripción. La medida afectó a cientos de miles de desarrolladores, provocó una reacción violenta de figuras prominentes como DHH y llevó a OpenAI a asociarse públicamente con OpenCode como una contramedida competitiva. Aquí está la historia completa, los detalles técnicos y sus opciones para el futuro.
OpenCode bloqueado por Anthropic: El desglose completo de 2026
Si se despertó una mañana en January 2026 y descubrió que su flujo de trabajo OpenCode-Claude estaba repentinamente muerto, no estaba solo. Anthropic desplegó bloqueos en el lado del servidor que cortaron el acceso de OpenCode —el agente de programación de IA de código abierto con 126,000+ GitHub stars— a los modelos Claude a través de tokens OAuth de suscripción. Lo que siguió fue uno de los incidentes de confianza de los desarrolladores más significativos en el espacio de las herramientas de IA.
Este artículo cubre todo: el cronograma, los mecanismos técnicos, la escalada legal, las reacciones de la comunidad, las soluciones alternativas disponibles y lo que este episodio significa para el futuro del desarrollo asistido por IA.
Parte 1: Cronograma de eventos
Fase 1 — El bloqueo silencioso (January 9, 2026)
El January 9, 2026, Anthropic desplegó verificaciones en el lado del servidor que comenzaron a rechazar tokens OAuth de herramientas de terceros. Los desarrolladores que usaban el comando /connect de OpenCode para autenticarse con sus cuentas de Claude Pro o Max comenzaron a chocar con un muro. El mensaje de error era inequívoco:
Error: This credential is only authorized for use with Claude Code
and cannot be used for other API requests.
Al principio, muchos desarrolladores asumieron que se trataba de un bug. Los problemas en GitHub se acumularon en el repositorio de OpenCode, con usuarios informando que sus configuraciones que antes funcionaban se habían roto de la noche a la mañana. Los mantenedores de OpenCode confirmaron que el cambio fue deliberado por parte de Anthropic.
Fase 2 — Escalada técnica (January–February 2026)
Anthropic no se detuvo en la simple validación de tokens. Durante las semanas siguientes, implementaron mecanismos de detección cada vez más sofisticados:
- Client fingerprinting: Verificaciones en el lado del servidor que identificaban si una solicitud se originaba en un cliente genuino de Claude Code o en una herramienta de terceros que simulaba el mismo flujo OAuth.
- Validación de User-Agent: Las solicitudes sin la cadena User-Agent esperada de Claude Code fueron marcadas y rechazadas.
- Análisis de comportamiento: Los patrones de uso de la API que se desviaban de los patrones de interacción típicos de Claude Code activaron bloqueos.
Cada vez que la comunidad de OpenCode encontraba una solución alternativa, Anthropic desplegaba una contramedida. Esta dinámica del gato y el ratón se desarrolló en múltiples hilos de GitHub, incluidos el #6930 y el #10956.
Fase 3 — Formalización legal (February 19, 2026)
El February 19, 2026, Anthropic actualizó sus Terms of Service para incluir una sección explícita de "Autenticación y uso de credenciales". La cláusula clave establecía:
Los tokens OAuth de los planes Free, Pro y Max no pueden usarse con herramientas de terceros o el Agent SDK.
Esto transformó lo que había sido una acción de cumplimiento técnico en una política formal. Anthropic también envió comunicaciones legales al proyecto OpenCode, formalizando la ofensiva. Fuente
Fase 4 — La contramedida de OpenAI (February–March 2026)
A las pocas semanas del bloqueo de Anthropic, OpenAI realizó un movimiento público y estratégico. Se asociaron oficialmente con OpenCode y extendieron el soporte de suscripción de Codex a OpenCode, OpenHands, RooCode y otras herramientas de código abierto. Fuente
OpenAI no solo permitió pasivamente el acceso de terceros, sino que lo promocionó activamente. El mensaje era claro: si Anthropic no le permite usar su suscripción como desea, OpenAI lo hará.
Parte 2: Por qué lo hizo Anthropic
Comprender las motivaciones de Anthropic requiere observar la dinámica empresarial en juego.
Protección de ingresos
Claude Pro cuesta $20/month y Claude Max cuesta $100–200/month. Estas suscripciones incluyen límites de uso generosos destinados a Claude Code, la propia herramienta de programación basada en terminal de Anthropic. Cuando los usuarios de OpenCode se autenticaban a través de OAuth, accedían a los mismos modelos Claude con tarifas de suscripción en lugar de pagar precios de API por cada token, que son significativamente más altos para un uso intensivo.
Para Anthropic, cada desarrollador que usaba Claude a través de OpenCode en lugar de Claude Code representaba o bien una pérdida de ingresos de API o un aumento en los costos de infraestructura sin los ingresos correspondientes de su propio producto.
Estrategia de producto
Claude Code es una parte central de la estrategia para desarrolladores de Anthropic. Al restringir el acceso al modelo a su propio cliente, Anthropic mantiene el control sobre la experiencia del usuario, recopila datos de uso para la mejora del modelo y posiciona a Claude Code como la forma definitiva de usar Claude para programar.
Justificación de los Terms of Service
Desde la perspectiva de Anthropic, el flujo OAuth fue diseñado específicamente para Claude Code. Las herramientas de terceros que replicaban este flujo —haciendo que los usuarios iniciaran sesión a través del navegador y recibieran tokens OAuth— estaban usando un mecanismo de autenticación fuera de su alcance previsto. La actualización de los ToS codificó lo que Anthropic argumentó que siempre fue la intención.
Parte 3: Reacción de la comunidad
La respuesta de la comunidad de desarrolladores fue rápida y abrumadoramente negativa.
Críticas de DHH
David Heinemeier Hansson (DHH), el creador de Ruby on Rails y CTO de 37signals, estuvo entre los críticos más vocales. Publicó en X:
"Confirmación de que Anthropic está bloqueando intencionalmente a OpenCode, y cualquier otro arnés de terceros, en un intento paranoico de forzar a los desarrolladores a usar Claude Code. Una política terrible para una empresa construida entrenando modelos con nuestro código, nuestra escritura, nuestro todo. Por favor, cambien los términos, @DarioAmodei."
La crítica de DHH capturó un sentimiento compartido por muchos: Anthropic entrenó sus modelos con código de fuente abierta, pero ahora impedía que las herramientas de código abierto accedieran a esos modelos.
El debate del "Walled Garden"
El desarrollador Patrick O'Doherty publicó una pieza influyente titulada "Anthropic's Walled Garden: The Claude Code Crackdown", argumentando que Anthropic estaba construyendo un ecosistema cerrado que contradecía el espíritu abierto de la comunidad de desarrolladores de la que dependía. Fuente
Aumento de GitHub Stars
Paradójicamente, la controversia fue lo mejor que le pudo pasar a las métricas de crecimiento de OpenCode. El proyecto ganó 18,000 nuevas GitHub stars en dos semanas tras el bloqueo, ya que los desarrolladores se unieron al proyecto por principios. Para March 2026, OpenCode había alcanzado 126,000+ stars y 800+ colaboradores.
Hilos en Hacker News
Múltiples hilos de Hacker News sobre el tema atrajeron cientos de comentarios, con el sentimiento dominante criticando el enfoque de Anthropic. El hilo "Anthropic Explicitly Blocking OpenCode" y "Anthropic takes legal action against OpenCode" llegaron a la página principal.
Parte 4: Los detalles técnicos
Cómo funcionaba el flujo OAuth (antes del bloqueo)
Antes de la prohibición, así era como OpenCode accedía a Claude:
- El usuario ejecuta
/connecten el TUI de OpenCode. - OpenCode abre una ventana del navegador dirigida al endpoint OAuth de Anthropic.
- El usuario inicia sesión con su cuenta de Anthropic (Pro o Max).
- El navegador redirige de vuelta con un token OAuth.
- OpenCode almacena el token localmente y lo usa para las solicitudes de la API.
- La API de Anthropic sirve las respuestas de Claude como si vinieran de Claude Code.
Este flujo era funcionalmente idéntico a lo que hace el propio Claude Code. La diferencia era el cliente que realizaba las solicitudes.
Cómo funciona el bloqueo
El mecanismo de bloqueo de Anthropic opera a múltiples niveles:
Solicitud del cliente
│
├─ Verificar origen del token OAuth ──→ Rechazar si no es Claude Code
│
├─ Validar fingerprint del cliente ──→ Rechazar si es simulado
│
├─ Analizar encabezado User-Agent ──→ Marcar clientes que no sean Claude Code
│
└─ Coincidencia de patrones de comportamiento ──→ Bloquear uso anómalo
El fingerprinting es el elemento más sofisticado. Los servidores de Anthropic analizan características de cada solicitud que son difíciles de replicar para herramientas de terceros, incluidos encabezados internos, patrones de tiempo de solicitud y metadatos de sesión que genera Claude Code.
OAuth de suscripción frente a API keys
Es fundamental entender la distinción:
| Método de acceso | Estado | Modelo de costo |
|---|---|---|
| Claude Pro/Max OAuth (vía terceros) | Bloqueado | Suscripción ($20–200/mo) |
| Claude Code OAuth (cliente oficial) | Funciona | Suscripción ($20–200/mo) |
| API key de Anthropic | Funciona con OpenCode | Pago por token |
Usar la API de Anthropic con una API key paga en OpenCode cumple plenamente con los términos de Anthropic. El bloqueo solo se aplica a los tokens OAuth de suscripción utilizados fuera de Claude Code.
Parte 5: Soluciones actuales (March 2026)
A pesar de las restricciones, los desarrolladores tienen varios caminos legítimos a seguir.
Solución 1: API key de Anthropic (Totalmente conforme)
El enfoque más directo y conforme con los ToS es usar la API de Anthropic directamente:
# Configure su API key
export ANTHROPIC_API_KEY=sk-ant-xxxxx
# Configure OpenCode para usar el proveedor Anthropic
# En su archivo opencode.json
{
"provider": {
"anthropic": {
"model": "claude-sonnet-4-6"
}
}
}
Costo: Precios de pago por token. Para un uso intensivo de programación, esto puede ser de $50–200+/month dependiendo del volumen, lo que lo hace comparable o más caro que una suscripción. Pero funciona, y está totalmente dentro de los términos de Anthropic.
Solución 2: OpenAI con suscripción a Codex
OpenAI ahora admite oficialmente OpenCode. Si tiene una suscripción a Codex, puede usarla directamente:
export OPENAI_API_KEY=sk-xxxxx
# O use la suscripción a Codex con el soporte integrado de OpenCode
opencode --provider openai
Esta es la opción a la que han migrado muchos desarrolladores, dada la adopción explícita de herramientas de terceros por parte de OpenAI. Fuente
Solución 3: Herramientas proxy (Usar con precaución)
Varias herramientas proxy creadas por la comunidad conectan las suscripciones de Claude Max con endpoints de API locales:
- Meridian: Convierte su suscripción de Claude Max en una API de Anthropic local. El proxy se autentica a través de su sesión de Claude Max en lugar de API keys. Fuente
- Plugins de Anthropic Auth: Plugins de autenticación OAuth mantenidos por la comunidad para OpenCode. Fuente
Advertencia importante: El uso de herramientas proxy para acceder a los modelos Claude Pro/Max con clientes de terceros viola técnicamente los Terms of Service actualizados de Anthropic. Su cuenta podría ser cancelada si es detectado.
Solución 4: Modelos alternativos
OpenCode admite 75+ proveedores de LLM. Puede cambiar a:
- Google Gemini 2.5 Pro: Fuerte rendimiento en programación, nivel gratuito generoso.
- DeepSeek V3: Rentable, excelente para la generación de código.
- Modelos locales a través de Ollama: Totalmente offline, costo cero, sin preocupaciones de ToS.
- Mistral Codestral: Construido específicamente para código, rendimiento competitivo.
Solución 5: Use una plataforma que no lo bloquee
Si está creando aplicaciones en lugar de escribir código en una terminal, considere plataformas como ZBuild que le brindan una experiencia de constructor de aplicaciones sin bloqueo de proveedor. ZBuild le permite construir y desplegar aplicaciones utilizando asistencia de IA mientras mantiene la propiedad total y la portabilidad de sus proyectos, sin preocuparse por qué proveedor de modelos podría cambiar sus términos a continuación.
Parte 6: Impacto en el ecosistema más amplio
La división entre lo abierto y lo cerrado
Este incidente cristalizó una tensión fundamental en el espacio de las herramientas de IA. De un lado: empresas que entrenaron modelos con código de fuente abierta y contenido generado por la comunidad. Del otro: la comunidad de código abierto que produjo esos datos de entrenamiento y ahora quiere acceso sin restricciones a los modelos resultantes.
El argumento resonó porque tocó una fibra sensible sobre la reciprocidad. Los modelos de Anthropic fueron entrenados con miles de millones de líneas de código de fuente abierta. Muchos desarrolladores sienten que restringir cómo acceden a esos modelos —especialmente cuando son suscriptores de pago— rompe un contrato social implícito.
Cambios en la cuota de mercado
La controversia aceleró varias tendencias:
| Métrica | Antes del bloqueo (Dec 2025) | Después del bloqueo (Mar 2026) |
|---|---|---|
| OpenCode GitHub stars | ~56,000 | 126,000+ |
| Desarrolladores activos mensuales de OpenCode | ~2 millones | 5 millones+ |
| Proveedores admitidos por OpenCode | ~40 | 75+ |
| Usuarios de OpenAI Codex + OpenCode | Mínimo | Crecimiento significativo |
Precedente para otras herramientas
La prohibición de OpenCode sentó un precedente que afectó también a otras herramientas de terceros. Cline, RooCode, Continue, Aider y otras herramientas que usaban flujos OAuth similares también fueron bloqueadas. Todo el ecosistema de herramientas de terceros compatibles con Claude se vio afectado, no solo OpenCode. Fuente
Parte 7: Lo que los desarrolladores están haciendo ahora
Basado en las discusiones de la comunidad y la actividad de GitHub, así es como ha respondido la comunidad de desarrolladores:
Patrones de migración
- Configuraciones de múltiples proveedores: Muchos desarrolladores ahora configuran OpenCode con múltiples proveedores, usando Claude a través de API key para tareas en las que destaca y alternativas más baratas para el trabajo rutinario.
- Migración a OpenAI: Una parte significativa de los desarrolladores dependientes de Claude se ha movido al Codex de OpenAI, que acoge explícitamente a las herramientas de terceros.
- Enfoques centrados en lo local: El interés en los modelos locales (Ollama, llama.cpp) ha aumentado, impulsado por desarrolladores que ya no quieren depender de la buena voluntad de un solo proveedor.
- Adopción de API keys: Los desarrolladores que desean seguir usando Claude han cambiado a API keys, aceptando el mayor costo por token a cambio de la confiabilidad de un método de acceso totalmente admitido.
Sentimiento de los desarrolladores
El daño duradero puede ser para la reputación de Anthropic dentro de la comunidad de desarrolladores. La confianza, una vez rota, es difícil de reconstruir. Varias encuestas y sondeos informales en Hacker News y Reddit muestran que la confianza de los desarrolladores en Anthropic cayó significativamente tras el incidente.
Parte 8: Lecciones para la industria de herramientas de IA
Para los creadores de herramientas
- Nunca dependa del flujo OAuth de un solo proveedor como su mecanismo de autenticación principal. Tenga siempre un respaldo de API key.
- Construya arquitecturas independientes del proveedor desde el primer día. El soporte de OpenCode para 75+ proveedores significó que el bloqueo de Anthropic fue doloroso pero no fatal.
- Espere que los términos cambien: cualquier función que funcione "por accidente" en lugar de por un acuerdo explícito eventualmente se cerrará.
Para los proveedores de modelos
- Comunique antes de bloquear. Un aviso de desactivación de 30 días habría generado mucha menos reacción negativa que un corte de la noche a la mañana.
- Ofrezca un camino a seguir. Si bloquea el OAuth de suscripción para herramientas de terceros, ofrezca simultáneamente un programa para desarrolladores externos con precios de API razonables.
- Recuerde de dónde provienen sus datos de entrenamiento. La comunidad de desarrolladores tiene una memoria larga.
Para desarrolladores individuales
- Diversifique su cadena de herramientas. No construya todo su flujo de trabajo en torno a un solo proveedor.
- Comprenda los términos de servicio de cada herramienta de la que dependa.
- Considere construir en plataformas como ZBuild que abstraen las dependencias del proveedor para que pueda concentrarse en lanzar su producto en lugar de gestionar la política de los proveedores de IA.
Conclusión
La saga OpenCode-Anthropic de principios de 2026 es más que una historia sobre el bloqueo de una herramienta. Es un estudio de caso sobre las tensiones entre la cultura de desarrollo de código abierto y los modelos de negocio de IA comercial. Anthropic tenía razones comerciales legítimas para la restricción, pero la ejecución —bloqueos silenciosos seguidos de amenazas legales— erosionó la confianza de formas que tardarán años en repararse.
Para los desarrolladores, la conclusión práctica es clara: diversifique sus proveedores, use API keys cuando sea posible y construya flujos de trabajo que sobrevivan a los cambios de política. El panorama de las herramientas de IA es todavía joven y volátil. Las herramientas y términos de los que depende hoy pueden cambiar mañana.
Fuentes
- OpenCode GitHub Repository
- OpenCode OAuth Issue #6930
- Anthropic Blocking OpenCode — Issue #10956
- DHH on X — Criticism of Anthropic
- Anthropic's Walled Garden — Paddo.dev
- Anthropic Claude Code Lockdown — ByteIota
- Claude Code Cripples Third-Party Agents — Reading.sh
- OpenCode January Star Surge — Medium
- Anthropic Takes Legal Action — Hacker News
- Anthropic Explicitly Blocking OpenCode — Hacker News
- OpenCode Providers Documentation
- OpenCode Claude Max Proxy — GitHub
- OpenCode Anthropic Auth Plugin — GitHub
- OpenCode AI Agent Overview — Abit.ee
- Anthropic Banned the Shortcuts — LinkedIn