La versione breve
In January 2026, Anthropic ha bloccato OpenCode e ogni altro strumento di AI coding di terze parti dall'accesso ai modelli Claude tramite OAuth basato su abbonamento. La mossa ha colpito centinaia di migliaia di sviluppatori, scatenando reazioni negative da figure di rilievo come DHH, e ha spinto OpenAI a collaborare pubblicamente con OpenCode come contromossa competitiva. Ecco la storia completa, i dettagli tecnici e le tue opzioni per il futuro.
OpenCode bloccato da Anthropic: L'analisi completa del 2026
Se ti sei svegliato una mattina in January 2026 e hai scoperto che il tuo workflow OpenCode-Claude era improvvisamente interrotto, non eri il solo. Anthropic ha implementato blocchi server-side che hanno escluso OpenCode — l'agente di AI coding open-source con 126,000+ GitHub stars — dall'accesso ai modelli Claude tramite i tokens OAuth degli abbonamenti. Ciò che è seguito è stato uno dei più significativi incidenti di fiducia degli sviluppatori nel panorama degli strumenti AI.
Questo articolo copre tutto: la cronologia, i meccanismi tecnici, l'escalation legale, le reazioni della community, i workaround disponibili e cosa significa questo episodio per il futuro dello sviluppo assistito dall'AI.
Parte 1: Cronologia degli eventi
Fase 1 — Il blocco silenzioso (January 9, 2026)
Il January 9, 2026, Anthropic ha implementato controlli server-side che hanno iniziato a rifiutare i tokens OAuth da strumenti di terze parti. Gli sviluppatori che utilizzavano il comando /connect di OpenCode per autenticarsi con i propri account Claude Pro o Max hanno iniziato a riscontrare problemi. Il messaggio di errore era inequivocabile:
Error: This credential is only authorized for use with Claude Code
and cannot be used for other API requests.
All'inizio, molti sviluppatori hanno pensato si trattasse di un bug. Le segnalazioni su GitHub si sono accumulate nel repository di OpenCode, con utenti che riferivano che le loro configurazioni, precedentemente funzionanti, si erano interrotte da un giorno all'altro. I manutentori di OpenCode hanno confermato che il cambiamento era intenzionale da parte di Anthropic.
Fase 2 — Escalation tecnica (January–February 2026)
Anthropic non si è fermata alla semplice validazione dei tokens. Nelle settimane successive, ha implementato meccanismi di rilevamento sempre più sofisticati:
- Client fingerprinting: Controlli server-side per identificare se una richiesta provenisse da un client Claude Code autentico o da uno strumento di terze parti che simulava lo stesso flusso OAuth.
- Validazione dello User-Agent: Le richieste prive della stringa User-Agent prevista per Claude Code venivano contrassegnate e rifiutate.
- Analisi comportamentale: Schemi di utilizzo delle API che deviavano dai tipici pattern di interazione di Claude Code facevano scattare i blocchi.
Ogni volta che la community di OpenCode trovava un workaround, Anthropic implementava una contromisura. Questa dinamica del gatto e del topo si è svolta attraverso molteplici issue su GitHub, incluse le #6930 e #10956.
Fase 3 — Formalizzazione legale (February 19, 2026)
Il February 19, 2026, Anthropic ha aggiornato i suoi Terms of Service per includere una sezione esplicita sull'uso delle credenziali e dell'autenticazione. La clausola chiave recitava:
I tokens OAuth dei piani Free, Pro e Max non possono essere utilizzati con strumenti di terze parti o con l'Agent SDK.
Questo ha trasformato quella che era stata un'azione tecnica di enforcement in una policy formale. Anthropic ha anche inviato comunicazioni legali al progetto OpenCode, formalizzando la repressione. Fonte
Fase 4 — La contromossa di OpenAI (February–March 2026)
A poche settimane dal blocco di Anthropic, OpenAI ha compiuto una mossa pubblica e strategica. Ha stretto ufficialmente una partnership con OpenCode ed esteso il supporto dell'abbonamento Codex a OpenCode, OpenHands, RooCode e altri strumenti open-source. Fonte
OpenAI non si è limitata a consentire passivamente l'accesso a terze parti — lo ha commercializzato attivamente. Il messaggio era chiaro: se Anthropic non ti permette di usare il tuo abbonamento come desideri, OpenAI lo farà.
Parte 2: Perché Anthropic lo ha fatto
Comprendere le motivazioni di Anthropic richiede l'analisi delle dinamiche di business in gioco.
Protezione dei ricavi
Claude Pro costa $20/month e Claude Max costa $100–200/month. Questi abbonamenti includono limiti di utilizzo generosi pensati per Claude Code, lo strumento di coding basato su terminale di Anthropic. Quando gli utenti di OpenCode si autenticavano via OAuth, accedevano agli stessi modelli Claude a tariffe di abbonamento invece di pagare i prezzi API per-token, che sono significativamente più alti per un utilizzo intenso.
Per Anthropic, ogni sviluppatore che utilizzava Claude tramite OpenCode invece di Claude Code rappresentava o una perdita di ricavi API o un aumento dei costi infrastrutturali senza ricavi corrispondenti dal proprio prodotto.
Strategia di prodotto
Claude Code è una parte centrale della strategia di Anthropic per gli sviluppatori. Limitando l'accesso ai modelli al proprio client, Anthropic mantiene il controllo sull'esperienza utente, raccoglie dati di utilizzo per il miglioramento dei modelli e posiziona Claude Code come il modo definitivo per usare Claude per la programmazione.
Giustificazione dei Terms of Service
Dal punto di vista di Anthropic, il flusso OAuth è stato progettato specificamente per Claude Code. Gli strumenti di terze parti che replicavano questo flusso — facendo accedere gli utenti via browser e ricevendo tokens OAuth — utilizzavano un meccanismo di autenticazione al di fuori del suo scopo previsto. L'aggiornamento dei ToS ha codificato quello che Anthropic sosteneva fosse sempre stato l'intento.
Parte 3: La reazione della community
La risposta della community degli sviluppatori è stata rapida e schiacciante negativamente.
La critica di DHH
David Heinemeier Hansson (DHH), il creatore di Ruby on Rails e CTO di 37signals, è stato tra i critici più accesi. Ha postato su X:
"Conferma che Anthropic sta intenzionalmente bloccando OpenCode, e qualsiasi altro harness di terze parti, in un tentativo paranoico di forzare gli sviluppatori verso Claude Code. Una politica terribile per un'azienda costruita sull'addestramento dei modelli sul nostro codice, sui nostri scritti, su tutto ciò che è nostro. Per favore, cambiate i termini, @DarioAmodei."
La critica di DHH ha catturato un sentimento condiviso da molti: Anthropic ha addestrato i suoi modelli su codice open-source, ma ora impediva agli strumenti open-source di accedere a quei modelli.
Il dibattito sul "Walled Garden"
Lo sviluppatore Patrick O'Doherty ha pubblicato un pezzo influente intitolato "Anthropic's Walled Garden: The Claude Code Crackdown," sostenendo che Anthropic stesse costruendo un ecosistema chiuso che contraddiceva l'ethos aperto della community di sviluppatori da cui dipendeva. Fonte
L'impennata di GitHub stars
Paradossalmente, la controversia è stata la cosa migliore che potesse capitare alle metriche di crescita di OpenCode. Il progetto ha guadagnato 18,000 nuove GitHub stars in due settimane a seguito del blocco, poiché gli sviluppatori si sono uniti intorno al progetto per principio. Entro March 2026, OpenCode aveva raggiunto 126,000+ stars e 800+ contributori.
Thread su Hacker News
Diversi thread su Hacker News sull'argomento hanno attirato centinaia di commenti, con il sentimento dominante che criticava l'approccio di Anthropic. I thread "Anthropic Explicitly Blocking OpenCode" e "Anthropic takes legal action against OpenCode" hanno entrambi raggiunto la prima pagina.
Parte 4: I dettagli tecnici
Come funzionava il flusso OAuth (Prima del blocco)
Prima del divieto, ecco come OpenCode accedeva a Claude:
- L'utente esegue
/connectnella TUI di OpenCode - OpenCode apre una finestra del browser puntata all'endpoint OAuth di Anthropic
- L'utente effettua l'accesso con il proprio account Anthropic (Pro o Max)
- Il browser reindirizza con un token OAuth
- OpenCode memorizza il token localmente e lo usa per le richieste API
- L'API di Anthropic fornisce le risposte di Claude come se provenissero da Claude Code
Questo flusso era funzionalmente identico a quello che fa lo stesso Claude Code. La differenza era il client che effettuava le richieste.
Come funziona il blocco
Il meccanismo di blocco di Anthropic opera su più livelli:
Richiesta dal client
│
├─ Controllo origine token OAuth ──→ Rifiuta se non è Claude Code
│
├─ Validazione fingerprint del client ──→ Rifiuta se simulato
│
├─ Analisi header user-agent ──→ Segnala client non-Claude-Code
│
└─ Pattern matching comportamentale ──→ Blocca utilizzo anomalo
Il fingerprinting è l'elemento più sofisticato. I server di Anthropic analizzano le caratteristiche di ogni richiesta che sono difficili da replicare per gli strumenti di terze parti, inclusi gli header interni, i pattern temporali delle richieste e i metadati di sessione che Claude Code genera.
Subscription OAuth vs. API Keys
È fondamentale comprendere la distinzione:
| Metodo di accesso | Stato | Modello di costo |
|---|---|---|
| Claude Pro/Max OAuth (via terze parti) | Bloccato | Abbonamento ($20–200/mo) |
| Claude Code OAuth (client ufficiale) | Funzionante | Abbonamento ($20–200/mo) |
| Anthropic API key | Funziona con OpenCode | Pay-per-token |
L'uso dell'API di Anthropic con una API key a pagamento in OpenCode è pienamente conforme ai termini di Anthropic. Il blocco si applica solo ai tokens OAuth degli abbonamenti utilizzati al di fuori di Claude Code.
Parte 5: Soluzioni funzionanti (March 2026)
Nonostante le restrizioni, gli sviluppatori hanno diverse strade legittime da percorrere.
Soluzione 1: Anthropic API Key (Pienamente conforme)
L'approccio più semplice e conforme ai ToS è utilizzare direttamente l'API di Anthropic:
# Imposta la tua API key
export ANTHROPIC_API_KEY=sk-ant-xxxxx
# Configura OpenCode per usare il provider Anthropic
# Nel tuo file opencode.json
{
"provider": {
"anthropic": {
"model": "claude-sonnet-4-6"
}
}
}
Costo: Prezzi pay-per-token. Per un uso intensivo di coding, questo può costare $50–200+/month a seconda del volume, rendendolo paragonabile o più costoso di un abbonamento. Ma funziona, ed è pienamente conforme ai termini di Anthropic.
Soluzione 2: OpenAI con abbonamento Codex
OpenAI ora supporta ufficialmente OpenCode. Se hai un abbonamento Codex, puoi usarlo direttamente:
export OPENAI_API_KEY=sk-xxxxx
# Oppure usa l'abbonamento Codex con il supporto integrato di OpenCode
opencode --provider openai
Questa è l'opzione verso cui molti sviluppatori sono migrati, dato l'esplicito supporto di OpenAI per gli strumenti di terze parti. Fonte
Soluzione 3: Strumenti Proxy (Usare con cautela)
Diversi strumenti proxy creati dalla community collegano gli abbonamenti Claude Max a endpoint API locali:
- Meridian: Trasforma il tuo abbonamento Claude Max in una API Anthropic locale. Il proxy si autentica tramite la tua sessione Claude Max invece delle API keys. Fonte
- Anthropic Auth plugins: Plugin di autenticazione OAuth mantenuti dalla community per OpenCode. Fonte
Nota importante: L'uso di strumenti proxy per accedere ai modelli Claude Pro/Max con client di terze parti viola tecnicamente i Terms of Service aggiornati di Anthropic. Il tuo account potrebbe essere terminato se rilevato.
Soluzione 4: Modelli alternativi
OpenCode supporta 75+ LLM providers. Puoi passare a:
- Google Gemini 2.5 Pro — Forti prestazioni nel coding, piano gratuito generoso.
- DeepSeek V3 — Efficiente in termini di costi, eccellente per la generazione di codice.
- Modelli locali tramite Ollama — Completamente offline, costo zero, nessuna preoccupazione per i ToS.
- Mistral Codestral — Costruito appositamente per il codice, prestazioni competitive.
Soluzione 5: Usa una piattaforma che non ti vincola
Se stai costruendo applicazioni invece di scrivere codice in un terminale, considera piattaforme come ZBuild che ti offrono un'esperienza di app builder senza vendor lock-in. ZBuild ti permette di costruire e distribuire applicazioni usando l'assistenza AI mantenendo la piena proprietà e portabilità dei tuoi progetti — senza preoccuparti di quale fornitore di modelli possa cambiare i propri termini in futuro.
Parte 6: Impatto sul sistema allargato
Il divario tra aperto e chiuso
Questo incidente ha cristallizzato una tensione fondamentale nello spazio degli strumenti AI. Da un lato: le aziende che hanno addestrato i modelli su codice open-source e contenuti generati dalla community. Dall'altro: la community open-source che ha prodotto quei dati di addestramento e ora desidera un accesso senza restrizioni ai modelli risultanti.
L'argomento ha avuto risonanza perché ha toccato un nervo scoperto riguardo alla reciprocità. I modelli di Anthropic sono stati addestrati su miliardi di linee di codice open-source. Molti sviluppatori sentono che limitare il modo in cui accedono a quei modelli — specialmente quando sono abbonati paganti — rompe un contratto sociale implicito.
Cambiamenti nella quota di mercato
La controversia ha accelerato diverse tendenze:
| Metrica | Prima del blocco (Dec 2025) | Dopo il blocco (Mar 2026) |
|---|---|---|
| OpenCode GitHub stars | ~56,000 | 126,000+ |
| OpenCode sviluppatori attivi mensili | ~2 million | 5 million+ |
| OpenCode provider supportati | ~40 | 75+ |
| Utenti OpenAI Codex + OpenCode | Minimi | Crescita significativa |
Precedente per altri strumenti
Il divieto di OpenCode ha stabilito un precedente che ha colpito anche altri strumenti di terze parti. Cline, RooCode, Continue, Aider e altri strumenti che utilizzavano flussi OAuth simili sono stati bloccati. L'intero ecosistema di strumenti di terze parti compatibili con Claude è stato colpito, non solo OpenCode. Fonte
Parte 7: Cosa stanno facendo gli sviluppatori ora
Sulla base delle discussioni della community e dell'attività su GitHub, ecco come ha risposto la community degli sviluppatori:
Modelli di migrazione
- Configurazioni multi-provider: Molti sviluppatori ora configurano OpenCode con più provider, usando Claude via API key per i compiti in cui eccelle e alternative più economiche per il lavoro di routine.
- Migrazione a OpenAI: Una parte significativa di sviluppatori dipendenti da Claude è passata a Codex di OpenAI, che accoglie esplicitamente strumenti di terze parti.
- Approcci local-first: L'interesse per i modelli locali (Ollama, llama.cpp) è aumentato notevolmente, spinto dagli sviluppatori che non vogliono più dipendere dalla benevolenza di un singolo fornitore.
- Adozione delle API key: Gli sviluppatori che desiderano continuare a usare Claude sono passati alle API keys, accettando il costo per-token più elevato per l'affidabilità di un metodo di accesso pienamente supportato.
Sentimento degli sviluppatori
Il danno duraturo potrebbe riguardare la reputazione di Anthropic all'interno della community degli sviluppatori. La fiducia, una volta infranta, è difficile da ricostruire. Diversi sondaggi e poll informali su Hacker News e Reddit mostrano che la fiducia degli sviluppatori in Anthropic è diminuita significativamente dopo l'incidente.
Parte 8: Lezioni per l'industria degli strumenti AI
Per i creatori di strumenti
- Mai dipendere dal flusso OAuth di un singolo fornitore come meccanismo di autenticazione primario. Avere sempre un fallback con API key.
- Costruire architetture provider-agnostic fin dal primo giorno. Il supporto di OpenCode per 75+ provider ha fatto sì che il blocco di Anthropic fosse doloroso ma non fatale.
- Aspettarsi che i termini cambino — qualsiasi funzionalità che funzioni "per caso" invece che per accordo esplicito alla fine verrà chiusa.
Per i fornitori di modelli
- Comunicare prima di bloccare. Un preavviso di 30 giorni per il deprezzamento avrebbe generato molta meno reazione negativa rispetto a un'interruzione improvvisa.
- Offrire una via d'uscita. Se si blocca l'OAuth degli abbonamenti per gli strumenti di terze parti, offrire simultaneamente un programma per sviluppatori terzi con prezzi API ragionevoli.
- Ricordare da dove provengono i dati di addestramento. La community degli sviluppatori ha una memoria lunga.
Per i singoli sviluppatori
- Diversificare la propria tool chain. Non costruire l'intero workflow attorno a un singolo fornitore.
- Comprendere i Terms of Service di ogni strumento da cui si dipende.
- Considerare di costruire su piattaforme come ZBuild che astraggono le dipendenze dai provider in modo da potersi concentrare sulla realizzazione del prodotto piuttosto che gestire la politica dei fornitori di AI.
Conclusione
La saga OpenCode-Anthropic del primo 2026 è più di una storia su uno strumento bloccato. È un caso di studio sulle tensioni tra la cultura dello sviluppo open-source e i modelli di business commerciali dell'AI. Anthropic aveva ragioni commerciali legittime per la restrizione, ma l'esecuzione — blocchi silenziosi seguiti da minacce legali — ha eroso la fiducia in modi che richiederanno anni per essere riparati.
Per gli sviluppatori, la lezione pratica è chiara: diversificare i propri fornitori, usare API keys quando possibile e costruire workflow che sopravvivano ai cambiamenti di policy. Il panorama degli strumenti AI è ancora giovane e volatile. Gli strumenti e i termini da cui dipendi oggi potrebbero cambiare domani.
Fonti
- OpenCode GitHub Repository
- OpenCode OAuth Issue #6930
- Anthropic Blocking OpenCode — Issue #10956
- DHH on X — Criticism of Anthropic
- Anthropic's Walled Garden — Paddo.dev
- Anthropic Claude Code Lockdown — ByteIota
- Claude Code Cripples Third-Party Agents — Reading.sh
- OpenCode January Star Surge — Medium
- Anthropic Takes Legal Action — Hacker News
- Anthropic Explicitly Blocking OpenCode — Hacker News
- OpenCode Providers Documentation
- OpenCode Claude Max Proxy — GitHub
- OpenCode Anthropic Auth Plugin — GitHub
- OpenCode AI Agent Overview — Abit.ee
- Anthropic Banned the Shortcuts — LinkedIn