La mattina del 19 febbraio era iniziata normalmente per la maggior parte degli sviluppatori che lavoravano con Claude. All'ora di pranzo, non lo era più.
Anthropic ha aggiornato i propri termini di servizio per vietare esplicitamente l'uso di token OAuth basati su abbonamento nelle applicazioni di terze parti. Gli abbonati Claude Pro e Max che instradavano le proprie credenziali attraverso strumenti come OpenCode, Cline e decine di altri progetti si sono ritrovati con un unico messaggio di errore: accesso negato. Nessun periodo di transizione. Nessun percorso di migrazione. Solo un cambio di policy e un workflow rotto.
La comunità degli sviluppatori ha reagito in modo prevedibile. Le issue su GitHub si sono moltiplicate. I server Discord si sono accesi. Post su Substack con titoli come "La fine dell'hack degli abbonamenti Claude" hanno iniziato a circolare nel giro di poche ore. Per i progetti che avevano costruito l'intero modello di autenticazione sfruttando gli abbonamenti Claude, non si trattava di un piccolo inconveniente — era una minaccia esistenziale.
Gli utenti NanoClaw, nel frattempo, non si sono accorti di nulla. Non perché fossero fortunati, ma perché NanoClaw non è mai stato progettato per usare OAuth.
Cosa è successo davvero
Per capire perché la cosa fosse importante, bisogna comprendere l'hack che Anthropic ha eliminato. Gli abbonamenti Claude Pro e Max includono l'accesso a Claude Code, lo strumento CLI ufficiale di Anthropic. Claude Code si autentica tramite OAuth — fai il login una volta, ottieni un token, e la CLI usa quel token per le chiamate API. Il token è legato al tuo abbonamento, non a una chiave API a consumo.
Gli sviluppatori hanno capito rapidamente che questo token OAuth poteva essere estratto e usato in altri strumenti. Invece di pagare per token tramite l'API Anthropic, si poteva pagare un forfait di 20$/mese per Claude Pro e instradare richieste illimitate attraverso il token dell'abbonamento. Progetti come OpenCode hanno costruito la loro intera proposta di valore su questo: "Usa Claude senza costi API."
L'economia era convincente. Un utente intensivo dell'API Claude poteva spendere 200-500$/mese in token. Lo stesso utilizzo tramite l'hack dell'abbonamento costava 20$. Per i team che gestivano swarm di agenti o automazione continua, il risparmio era enorme.
Anthropic ha tollerato la cosa per mesi. Poi, il 9 gennaio 2026, hanno implementato protezioni lato server che bloccavano i token degli abbonamenti al di fuori dei client ufficiali. Il 19 febbraio, l'hanno reso policy ufficiale. The Register l'ha riportato come Anthropic che "consolida il proprio modello di ricavi." La comunità degli sviluppatori l'ha definito un tradimento. Entrambe le descrizioni erano accurate.
Perché NanoClaw non è mai stato a rischio
Il modello di autenticazione di NanoClaw è volutamente semplice: imposti ANTHROPIC_API_KEY nel tuo file .env, e quella chiave viene passata ai container degli agenti a runtime tramite stdin. Tutto qui. Nessun flusso OAuth, nessuna estrazione di token, nessun sfruttamento degli abbonamenti.
Non si trattava di una svista o di un limite — era una scelta progettuale consapevole radicata in una filosofia precisa: non costruire sull'arbitraggio dei prezzi altrui.
L'hack OAuth è sempre stato una violazione delle policy in attesa di essere applicata. I termini di servizio di Anthropic non hanno mai esplicitamente permesso l'uso dei token degli abbonamenti in strumenti di terze parti. Il fatto che funzionasse era una lacuna nell'applicazione, non una funzionalità. Costruire un prodotto su quella lacuna significava costruire sulla sabbia.
C'è anche una ragione architetturale più profonda. I token OAuth sono basati su sessione e revocabili. Scadono, possono essere invalidati lato server e richiedono flussi di refresh periodici. Una chiave API, al contrario, è un semplice bearer token che funziona finché non la ruoti. Per un agente sempre attivo che gira in container isolati, il modello di autenticazione più semplice è anche quello più affidabile.
Quando NanoClaw avvia un container per un agente, legge la chiave API dal file .env a runtime e la passa al processo del container tramite stdin JSON. La chiave non tocca mai process.env all'interno del container, non viene mai scritta su disco e non appare mai nei log. Questo non è solo più semplice di OAuth — è più sicuro. Un container compromesso non può estrarre un token di sessione e usarlo per impersonare l'utente altrove, perché non esiste alcun token di sessione.
Le conseguenze per i progetti dipendenti da OAuth
I progetti che si basavano sull'hack OAuth si trovano ora in vari stadi di crisi. Alcuni sono passati all'autenticazione tramite chiave API — adottando essenzialmente il modello che NanoClaw usa fin dal primo giorno, ma con il dolore aggiuntivo di migrare gli utenti esistenti. Altri stanno esplorando workaround che probabilmente verranno bloccati al prossimo giro di applicazione.
OpenCode ha rilasciato una modalità "Antigravity" che tenta di usare percorsi di autenticazione alternativi. La risposta della comunità è stata mista — alcuni la vedono come ingegneria brillante, altri come un raddoppio su una strategia già fallita una volta.
Le conseguenze più interessanti sono di natura filosofica. L'hack OAuth aveva creato l'aspettativa tra gli sviluppatori che l'accesso a Claude dovesse essere a tariffa fissa e illimitato. Ora che l'hack è morto, gli sviluppatori si confrontano con l'economia reale della gestione degli agenti AI: i costi dei token sono reali, scalano con l'utilizzo, e non esistono scorciatoie.
Questo è in realtà salutare per l'ecosistema. Quando il costo delle chiamate API è nascosto dietro un hack dell'abbonamento, gli sviluppatori non ottimizzano per l'efficienza. Usano prompt verbosi, saltano il caching e lasciano girare gli agenti in loop senza consapevolezza dei costi. Quando ogni token ha un prezzo, si inizia a pensare al prompt engineering, alla gestione della finestra di contesto e a chiedersi se quell'agente debba davvero girare ogni 60 secondi.
Cosa significa per il futuro
Il cambio di policy di Anthropic fa parte di una tendenza più ampia. I provider AI stanno restringendo i controlli di accesso mentre cercano modelli di business sostenibili. OpenAI limita l'accesso API da mesi. L'API Gemini di Google ha limiti di utilizzo che diventano più stringenti a ogni aggiornamento. L'era dell'accesso illimitato all'AI tramite hack creativi di autenticazione sta finendo.
Per gli sviluppatori che costruiscono agenti AI, la lezione è chiara: autenticatevi attraverso canali ufficiali e documentati. Usate chiavi API. Pagate per quello che usate. Costruite il vostro modello di costi sui prezzi reali delle API, non su opportunità di arbitraggio che possono scomparire da un giorno all'altro.
L'approccio di NanoClaw — una singola ANTHROPIC_API_KEY nel file .env, passata in modo sicuro ai container a runtime — non è entusiasmante. Non è un hack, non è furbo, e non vi fa risparmiare tramite routing creativo dei token. Ma funzionava ieri, funziona oggi e funzionerà domani, perché è costruito sul modello di autenticazione che Anthropic effettivamente supporta e documenta.
A volte la scelta architetturale noiosa è quella che invecchia meglio. Il 19 febbraio, la noia ha vinto.