Caffè ormai freddo sulla scrivania, schermo che brilla con i log parsati da ~/.claude/ — è lì che ho capito: 187 sessioni, 3,3 miliardi di token, 6.744 dollari andati in fumo.
L’uso dei token in Claude Code non è come te lo immagini. Ci siamo passati tutti, accendendo l’agente di coding di Anthropic per bot, automazioni, lavoretti extra, convinti che sia magia efficiente. Ma questo tuffo negli abissi — costruito con un CLI Rust chiamato ccwhy — fa saltare il coperchio.
E la verità cinica dopo 20 anni a guardare i cicli di hype della Valley: Anthropic incassa alla grande sulle letture cache, mentre tu ti arrangi a cambiare abitudini per non fallire.
Perché il conto token di Claude Code ti frega all’improvviso
97% letture cache. A ogni turno, Claude rilegge l’intero contesto della conversazione — tipo tornare alla prima pagina di Guerra e pace a ogni paragrafo. La cache costa poco, certo, 1,5 dollari al milione di token, ma domina tutto.
La fetta che controlli? Un misero 2,8%. Vediamola: 92,5% creazione cache (file CLAUDE.md, tool MCP, system prompt), 6,6% output di Claude, 0,9% il tuo input. Ecco la tua quota — ridicola.
Uso Claude Code da un mese a tappeto. Bot per trading, tool di automazione, progetti collaterali. Sapevo di star consumando token ma non avevo mai guardato i numeri.
Nemmeno questo sviluppatore, finché non è arrivato il CLI. Ora open source — brew install SingggggYee/tap/ccwhy, o cargo install. Funziona offline, senza chiavi. Ti dice perché, non solo quanto, come fa ccusage.
Ore di punta (lun-ven 5-11 PT) hanno ingoiato 1,3 volte più token. Tool Bash? 40% delle chiamate, rimandando output lunghissimi dentro. Subagenti? 840 chiamate, ognuna che duplica il contesto intero per ricerche idiote.
86 sessioni esplose oltre i 30 turni senza /compact, contesto gonfio 2-3 volte. 35 anomalie con burn rate 2-3x. Ti suona familiare?
Il 97% di letture cache in Claude Code è normale?
Forse per utenti pesanti. Ma sostenibile? Ecco la mia visione unica, tratta dal crollo del dot-com: vi ricordate i costi di trasferimento dati AWS all’inizio? Sviluppatori costruivano imperi su EC2, poi si beccavano mazzate sulle uscite che nessuno aveva previsto. La cache di Claude è la tassa nascosta di oggi — Anthropic conta sul fatto che non parsifichi ~/.claude/.
Previsione: entro un anno, lanceranno compressione contesto più smart, o gli utenti si ribellano verso modelli open come Llama. Perché chi ci guadagna davvero? Non tu, che fissi le bollette.
Le correzioni post-analisi hanno funzionato. /compact dopo 20 turni. Via Agent, usa grep/glob sui codebase. Sposta i carichi pesanti fuori punta. Anomalie sparite.
Ma divaghiamo un attimo — tool così li ho visti. Nel 2010, i log di Heroku rivelavano sprechi per dyno sleep; gli sviluppatori ci giravano script intorno. Stessa atmosfera. Claude Code è potente, sì, ma crudo senza controllo.
Dominio Bash? Spietato. Piping output comando interi nel contesto — perché? I tool dovrebbero riassumere, non vomitare tutto. Subagenti che duplicano contesto? Roba da principianti. Sembra che Anthropic abbia puntato su velocità anziché intelligenza, incassando sulla tua distrazione.
Chi ci guadagna dalle tue abitudini con Claude Code?
Anthropic, ovvio. Il piano Max ammorbidisce il colpo (costo API equivalente, non il tuo tabellone), ma i pattern urlano inefficienza. Stai sovvenzionando la loro infrastruttura mentre insegui produttività.
Guardate, ho coperto ogni onda AI — Watson, GPT-3, ora questa. Verità senza buzzword: ottimizzare token è il nuovo devops. ccwhy è il tuo SRE per bollette AI.
Hai condiviso i tuoi breakdown? I commenti esplodono con “anche la mia cache è al 95%”. Normale? Per ora. Ma aspettati lo spin PR di Anthropic: “La cache abilita la magia!” Sì, e le uscite dati hanno costruito il cloud.
Piccoli cambiamenti, grandi risparmi. Quel 0,9% input? Puli i prompt. Output al 6,6%? Guida Claude alla brevità.
Una sessione anomala: burn 2-3x, magari loop o catena tool sbagliata. Spar