MCP’nin token sorunu gerçek.
Geleneksel Model Context Protocol uygulamaları para kaybediyor. AI agentiniz bir sorunu çözmeye başlamadan önce bile, sadece hangi API’lerin var olduğunu açıklamak için 55.000 token harcamış bulunuyor. Anthropic’te, bazı kurumsal yapılandırmaların saf overhead’i 134.000 tokena ulaşıyor. Bu verimlilik değil. Her tek istekte verilen bir vergidir.
Sorun inanılmaz derecede basit: sistem, agentin aslında kullanıp kullanmayacağından bağımsız olarak tüm tool tanımlarını baştan yükler. GitHub, Slack, Sentry, Grafana ve Splunk’tan gelen 58 araç hepsi modelin bağlam penceresine devasa JSON payload’ları olarak dökülür. Çoğu mevcut görevle ilgisiz. Bunların hiçbiri önemli değil.
“Geleneksel MCP uygulamaları sıklıkla büyük JSON payload’larını model bağlamına enjekte eder; bu da token tüketimini artırır ve verimliliği azaltır.”
Code Mode tam burada devreye giriyor. Ve denklemin tamamını değiştiriyor.
Code Mode’da Gerçekten Neler Değişti?
Code Mode, tool tanımlarını baştan yüklemez. Bunun yerine, modelin talep üzerine araçları çağıran kod üretmesini sağlar. LLM, mevcut API’lerin bir kaydını arar, ihtiyaç duyduğu şeyin şemasını çeker, doğru endpoint’i çağırmak için Python kodu yazar ve bu kodu sandbox ortamında çalıştırır. Sonuç geri gelir. Bitti.
Verimlilik kazancı açık: bağlam karmaşası yok, ilgisiz tool tanımlarından kaynaklanan hallüsinasyon riski yok ve çarpıcı şekilde düşük token tüketimi. Peki kimsenin konuşmadığı gerçek anlayış nedir? Bu yaklaşım, bağlam penceresi boyutunu yürütme zekasıyla değiştirir. Model, yapabileceği şeyleri açıklamıyor—onu gerçekten yapıyor.
Bunun için bir sandbox gereklidir.
LLM Kodunu Doğrudan Neden Çalıştıramıyorsunuz?
Burada acı gerçekle karşılaşıyoruz. Bir yapay zeka modelinin keyfi Python üretmesine ve bunu üretim sunucunuzda çalıştırmasına izin vermek, hızlı bir şekilde tehlikeye maruz kalmanın yoludur. Dosya erişimi. Ağ kötüye kullanımı. Ayrıcalık yükseltme. Sistem ele geçirme.
OpenSandbox—Alibaba’nın açık kaynaklı platformu, şu anda CNCF Landscape’te listelenmiş—bunu izole bir yürütme ortamı oluşturarak çözer. Oluşturulan Python kodu, kısıtlı dosya sistemi erişimi, ağ kontrolleri, kaynak sınırları ve proses izolasyonuyla bir konteyner içinde çalışır. Sandbox, modelin niyetleriyle gerçek altyapınız arasında bir set görevi görür.
Bu paranoya değil. Mimari.
Akış şöyle görünür: başlangıç, tüm mevcut OpenAPI spec’lerini keşfeder ve bir kayıt defterine yükler. İstek geliyor. Sistem, metadata’ya göre ilgili araçları arar. LLM, get_schema aracılığıyla seçilen tool’un şemasını inceler. Model, endpoint’i doğru şekilde çağıran Python kodu üretir. Bu kod, execute aracılığıyla sandbox’a gönderilir. Sandbox, bunu izolasyonda çalıştırır, HTTP isteğini gerçek sisteme iletir ve ham sonucu döndürür. LLM, bunu insan tarafından okunabilir bir yanıta dönüştürür.
Üç temel araç bunu sağlar: search, get_schema ve execute. Hepsi bu.
Bu Gerçekten Geleneksel MCP’den Daha İyi mi?
Evet. Ama bazı uyarılarla.
Yüzlerce API’ye ve kocaman tool kayıt defterlerine sahip kuruluşlar için, Code Mode token vergisini ortadan kaldırır. Bağlam overhead’inde %90 azalma teorik değil—her tek tool tanımını ön yüklemekten vazgeçtiğinizde olur. Ölçekte, bu gerçek bir maliyet tasarrufu ve daha hızlı çıkarımdır.
Ancak burada Anthropic’in pazarlama slaytlarına girmeyecek şey: Code Mode, gecikme süresi ekler. Sandbox’a ek bir gidiş-dönüş, kod oluşturma, yürütme ve sonuç ayrıştırma zaman alır. Gecikmeye duyarlı uygulamalar için, geleneksel MCP—şişman olmasına rağmen—aynı araçları tekrar tekrar kullanıyorsanız daha hızlı olabilir.
Ayrıca, her ortam bu seviyede optimizasyona ihtiyaç duymaz. Dar bir API seti çalıştırıyorsanız (diyelim, toplam 15K token tüketen beş araç), sandbox oluşturma ve dinamik tool çağırmanın mühendislik karmaşıklığı buna değmeyebilir.
Büyük Resim: Bağlam Verimliliği Olarak Yeterlilik
İlginç olan şey, bunun sadece MCP optimizasyonu olmamasıdır. Bu bir kalıp. Modeller büyüdükçe ve token pencereleri genişledikçe, her şeyi bağlama atmak cazip geliyor. Anthropic temelde şunu söylüyor: bunu yapma. Modelin gördüğü şey konusunda kasıtlı ol.
Code Mode, bu kasıtlılığı zorunlu kılar. Artık 100 tool tanımını tembel yükleyemezsiniz. Keşif, ilişkisellik ve modelin sorunu çözmek için gerçekten neye ihtiyaç duyduğu hakkında düşünmek zorundasınız.
Bu önemlidir çünkü bağlam penceresi boyutu, bir gurur metriğidir. Gerçek verimlilik, sinyal-gürültü oranı hakkındadır. Code Mode bunu çarpıcı şekilde iyileştirir.
.NET ve C# geliştirici için bunu kurumsal ortamlarda uygularken (orijinal yazar bunun araştırmasını yapıyor), bu kalıp değerlidir. Temel ilke—statik tanımları enjekte etmek yerine çalıştırılabilir kod oluştur—API’nin ötesine ölçeklenir. Ajanların veritabanları, altyapı ve dahili araçlarla nasıl etkileşim kurduğunu yeniden şekillendirebilir.
OpenSandbox Meselesi
Son bir şey: OpenSandbox, çoğu geliştirici için nispeten yeni. Katı (CNCF onaylı, çok dilli SDK’lar, Docker/Kubernetes desteği), ancak benimseme ana akım değil. Code Mode’u üretimde uyguluyorsanız, ekosistemini hâlâ geliştirmekte olan bir platform üzerine bahis oynuyorsunuz.
Bu bir anlaşmazlık değil. Sadece bir gerçeklik kontrolü.
Buradaki kazanım gerçek: MCP token israfı olmadan, gerçekten çalıştırılabilir tool çağırma ve güvenliği hız için feda etmeyen bir sandbox kalıbı. Ancak uygulama, geleneksel MCP’den daha fazla altyapı gerektirir. Token overhead sorununu kendiniz karşılamıyorsanız, yanlış sorun için doğru çözümdür.
🧬 İlgili İçgörüler
- Okuyun: Your Access Tokens Are Probably Broken (And Nobody’s Telling You)
- Okuyun: Azure Kubernetes Service: Why Your Cost Optimization Strategy Is Probably Broken
Sık Sorulan Sorular
Code Mode her API ile çalışır mı? API’nin bir OpenAPI şeması olduğu ve HTTP aracılığıyla erişilebilir olduğu sürece, Code Mode bunu keşfedebilir, şema denetleyebilir ve çağırabilir. Sandbox’ın hedef sistemlerinize ulaşmak için ağ çıkış kurallarının yapılandırılması gerekir.
Code Mode, mevcut MCP kurulumumu değiştirecek mi? Mutlaka değil. Araç kayıt defteriniz küçükse ve token tüketimi bir darboğaz değilse, Code Mode’a geçiş karmaşıklık ekler ve fayda sağlamaz. Gerçek token overhead’i ve gecikme gereksinimlerine göre değerlendirin.
OpenSandbox üretim için hazır mı? Evet—CNCF Landscape’tedir ve Docker/Kubernetes’te kurumsal dağıtımı destekler. Ancak ekosistem olgunluğu ve topluluk desteği, ana akım araçlarla aynı seviyede değildir.