Vitalik Buterin betreibt seine KI im Käfig. Nicht buchstäblich – aber nah genug dran, dass es zählt.
Der Ethereum-Mitgründer hat gerade eine detaillierte Aufschlüsselung seines persönlichen KI-Setups veröffentlicht, und zwischen den technischen Details verbirgt sich etwas, das auf ein viel größeres Problem hinweist: Wir haben es normalisiert, unser ganzes Leben an Cloud-basierte KI-Services zu verfüttern, und fast niemand scheint sich Sorgen zu machen. Buterin tut es. Er hat Mauern gebaut.
Er betreibt alles lokal. Das Modell – Qwen3.5:35B, Open-Source, nichts Proprietäres – sitzt auf seinem Laptop mit einer Nvidia 5090 GPU und schafft 90 Token pro Sekunde. Das ist schnell genug, um sich responsiv anzufühlen. Er hat einen kompletten Wikipedia-Dump auf seiner Maschine gecacht, um externe Suchmaschinen zu vermeiden (die er als Datenschutz-Lecks behandelt). Und hier kommt der Clou: Wenn sein KI-Agent eine Nachricht senden oder Geld verschieben will, kann er das nicht. Nicht ohne seine explizite Genehmigung vorher.
“Die neue Zwei-Faktor-Authentifizierung ist der Mensch und das Sprachmodell”, schrieb er.
Das 15%-Problem, über das niemand spricht
Buterin eröffnete seinen Beitrag mit einer Statistik, die mehr Aufmerksamkeit hätte bekommen sollen. Sicherheitsforscher fanden heraus, dass ungefähr 15% der Skills, die für OpenClaw gebaut wurden – das am schnellsten wachsende GitHub-Repository der Geschichte – bösartigen Code enthielten. Einiges davon exfiltrierte heimlich Benutzerdaten. Die Nutzer ahnten nichts davon.
Das ist kein Rundungsfehler. Das ist ein Feature der Art, wie KI-Agenten gerade eingesetzt werden: schnell, locker und fast vollständig vertrauensbasiert. Man zeigt einem Sprachmodell ein Drittanbieter-Tool und hofft, dass nichts schiefgeht. Was könnte schon schiefgehen?
Alles. Und Buterin weiß das.
Ist das wirklich praktisch oder nur Krypto-Theater?
Hier wird es interessant. Buterin predigt nicht nur – er hat es implementiert. Die Architektur ist in ihrer Schlichtheit fast langweilig: Seine KI kann lesen von Signal und E-Mail frei. Sie kann analysieren, zusammenfassen, Antworten entwerfen. Aber wenn es um schreib-Operationen geht? Vollständiger Stopp. Nur manuelle Überprüfung.
Für Ethereum-Wallet-Teams schlägt er einen gestaffelten Ansatz vor. Transaktionen unter 100 Dollar pro Tag? Autonom. Alles darüber? Nur mit menschlicher Genehmigung.
Es ist nicht revolutionär. Es ist nicht einmal besonders clever. Aber es ist das genaue Gegenteil von dem, was jedes große KI-Unternehmen gerade tut. OpenAI, Google, Anthropic – alle rasen auf agentische Autonomie zu ohne Sicherheitsvorkehrungen und setzen darauf, dass Rate-Limiting und Safety-Training die Grenzfälle handhaben. Buterin setzt darauf, dass sie es nicht tun.
Er hat wahrscheinlich recht. Und er ist wahrscheinlich der Einzige, der tatsächlich für diese Annahme baut.
Warum das über die Krypto-Blase hinaus zählt
Hören Sie, es gibt etwas wirklich Verstörendes an Buterins Framing hier. Er ist nicht wütend auf KI-Unternehmen. Er hat Angst – echte Angst – dass wir gerade dabei sind, einen Jahrzehnt Datenschutz-Fortschritt rückgängig zu machen.
End-to-End-Verschlüsselung wurde normal. Lokale Software gewann an Schwung. Und dann – genau als die Datenschutz-Architektur endlich gewann – kam KI und sagte: “Eigentlich senden wir einfach alles auf unsere Cloud-Server, okay?” Keine Ausnahme. Keine Wahl. Nur normalisierte Extraktion.
Buterin sah es kommen. Im Februar veröffentlichte er eine Vier-Quadranten-Roadmap für Ethereum-KI-Alignment. Das war Theorie. Dieser Blogbeitrag ist Praxis. Er sagt: Hier ist, wie tatsächlich datenschutzerhaltende KI aussieht. Es ist langsamer. Es ist weniger praktisch. Es erfordert, dass man Dinge manuell genehmigt. Und vielleicht – nur vielleicht – ist das der Preis dafür, nicht in jemand anderes Data-Center zu leben.
Der Krypto-Winkel hier ist fast nebensächlich. Ja, ihm ist Sorge um KI-Agenten, die autonom Mittel verschieben. Ja, er hat sein Setup so gebaut, dass es widerspiegelt, wie er bereits Krypto verwaltet (90% in einem Multisig Safe Wallet mit verteilten Schlüsseln). Das ist intelligente Architektur. Aber der wirkliche Einblick ist einfacher: Wenn du ein KI-System etwas Wichtiges tun lässt ohne manuelles Genehmigungsgate, hast du verloren.
Der architektonische Wandel, den niemand vorhergesagt hat
Was Buterin wirklich beschreibt, ist eine Rückkehr zu etwas Älterem – dem Prinzip, dass Nähe Kontrolle bedeutet. Cloud-KI sah aus wie die Zukunft, weil es schnell und billig war. Lokale KI sollte zu langsam sein, um wichtig zu sein, zu schwach um konkurrenzfähig zu sein. Das war vor fünf Jahren. Die Inferenzgeschwindigkeiten haben explodiert. Modellgrößen wurden optimiert. Eine Nvidia 5090 kann jetzt ernsthafte Sprachmodelle mit Gesprächstempo ausführen.
Plötzlich sieht der Tradeoff anders aus. Du kannst jetzt Datenschutz und Leistung haben. Das Einzige, das du verlierst, ist das Extraktions-Spiel – die Möglichkeit für Unternehmen, alle Abfragen zu aggregieren und darauf nachzutrainieren.
Aber diese Extraktion war nie ein Feature. Sie war immer das Geschäftsmodell mit einem gefälschten Lächeln. Buterin hat gerade gezeigt, was passiert, wenn man für Nutzer baut statt für Datenmengen.
🧬 Verwandte Erkenntnisse
- Mehr lesen: Cambodia’s Life Sentence Law Won’t Stop Crypto Scammers—It’ll Just Scatter Them
- Mehr lesen: Quantum Computers Are Coming for Your Bitcoin. Here’s Who’s Actually Ready.
Häufig gestellte Fragen
Welches Modell verwendet Vitalik Buterin für sein KI-Setup? Er betreibt Qwen3.5:35B, ein Open-Source-Modell, lokal auf einem Laptop mit einer Nvidia 5090 GPU über llama-server. Es erreicht etwa 90 Token pro Sekunde, was er für Echtzeit-Aufgaben als nutzbar erachtet.
Wie verhindert Vitalik, dass seine KI unbefugte Transaktionen tätigt? Er hat einen benutzerdefinierten Messaging-Daemon gebaut, der der KI erlaubt, eingehende Nachrichten und E-Mails frei zu lesen, aber manuelle menschliche Genehmigung verlangt, bevor die KI ausgehende Nachrichten senden oder Kryptowährung verschieben kann. Transaktionen über 100 Dollar pro Tag erfordern Bestätigung.
Warum ist Vitalik auf lokale KI umgestiegen statt OpenAI oder andere Cloud-Services zu nutzen? Ihm ist Sorge um Datenschutzrisiken von Cloud-basierten KI-Services und er zitierte Forschung zeigt, dass 15% der KI-Skills bösartigen Code enthalten, der Daten heimlich exfiltrieren kann. Er behandelt Cloud-Infrastruktur als Datenschutz-Leck und bevorzugt lokale Kontrolle.