Claude Sonnet 4 spuckt einen weiteren 1.200-Wörter-Banger über ‘TDEE-Optimierung für berufstätige Eltern’ aus, inklusive Rechner-Links und Snippet-Köder. Viermal am Tag. Kein Mensch rührt eine Tastatur an.
So läuft’s bei Catalyst OS, wo ein Chemie-Ingenieur – ja, kein klassischer Dev – diese KI-Content-Pipeline** hochgefahren hat. Sechs Monate am Stück pumpt er Inhalte für sein Life-Optimization-Imperium raus: Rechner, Lernmodule, KI-Journale. Manuelles Schreiben? Vergiss es – 2-3 Stunden pro Stück. Also hat er alles automatisiert.
Aber Moment. Ich jage seit 20 Jahren Silicon-Valley-Hype nach, vom Dotcom-Goldrausch bis zu NFT-Fieberträumen. Und jedes Mal, wenn jemand prahlt mit ‘vollständig automatisierter Content-Skalierung’, riecht’s nach Ärger. Wer profitiert? Nicht die Leser, die durch KI-Schrott waten. Nicht Google, das Algorithmen schärft, um das Zeug zu versenken. Schauen wir uns diese n8n-gesteuerte Maschine genau an – bevor sie indexiert und vergessen wird.
Der Ablauf: Vom Topic-Bank zum Telegram-Ping
Selbst gehostetes n8n startet viermal täglich. Holt ein Thema aus der Supabase-Tabelle topic_bank – vorgeprüfte Perlen mit Hooks, Zielgruppen, Dimensionen (Geist, Körper, Reichtum). Kein AI-Freestyle; das ist Anfängerstufe.
Eine Postgres-Funktion fischt das nächste raus, markiert es als in Bearbeitung. Klug – verhindert Duplikate bei Überlappungen.
Dann peng: Claude Sonnet 4, Temperatur 0,7, mit einem 16k-Zeichen-Prompt gefüttert. Brand-Voice? Kein ‘dive’ oder ‘game-changer’-Quatsch. 3-8 interne Rechner-Links einweben. Für Snippets optimieren: Fragen, Listen, fette Definitionen.
Strukturierter Output – 13 Abschnitte, von Meta-Desc bis Quellen. Parser reißt sie mit Regex raus, Qualitätschecks: über 800 Wörter, 3+ Links, harte Zahlen oder Studien. Fail? Weg damit.
OG-Bild auto-generiert. Supabase-Insert. Next.js SSR mit JSON-LD, Breadcrumbs. Sitemap neu. IndexNow-Pings an Bing/Yandex. Social-Posts. Telegram-Ding. Fertig.
“I don’t let the AI decide what to write about. I maintain a topic_bank table in Supabase with pre-planned topics.”
Worte des Builders selbst. Kontrolliertes Chaos.
Kurzer Absatz für Punch.
Rückwärts zoomen. Das ist kein Wochenend-Hack. Eine volle SEO-Fabrik: Supabase für Speicher, Resend-Mails (er erwähnt’s, wo genau?). Telegram-Bots. Next.js 15 rendert mit Schema-Markup, das Google liebt. Priorität 0,85 in Sitemaps. Robots-Meta für fette Snippets.
Beeindruckende Ingenieurskunst. Aber.
Nachhaltige SEO-Magie – oder aufgemotzter Spam?
Ich kenn Content-Farmen. Erinnert ihr euch an Demand Media 2010? Algo-Gaming mit ‘How to Fix a Leaky Faucet’-Schrott und Studiolivity-Videos. Milliarden Traffic, bis Google Panda sie zerquetschte. Das hier? Riecht ähnlich. Vorgekuratierte Themen, klar – aber KI-Fingerabdrücke überall.
Sein Prompt verbietet AI-Klischees, fordert Quellen, Spezifika. Checks filtern Weak-Sauce raus. Trotzdem jagt Googles Helpful Content Update (und was kommt als Nächstes) dünnes, user-trappy Zeug. Position Zero? Klar, bis E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness) richtig zuschlägt.
Einzigartiger Twist, den noch keiner zerlegt hat: Der Typ ist Chemie-Ingenieur. Kein Journalist, keine Fachkenntnisse jenseits selbstgelehrter Code. Artikel zitieren ‘Studien’ – Halluzinationsrisiko durch KI? Claude ist gut, Sonnet 4 besser – aber Temperatur 0,7 lädt zum Abschweifen ein. Ein Fehlgen, und eure Topical Authority ist im Eimer.
Wer kassiert? Er vielleicht – organischer Traffic zu Premium-Tools. Affiliates? Rechner leiten intern weiter, funneln User. Aber 4/Tag? 120/Monat. Google merkt Volumensprünge. Penalty-Risiko explodiert.
Stack-Kosten: Anthropic-API ist nicht umsonst. n8n self-host okay, Supabase wird teuer. Break-even nur über Traffic? Riskant.
Warum Devs das sabbern – und warum du’s nicht nachmachen solltest
Devs schwärmen für die Architektur. n8n als Dirigent? Gold für