Die Ausgangsfrage
Kann man eine seriöse, nützliche Content-Plattform aufbauen, die größtenteils von KI-Agenten betrieben wird – ohne dass die Qualität leidet?
Das ist die Frage, die smartscale.it beantworten will. Nicht als theoretisches Experiment, sondern in der Praxis.
Die Idee hinter smartscale.it
KI und Automatisierung sind Themen, über die viele schreiben. Aber kaum jemand zeigt, wie man diese Technologien wirklich einsetzt. smartscale.it soll beides sein: eine Informationsquelle und ein lebendiges Beispiel.
Die Plattform wird mit den gleichen Methoden und Tools aufgebaut, über die sie berichtet. KI-Agenten recherchieren Themen, schreiben Artikel-Entwürfe, optimieren für Suchmaschinen und bereiten die Veröffentlichung vor. Menschen – konkret: ich – geben die strategische Richtung vor, prüfen kritische Inhalte und entscheiden, was veröffentlicht wird.
Die Agenten-Architektur
Das Herzstück von smartscale.it ist ein Multi-Agenten-System mit sechs spezialisierten Agenten:
Trend Scout
Der Trend Scout beobachtet KI-relevante News, Blog-Posts, Paper und Social-Media-Diskussionen. Er identifiziert Themen, die für die Zielgruppe relevant sein könnten, bewertet sie nach Aktualität und Relevanz und schlägt Topics für neue Inhalte vor.
Researcher
Der Researcher vertieft ausgewählte Themen. Er liest Quellen, strukturiert Fakten und erstellt ein Briefing-Dokument, das als Grundlage für den eigentlichen Artikel dient. Alle Quellen werden mitgeliefert und können überprüft werden.
Editor
Der Editor nimmt das Briefing und schreibt den ersten Artikel-Entwurf. Er kennt den Stil von smartscale.it, die Zielgruppe und die inhaltlichen Standards. Seine Entwürfe sind kein Rohmaterial – sie sind echte erste Versionen, die in der Regel nur wenig Nacharbeit brauchen.
SEO Agent
Der SEO Agent analysiert den Artikel im Hinblick auf Suchmaschinenoptimierung: Keyword-Abdeckung, Heading-Struktur, Meta-Description, interne Verlinkungsmöglichkeiten. Er macht Verbesserungsvorschläge, setzt sie aber nicht selbst um – das entscheidet der Editor oder ich.
QA Agent
Der QA Agent ist der kritischste Part: Er überprüft Fakten, prüft auf Konsistenz und bewertet die inhaltliche Qualität. Wenn er Zweifel an einer Aussage hat, markiert er sie für menschliche Überprüfung. Kein Artikel wird veröffentlicht, ohne QA zu durchlaufen.
Publisher
Der Publisher nimmt den finalen, genehmigten Artikel und bereitet die technische Veröffentlichung vor: Frontmatter-Daten, Slug, Kategorisierung, Git-Commit. Er veröffentlicht nichts eigenständig – er bereitet nur vor.
Was die Agenten dürfen und was nicht
Diese Grenze ist entscheidend für das Vertrauen in das System:
Dürfen eigenständig:
- Recherchieren und Fakten sammeln
- Artikel-Entwürfe erstellen
- SEO-Analysen durchführen
- Qualitäts-Checklisten ausfüllen
- Git-Commits vorbereiten
Müssen ich genehmigen:
- Veröffentlichung von Artikeln
- Änderungen an Kernstruktur und Navigation
- Affiliate-Link-Empfehlungen
- Aussagen zu rechtlichen oder finanziellen Themen
- Alles, was meine persönliche Meinung darstellt
Technische Umsetzung
Die Agenten basieren auf Claude Sonnet (Anthropic) für die meisten Aufgaben. Claude Code läuft als Entwickler-Agent für technische Änderungen.
n8n koordiniert die Workflows: Ein Trend-Scout-Lauf wird täglich getriggert. Wenn ein Thema als interessant bewertet wird, startet automatisch der Recherche-Workflow. Danach wartet das System auf meine Freigabe, bevor der Editor den Artikel schreibt.
Alle Agenten-Outputs werden in einem internen Notion-Workspace gespeichert und dokumentiert. So kann ich jederzeit nachvollziehen, was welcher Agent gemacht hat und warum.
Was gut funktioniert
Überraschend gut: Die Qualität der ersten Entwürfe. Wenn der Researcher gründlich gearbeitet hat, liefert der Editor Texte, die mit 20-30% Überarbeitung publikationsreif sind.
Sehr gut: Das Tempo. Was früher Stunden dauerte, dauert jetzt Minuten. Recherche, Briefing, erster Entwurf – ein vollständiger Durchlauf unter einer Stunde.
Wo die Grenzen liegen
Eigene Erfahrungen und Meinungen: KI-Agenten können keine echten Erfahrungen beschreiben. “Ich habe n8n zwei Wochen lang getestet und dabei gemerkt…” – das klingt anders als das, was ich als Mensch schreiben würde.
Subtile Faktenfehler: Trotz QA Agent schlüpfen manchmal kleine Ungenauigkeiten durch. Die Häufigkeit ist gesunken, aber nicht null.
Aktualität: Agenten wissen nur, was sie recherchiert haben. Breaking News brauchen weiterhin menschliche Aufmerksamkeit.
Was kommt als nächstes
Die nächste Phase ist die Automatisierung der Feedback-Schleife: Welche Artikel werden gelesen? Welche Themen performen? Diese Signale sollen in die Themenauswahl des Trend Scouts zurückfließen.
Das Ziel ist keine vollständige Autonomie. Das Ziel ist eine Plattform, auf der Menschen und Agenten so zusammenarbeiten, dass das Ergebnis besser ist als das, was jeder alleine schaffen könnte.