Beyond SEO: Einen Transformer fine-tunen, um Inhalte für die KI-Suche zu optimieren

Basierend auf dem Paper "Beyond SEO: A Transformer-Based Approach for Reinventing Web Content Optimisation" von Lüttgenau, Colic & Ramirez. Veröffentlicht im Juli 2025.

Paper: arXiv:2507.03169


Die Idee: Was wäre, wenn ein Modell Ihren Inhalt automatisch umschreiben könnte?

Bisher beruhte GEO auf manuellen Strategien: "Fügen Sie Statistiken hinzu", "Zitieren Sie Quellen", "Verbessern Sie die Lesbarkeit." Das ist effektiv, erfordert aber menschliche Arbeit für jede einzelne Seite.

Dieses Paper schlägt einen radikal anderen Ansatz vor: Ein Sprachmodell (BART) fine-tunen, damit es Webinhalte automatisch in eine GEO-optimierte Version umschreibt.

Die Idee ist einfach: Dem Modell rohen Website-Text als Eingabe geben und als Ausgabe eine optimierte Version erhalten, die von KI-Suchmaschinen besser zitiert wird.


So funktioniert es

Die Trainingsdaten

Die Forscher erstellten einen synthetischen Datensatz von 1.905 Paaren von Inhalten aus dem Reisebereich:

  • Eingabe: Rohtext einer Reise-Website
  • Ausgabe: GEO-optimierte Version desselben Textes

Die optimierten Versionen integrieren:

  • Glaubwürdige Zitate
  • Statistische Belege
  • Bessere sprachliche Flüssigkeit

Das Modell

Sie haben BART-base fine-getuned — ein relativ kleines und zugängliches Transformer-Modell. Keine Notwendigkeit für riesige GPU-Cluster: Es ist ein Ansatz, der mit bescheidenen Ressourcen funktioniert.


Die Ergebnisse

Qualität der Umschreibung

Das fine-getunte Modell übertrifft das Basis-BART bei den Textqualitätsmetriken:

  • ROUGE-L: 0,249 (vs. 0,226 für die Baseline) — misst die Ähnlichkeit mit dem Zieltext
  • BLEU: 0,200 (vs. 0,173) — misst die Genauigkeit der Textgenerierung

Sichtbarkeit in der KI-Suche

Hier wird es interessant. Die Forscher testeten den optimierten Inhalt mit Llama-3.3-70B als generative Suchmaschine:

  • +15,6% Verbesserung bei der absoluten Wortzahl in generierten Antworten
  • +31% Verbesserung bei der positionsgewichteten Wortzahl (Wörter am Anfang der Antwort zählen mehr)

Der vom Modell umgeschriebene Inhalt ist signifikant sichtbarer in den KI-Antworten.


Warum das wichtig ist

1. Der erste Beweis, dass Fine-Tuning für GEO funktioniert

Vor diesem Paper verwendeten alle GEO-Ansätze entweder manuelle Regeln oder LLM-Prompting. Dies ist die erste empirische Demonstration, dass ein speziell für GEO fine-getuntes Modell signifikante Ergebnisse erzielen kann.

2. Mit bescheidenen Ressourcen zugänglich

BART-base ist ein kleines Modell. Der Datensatz umfasst weniger als 2.000 Beispiele. Kein GPU-Cluster nötig, um diese Ergebnisse zu reproduzieren. Es ist ein Ansatz, den kleine Teams oder Einzelpersonen übernehmen könnten.

3. Domänenspezifisch

Das Modell wurde mit Reise-Content trainiert. Die Forscher betonen, dass der Ansatz domänenspezifisch ist — für andere Branchen wären andere Datensätze erforderlich. Aber die Pipeline zur Erstellung synthetischer Daten ist reproduzierbar.


Die Grenzen

  • Nur eine Domäne getestet (Reise) — die Generalisierung auf andere Branchen ist nicht bewiesen
  • Synthetischer Datensatz — die Trainingspaare sind KI-generiert, nicht von Menschen erstellt
  • Kleines Modell — BART-base hat seine Grenzen in Verständnis und Generierung
  • Kein End-to-End-Test — wie SAGEO Arena hervorhebt, kann die Optimierung für die Generierung ohne Test des Retrievals kontraproduktiv sein

Was das für die Zukunft des GEO ankündigt

Dieses Paper eröffnet einen vielversprechenden Weg: Die Automatisierung von GEO durch Fine-Tuning. Man kann sich vorstellen:

  • Nach Branche fine-getunte Modelle (Gesundheit, Recht, E-Commerce...)
  • Automatisierte Pipelines, die Inhalte im grossen Massstab umschreiben
  • SaaS-Tools, die diese Modelle für Content-Ersteller integrieren

Es ist noch ein erster Schritt — der Datensatz ist klein, die Domäne einzigartig — aber der Proof of Concept ist da. Automatisiertes GEO durch Fine-Tuning ist machbar, selbst mit begrenzten Ressourcen.

Kombiniert mit agentischen Ansätzen wie AgenticGEO zeichnet sich eine Zukunft ab, in der die Optimierung für die KI-Suche weitgehend automatisiert sein wird.


Paper: Lüttgenau, F., Colic, I., & Ramirez, G. (2025). Beyond SEO: A Transformer-Based Approach for Reinventing Web Content Optimisation. arXiv:2507.03169