SEO

information gain bedeutung erklärung seo llmo
Bedeutung und Funktion von Information Gain für SEO und LLMO: Erfolg durch einzigartige Informationen
Bedeutung und Funktion von Information Gain für SEO und LLMO: Erfolg durch einzigartige Informationen 1024 1024 Patrick Stolp

Wer heute eine Frage an ein Suchsystem stellt, gibt sich mit einer Liste blauer Links nur noch selten zufrieden, seitdem es generative KI gibt. Die Suchergebnisse von einst (Google und Co.), die einem reinen Katalog von Websites glichen, aus dem man sich über das Sichten und Lesen unterschiedlicher Quellen seine eigene beste Antwort selbst zusammensetzen musste, weichen zunehmend direkten, oft erstaunlich – informativen – Antworten, die unmittelbar auf der Ergebnisseite präsentiert werden (ChatGPT und andere KI-Chatbots).

Moderne Suchsysteme haben aufgehört, einzelne Wörter oder Verweise zu zählen und zu verarbeiten. Sie haben begonnen, das Wesen von Information selbst zu ergründen, indem sie aus reinen „strings“ mehr und mehr „things“ werden ließen. Maschinen verknüpften Begriffe und Begriffskombinationen, erfassten so ihren Kontext und gewannen einen Eindruck davon, ob und in welchem Maße diese einen Beitrag zum Informationsgewinn leisten können – oder eben auch nicht. Diese tiefere Ebene des Verständnisses ist die eigentliche Revolution der Suche, die in unserer Gegenwart durch „conversational content“ ihre Manifestation findet.

Wer also, wie ich, im künftigen digitalen Search Marketing, also in der Suchmaschinenoptimierung (SEO) oder der aufkommenden Disziplin der Large Language Model Optimization (LLMO), erfolgreich sein will, muss diesen Wandel im Kern verstehen.

In diesem Artikel beleuchte ich daher das Konzept des Information Gain, das nicht nur den (menschlichen) Informationsgewinn messbar macht, sondern Maschinen in die Lage versetzt, ein Wissensnetzwerk durch semantische Verknüpfungen zu entwickeln. Abschließend erläutere ich, wie generative KI aus diesen Informationen und Informationsmetriken kohärente und nützliche Antworten erschafft.

Wie Suchmaschinen lernten, Informationen zu verstehen

Um die Genialität moderner Suchsysteme zu würdigen, muss ich einen Schritt zurückgehen. In den Anfängen war die digitale Suche ein recht mechanischer Prozess. Man kann sich das bildlich vorstellen wie den Index am Ende eines gewaltigen Sachbuchs: Suchmaschinen haben für jedes einzelne Wort eine Liste aller Seiten erstellt, auf denen es vorkam. Der Index kannte also die genaue Position von Begriffen wie „Golf“ oder „Testbericht“, aber er verstand nicht, dass diese Wörter in einer bestimmten Kombination eine spezifische und eindeutige Bedeutung erhalten.

Suchsysteme waren also kontextblind. Bei einer Suche nach „Golf GTI Testbericht“ lieferte eine Suchmaschine einfach alle Dokumente, die irgendwo in einem Dokument diese Wörter enthielten. Das Ergebnis konnte ein Bericht über ein Golfturnier, das vom Rügener Flughafen mit der internationalen Kennung „GTI“ gesponsert wurde, sein, was vermutlich nur selten die Intention gewesen wäre, oder ein „Testbericht“ über ein Automodell von Volkswagen. Das System scheiterte also daran, zu erkennen, dass der Nutzer einen ganz bestimmten Informationskontext suchte.

Phrase-based indexing

Der erste große Durchbruch zur Überwindung dieser Starrheit war die phrasenbasierte Indexierung. Doch wie entscheidet eine Maschine, welche Phrasen zusammengehören und welche nicht?

Die Antwort liegt in einem Konzept, das aus der Informationstheorie und dem maschinellen Lernen entlehnt ist und in Patenten wie US7536408B2 eine zentrale Rolle spielt: die Berechnung des Information Gain.

Um dies zu verstehen, müssen wir zwei Kernbegriffe kennen:

  1. Entropie: Stell Dir einen Korb mit gemischten Früchten aller Art vor. Die Entropie ist hier sehr hoch, es herrscht Unordnung bzw. Chaos. Wenn Du die Früchte nun nach Sorten in kleinere Schalen sortierst, sinkt die Entropie in jeder einzelnen Schale. Entropie ist also ein Maß für die Unreinheit oder Zufälligkeit in einem Datensatz.
  2. Entscheidungsbäume: Ein Entscheidungsbaum ist ein Modell, das versucht, diese Unordnung zu reduzieren, indem es eine Reihe von Fragen stellt. Zum Beispiel: „Ist die Frucht rot?“. Jede Antwort teilt den großen Korb in zwei kleinere, geordnetere Gruppen auf.

Information Gain ist nun die exakte mathematische Metrik, die berechnet, welche Frage die Unordnung am effektivsten reduziert. Die Formel lautet im Kern:

Information Gain = Entropie (vor der Frage) – Durchschnittliche Entropie (nach der Frage)

Eine Frage, die zu einem hohen Information Gain führt, ist also eine sehr gute Frage, weil sie viel Klarheit schafft.

Übertragen auf die Suchmaschine ist die Frage eines Suchsystems: „Sagt das Vorhandensein der Phrase A etwas über das Vorhandensein der Phrase B aus?

Durch die Berechnung des Information Gain konnte eine Suchmaschine also quantifizieren, welche Phrasen starke, vorhersagbare Beziehungen zueinander haben und welche nur zufällig zusammen auftreten.

Statt Dokumente nur unter einzelnen Wörtern abzulegen, begann das System, sie aktiv mit Metadaten über semantische Beziehungen anzureichern.

Konkret kann man sich das so vorstellen: Ein Dokument wurde nun nicht mehr nur für das Vorkommen des Wortes „GTI“ indiziert, sondern für die „gute Phrase“ „Golf GTI Testbericht“. Der entscheidende Schritt war jedoch die Annotation: Dieses Dokument wurde im Index zusätzlich mit einem Vektor – der in diesem Kontext als eine Art digitales Etikett fungierte – versehen, der eine Liste von thematisch verwandten Phrasen repräsentierte. Diese verwandten Phrasen (z. B. „Beschleunigung“, „PS-Zahl“, „Kompaktsportler“) wurden zuvor über den Information Gain als hochgradig relevant identifiziert und zu Clustern zusammengefasst.

Das Ergebnis war ein Wissensnetzwerk, das direkt im Index verankert war. Die Suchmaschine konnte nun bei einer Anfrage nicht nur Dokumente finden, die die exakten Suchphrasen enthielten, sondern auch solche, die thematisch relevant waren, weil sie mit den passenden semantischen Clustern annotiert waren. Die eigentliche Informationsmehrwert lag nicht mehr nur im einzelnen Wort, sondern in den explizit im Index gespeicherten relevanten Beziehungen zwischen den Worten.

Information Gain aus Nutzerperspektive: Wie neu sind die Informationen eines Dokuments (speziell für dich)?

Ich fasse nochmal kurz den Wert von Information Gain für Maschine bzw. Suchsysteme zusammen: Zunächst dient der Information Gain als internes Werkzeug zur Qualitätskontrolle des Index. Funktionelle Aufgabe ist es, aus dem riesigen Ozean an Daten sinnvolle Zusammenhänge herauszufiltern. Phrasen, die nur zufällig nebeneinanderstehen, erzeugen informatives „Rauschen“ und werden durch einen niedrigen Information-Gain-Wert entlarvt und aussortiert. Gleichzeitig werden Phrasen mit hohen gegenseitigen Information-Gain-Werten zu semantischen Clustern zusammengefasst. Dies ist die Perspektive der Maschine: die Schaffung einer sauberen, logisch geordneten Wissenslandkarte.

Auf dieser Grundlage entfaltet sich die zweite, für den menschlichen Endnutzer letztlich relevante Perspektive: der „Neuheitsgrad“ einer Information bzw. eines Dokuments. Auch dieses Verständnis von Information Gain ist nicht etwa Ausdruck bloßer Zufälligkeit, sondern basiert auf einem wohldefinierten mathematischen Prinzip, umgesetzt durch Machine-Learning-Modelle: dem Rückgang der Entropie, also der mittleren Ungewissheit innerhalb einer Wahrscheinlichkeitsverteilung.

„Neu“ ist Information in diesem Sinne dann, wenn sie bestehende Erwartungen, in diesem Fall konkret den gegenwärtigen Wissensstand eines Nutzers, systematisch korrigiert oder präzisiert.

Man kann sich den Prozess des Information Gains für einen Nutzer grundsätzlich so vorstellen:

  1. Der Startpunkt: Welches Maß an Entropie/Nicht-Wissen hat ein Nutzer?
    Google oder ein anderes Suchsystem erfasst die Dokumente, die ein Nutzer zu einem Thema bereits gesehen hat (z. B. Artikel 1, 2 und 3 über „effektives Schreiben von Content-Marketing-Ratgebern“). Diese Sammlung an bekannten Informationsdokumenten repräsentiert den aktuellen Wissensstand des Nutzers, und dieser inhärent ist eine bestimmte informationelle Entropie – gewissermaßen ein Maß für das verbleibende Nicht-Wissen oder die noch unbeantworteten Aspekte des Themas.
  2. Die Weggabelung: Welches Dokument reduziert seine Entropie/sein Nicht-Wissens?
    Jedes neue, noch nicht gesehene Dokument (z. B. ein Artikel über „erfolgreiche Content-Distribution von Ratgebertexten) wird als potentieller nächster Schritt in einem Entscheidungsbaum behandelt. Das Suchsystem stellt sozusagen die Frage: Wie stark würde sich die Gesamtunsicherheit (Entropie) des Nutzers reduzieren, wenn ihm dieses Dokument präsentiert wird?
  3. Das Etappenziel: Der Information-Gain-Score
    Der Score für den Neuheitswert wird berechnet, indem die Entropie nach dem Lesen des neuen Dokuments von der Entropie davor abgezogen wird, exakt also wie weiter oben für Information Gain aus maschineller Perspektive schon formuliert. Ein Dokument, das nur bereits bekannte Fakten wiederholt, reduziert die Unsicherheit ergo kaum bis gar nicht – der Information-Gain-Score ist niedrig. Ein Dokument, das einen völlig neuen Aspekt beleuchtet (in unserem Beispiel die Distribution anstatt Produktion von Content), sorgt für eine im Vergleich höhere Reduktion der Entropie und erhält daher einen hohen Information Gain Score.

In diesem Google-Patent mit dem Titel Contextual estimation of link information gain wird dieser Prozess sogar nahezu exakt so beschrieben, auch wenn Entropie als zugrunde liegendes mathematisches Modell, soweit ich es verstehe – nicht genannt wird, so viel Ehrlichkeit soll sein.

Ein kleiner Einschub am Rande: Ich bin weder Informatiker noch Mathematiker. Ich meide Zahlen und Formeln wie der Teufel das Weihwasser. Trotzdem bin ich der Meinung, dass es ohne grundlegendes Verständnis von Kernmechanismen des Machine Learning künftig nicht mehr geht. Sie dazu meinen LinkedIn-Post:

Synthese zweier Information-Gain-Konzepte: Ordnung als Voraussetzung für Neuheit

Beide dargestellten Perspektiven auf Information Gain sind keine Gegensätze, sondern zwei Seiten derselben Medaille. Ein System, ob semantische Suchmaschine oder LLM bzw. KI-Chatbot, kann den Neuheitswert eines Dokuments für einen Nutzer (menschliche Perspektive) nur dann präzise bestimmen, wenn es zuvor die grundlegenden thematischen Zusammenhänge im gesamten Datenkorpus verstanden und geordnet hat (maschinelle Perspektive).

Um zu erkennen, dass der Artikel aus meinem Beispiel über Content-Distribution subjektiv neu und relevant ist, muss die Maschine wissen – oder berechnet haben -, dass „Content-Distribution“ und „Content-Produktion“ zwei unterschiedliche, aber zum Wissensgebiet „Content-Marketing“ gehörende semantische Cluster sind. Das Fundament der maschinellen Ordnung ermöglicht erst die „wissenserweiternde“, personalisierte Auswahl und Auslieferung passender Dokumente.

Von der Informationsfindung zur Informationserzeugung

Nachdem die Systeme gelernt hatten, Dokumente thematisch zu vernetzen, war der nächste logische Schritt eine weitere Verfeinerung des Informationssuchsystems: Weg vom ganzen Dokument hin zum einzelnen, relevantesten Textabschnitt bzw. einer (Text-)Passage, um im Wortlaut des zentralen Patents mit dem Namen „Scoring candidate answer passages“ zu bleiben.

Und warum das Ganze? Anstatt dem Nutzer nur eine Liste relevanter Dokumente auf der SERP zu präsentieren, aus denen dieser sich die Antwort selbst heraussuchen musste, sollte ihm nun die präziseste Antwort direkt präsentiert werden , oft in Form der bekannten „Answer Boxes“ oder „Featured Snippets“. (Ergänzung: Für Google ist es seit jeher das Ziel, den Nutzer im Google-Kosmos gefangen zu halten, siehe AI Overviews, aber das ist ein anderes Thema.)

Das Scoring geeigneter Textabschnitte allem voran durch Google funktioniert in mehreren Schritten: Zuerst identifiziert das System eine Nutzeranfrage als „antwortsuchend“. Daraufhin werden aus den relevantesten Dokumenten einzelne „Kandidaten-Passagen“ extrahiert.

Diese Abschnitte, oft direkt unterhalb von (Zwischen-)Überschriften, durchlaufen dann ein ausgeklügeltes, mehrstufiges Bewertungsverfahren, welches sich grob in drei Scoring-Kategorien bzw. Aufgaben unterteilen lässt:

  • Passt ein Textabschnitt exakt zur Nutzerfrage (Query Dependent Score)?
  • Wie hoch ist die Qualität der Quelle (Query Independent Score)?
  • In welchem Kontext steht der Abschnitt, also wie weit ist dieser in der Seitenstruktur bzw. in der strukturgebenden Überschriften-Hierarchie verschachtelt (Context Score)?

Wichtig dabei: Die anfängliche Auswahl der relevanten Dokumente, aus denen diese Passagen stammen, basiert weiterhin auf den fundamentalen Prinzipien des semantischen Index, der mithilfe von Information Gain aufgebaut wurde, wie ich es oben erklärt hatte.

Doch der bisher größte evolutionäre Sprung verwandelte die Suchmaschine vom Informations-Bibliothekar zum Informations-Autor – es vollzog sich also eine Entwicklung der bloßen Ordnung und Sortierung relevanter und „guter“ Informationsquellen („zehn blaue Links“) zur Extrahierung und Erzeugung der Information an sich. Wir sind in der Gegenwart angekommen. Willkommen in der Ära der generativen KI.

Retrieval Augmented Generation als die logische Weiterentwicklung von Information Gain

Wir haben festgestellt, dass der entscheidende evolutionäre Sprung in der Fähigkeit liegt, aus gefundenen Informationen eine neue, kohärente Antwort zu erzeugen. Das Herzstück dieser neuen Generation von Suchsystemen ist ein Verfahren namens Retrieval-Augmented Generation (RAG). Doch wie stellt man sicher, dass dieser Prozess nicht nur kreativ, sondern vor allem faktisch korrekt und nachvollziehbar ist?

Die Antwort darauf liefern ausgeklügelte Methoden wie GINGER (Grounded Information Nugget-Based Generation of Responses), ein System, das von Forschern der Universität Stavanger entwickelt wurde. Es löst die Kernprobleme bisheriger RAG-Modelle – wie faktische Fehler, fehlende Quellenbelege und das „Lost in the Middle“-Problem bei langen Kontexten – durch einen genialen, mehrstufigen Ansatz. Die zentrale Innovation von GINGER ist, dass es nicht mit ganzen Textpassagen arbeitet, sondern diese zuerst in ihre atomaren Bestandteile zerlegt: in sogenannte Information Nuggets. Das sind minimale, in sich geschlossene und überprüfbare Informationseinheiten, die eine präzise Rückverfolgung zur Quelle ermöglichen.

Der gesamte Prozess lässt sich am besten als eine Art Fertigungsstraße für Antworten verstehen:

  1. Zerlegung in Nuggets: Zuerst extrahiert ein LLM aus den relevantesten gefundenen Textpassagen die zentralen Fakten als prägnante Nuggets.
  2. Ordnen der Fakten: Anschließend werden diese Nuggets thematisch geclustert, um Redundanz zu vermeiden und die verschiedenen Aspekte (Facetten) einer Anfrage zu ordnen. Dies erhöht die Informationsdichte der späteren Antwort.
  3. Priorisierung der Themen: Die erstellten Themencluster werden nach ihrer Relevanz für die Anfrage bewertet und sortiert, um die wichtigsten Informationen zu priorisieren.
  4. Verfassen der Antwort: Zuletzt fasst ein LLM die Kernaussagen der wichtigsten Cluster zu einzelnen Sätzen zusammen und glättet diese in einem finalen Schritt zu einer flüssigen, gut lesbaren Antwort, ohne neue Inhalte hinzuzufügen.

Dieses GINGER-Verfahren stellt sicher, dass die finale Antwort maximal informativ, faktisch fundiert und frei von Redundanz ist – eine massive Verbesserung gegenüber einfachen RAG-Ansätzen.

Der Zusammenhang von RAG und Information Gain

Dieses ausgeklügelte Verfahren beginnt, wie wir sahen, mit dem „Retrieval“, also dem Abrufen relevanter Textpassagen. Dies führt uns zu einer entscheidenden technischen Frage: Woher nimmt das System diese Informationen?

Dafür muss man zwischen zwei Arten von Such-Systemen unterscheiden: Ein eigenständiges LLM ohne Zugang zu Suchmaschinendokumenten besitzt keinen durchsuchbaren Index; sein Wissen ist statisch in den Modellparametern eingebrannt. Eine klassische Suchmaschine hingegen basiert auf einem gigantischen, durchsuchbaren Index des Webs.

Moderne RAG-Systeme auf der Basis von GINGER kombinieren nun das Beste aus beiden Welten: Sie nutzen das Sprachverständnis eines LLM, geben ihm aber Zugriff auf einen externen, durchsuchbaren Index, aus dem es Fakten abrufen kann.

Genau hier wird die Verbindung zum Information Gain fundamental:

1. Information Gain als Motor für das Retrieval (Die System-Perspektive)

Die „R“-Komponente in RAG, der Retriever, benötigt einen Index, der semantische Zusammenhänge versteht, um die qualitativ besten Passagen zu finden. Die Prinzipien des maschinenzentrierten Information Gains – also Phrasen zu erkennen und anhand ihrer Beziehungen zu Clustern zu verbinden – sind die technologische Grundlage, die einen solchen intelligenten Index erst ermöglichen. Man kann also sagen: Das maschinelle Konzept des Information Gain sorgt dafür, dass die Rohstoffe für die generative KI von höchster Qualität und Relevanz sind.

2. Information Gain als Ziel für die Generation (Die Nutzer-Perspektive)

Die „G“-Komponente in RAG, der Generator, hat das Ziel, eine kohärente, nicht-redundante und maximal informative Antwort zu erstellen. Dieses Ziel deckt sich perfekt mit dem nutzerzentrierten Verständnis von Information Gain. Obwohl Systeme wie GINGER nicht explizit die Entropie-Formel verwenden, ist ihre Architektur darauf ausgelegt, genau dieses Prinzip umzusetzen: Das Clustering von Nuggets zur Vermeidung von Redundanz und das Ranking der Themencluster zur Priorisierung der wichtigsten Fakten sind beides Mechanismen, die darauf abzielen, dem Nutzer den größtmöglichen Wissensgewinn zu verschaffen.

Das nutzerzentrierte Prinzip des Information Gain beschreibt also exakt das Ziel, das fortschrittliche RAG-Systeme durch ihre komplexe Architektur zu erreichen versuchen.

Information Gain ist somit der unsichtbare Faden, der die gesamte Evolution der Suche verbindet. In seiner maschinenzentrierten Form schafft er die semantisch geordnete Grundlage, die den Retriever von RAG-Systemen leistungsfähig macht. Gleichzeitig beschreibt er in seiner nutzerzentrierten Form exakt das Ziel, das fortschrittliche Generatoren wie GINGER anstreben: die Schaffung einer faktisch korrekten, redundanzfreien und maximal aufschlussreichen Antwort.

Grundlagen von LLMs: transformer
Transformer: eine Einführung in die grundlegende Technologie von LLMs (KI-Chatbots)
Transformer: eine Einführung in die grundlegende Technologie von LLMs (KI-Chatbots) 1024 1024 Patrick Stolp

Sprachmodelle wie ChatGPT wirken auf den ersten Blick wie eine Blackbox. Sie scheinen aus dem Nichts kreative, kohärente und oft verblüffend menschliche Texte zu erschaffen. Man könnte versucht sein, von Magie zu sprechen. Doch ähnlich wie in der modernen semantischen Suchmaschinenoptimierung, die weit über starre Keyword-Regeln hinausgeht, haben wir es hier nicht mit Zauberei zu tun, sondern mit brillanter Ingenieurskunst. Es gibt eine innere Ordnung, eine Architektur, die diesen beeindruckenden Fähigkeiten zugrunde liegt.

Wer heute die Zukunft der digitalen Information – und damit die Grundlage für Disziplinen wie Large Language Model Optimization (LLMO) – verstehen will, muss diese Blackbox öffnen. Er muss vom staunenden Anwender zum wissenden Experten werden. Genau das ist das Ziel dieses Artikels: Wir werfen einen Blick auf das Herzstück, das dem aktuellen KI-Boom seine Kraft verleiht: eine spezifische Erfindung namens Transformer.

Um die Funktionsweise und die Genialität des Transformers zu begreifen, entschlüsseln wir zunächst das Akronym, das in aller Munde ist und dessen letzter Buchstabe den Schlüssel zum Verständnis liefert: GPT.

TL;DR

Die Reise durch die Transformer-Architektur entmystifiziert die vermeintliche Magie der Sprach-KI und offenbart sie als das, was sie ist: eine Kette von logischen, mathematisch fundierten Operationen. Die Kernidee ist ebenso elegant wie wirkungsvoll.

  1. Ein Text wird in Tokens zerlegt, von denen jeder in einen Vektor umgewandelt wird, der seine anfängliche Bedeutung repräsentiert.
  2. Das Herzstück, der Attention-Mechanismus, ermöglicht es diesen Vektoren, miteinander zu interagieren und ihre Bedeutung im spezifischen Kontext des Satzes zu verfeinern.
  3. Dieser Prozess aus Aufmerksamkeits-Analyse und Weiterverarbeitung wiederholt sich in mehreren Schichten, bis der finale Vektor des letzten Tokens eine hochgradig kontextualisierte Essenz des bisher Gesagten enthält.
  4. Aus diesem Vektor wird schließlich eine Wahrscheinlichkeitsverteilung für das nächste Wort berechnet.

Was bedeutet eigentlich GPT?

Um die Funktionsweise von Large Language Models (LLMs) zu verstehen, müssen wir zunächst ihre Bezeichnung entschlüsseln. Die Initialen GPT stehen für „Generative Pre-trained Transformer“. Jeder dieser Begriffe beschreibt eine wesentliche Eigenschaft Großer Sprachmodelle, die wir nun nacheinander beleuchten.

G wie „Generative“: die Vorhersage des wahrscheinlichsten nächsten Wortes

Der erste Begriff, „Generativ“, beschreibt die grundlegendste Fähigkeit dieser Modelle: Sie erzeugen neuen Text. Auf den ersten Blick mag dieser Vorgang komplex erscheinen, doch im Kern basiert er auf einem erstaunlich einfachen Prinzip. Ein Großes Sprachmodell ist darauf trainiert, für eine gegebene Textpassage eine Vorhersage zu treffen, was als Nächstes kommt. Diese Vorhersage ist keine einzelne, definitive Antwort, sondern eine Wahrscheinlichkeitsverteilung über alle möglichen Wörter oder Textbausteine, die folgen könnten.

Aus diesem simplen Mechanismus der Wortvorhersage entsteht die Fähigkeit von LLMs, lange und zusammenhängende Texte zu generieren. Das Modell erhält einen Ausgangstext, wählt aus der erzeugten Wahrscheinlichkeitsverteilung eine passende Fortsetzung aus, fügt diese dem bisherigen Text hinzu und wiederholt den gesamten Prozess. Genau dieser Zyklus aus Vorhersage und Ergänzung ist es, den wir beobachten, wenn ein Chatbot wie ChatGPT Wort für Wort eine Antwort formuliert.

P wie „Pre-trained“: das Datenfundament

Der Begriff „Pre-trained“, zu Deutsch „vortrainiert“, verweist auf den initialen Lernprozess des Modells. Vor seiner eigentlichen spezifischen Anwendung wird das Sprachmodell mit einer gewaltigen Menge an Daten trainiert. Dieses Vortraining schafft eine breite Wissensbasis. Der Begriff deutet zudem an, dass auf diesem Fundament aufgebaut werden kann, um das Modell durch zusätzliches, spezialisiertes Training auf bestimmte Aufgaben, wie zum Beispiel das Führen eines Dialogs, zu optimieren.

T wie „Transformer“: Kontext ist King

Der letzte Buchstabe im Akronym ist der entscheidende – der eigentliche Schlüssel zur Leistungsfähigkeit moderner KI. Der Transformer ist eine spezifische Art von neuronalem Netzwerk, eine Maschinenlern-Architektur, die als die zentrale Erfindung hinter dem aktuellen KI-Boom gilt.

Ursprünglich wurde die Transformer-Architektur im Jahr 2017 von Google für einen sehr spezifischen Zweck entwickelt: die Übersetzung von Text von einer Sprache in eine andere.

Die Variante, die jedoch Werkzeugen wie ChatGPT zugrunde liegt, ist darauf spezialisiert, den Faden eines Textes aufzunehmen und vorherzusagen, wie er weitergeht. Seine besondere Stärke, die ihn von älteren Architekturen abhebt und die wir im nächsten Kapitel detailliert betrachten werden, ist die Fähigkeit, den Kontext zu verarbeiten. Er kann also die Beziehungen zwischen Wörtern in einem Text verstehen und bewerten, auch wenn sie weit auseinander liegen.

So funktioniert ein Transformer

Nachdem wir die Begriffe geklärt haben, folgen wir nun dem Weg der Daten durch das Modell. Was passiert genau unter der Haube, wenn ein Transformer eine Antwort generiert? Der gesamte Prozess lässt sich in mehrere klar definierte Schritte unterteilen, von der Aufspaltung des Inputs bis zur finalen Wortvorhersage.

Schritt 1: Tokenization – Text wird zu Bausteinen

Zuerst wird der eingegebene Text in eine Reihe kleinerer Teile zerlegt. Diese Einheiten werden „Tokens“ genannt. Im Falle von Text handelt es sich bei Tokens typischerweise um ganze Wörter, Wortteile oder auch nur um häufige Buchstabenkombinationen und Satzzeichen. Würde man das System mit Bildern oder Tönen füttern, wären die Tokens entsprechend kleine Bildausschnitte oder kurze Audio-Schnipsel.

Schritt 2: Embeddings – Bausteine werden zu Zahlen (Vektoren)

Jeder dieser Tokens wird nun einem Vektor zugeordnet – einer langen Liste von Zahlen, die seine Bedeutung kodieren soll. Dieser Prozess, das „Einbetten“ eines Tokens, ist fundamental für alles, was folgt. Man kann sich diese Vektoren als Koordinaten für einen Punkt in einem extrem hochdimensionalen semantischen Raum vorstellen. Während wir uns einen dreidimensionalen Raum leicht vorstellen können, hat der Vektorraum von GPT-3 beispielsweise 12.288 Dimensionen.

Die zentrale Idee dabei ist, dass dieser Raum eine semantische Struktur aufweist: Tokens mit ähnlicher Bedeutung werden auf Vektoren abgebildet, die in diesem Raum nahe beieinander liegen. Mehr noch, die Richtungen in diesem Raum können selbst Bedeutung tragen.

Ein klassisches Beispiel hierfür ist die Beobachtung, dass die Vektor-Differenz zwischen „König“ und „Mann“ der von „Königin“ und „Frau“ sehr ähnlich ist. Das Modell lernt während seines Trainings, solche Beziehungen abzubilden, sodass Richtungen im Raum Konzepte wie Geschlecht, Nationalität oder auch Familienbeziehungen repräsentieren.

Entscheidend ist jedoch, dass diese Vektoren nicht statisch sind. Der Vektor, der zu Beginn für das Wort „König“ steht, ist nur der Ausgangspunkt. Das primäre Ziel des nachfolgenden Netzwerks ist es, diesen Vektor mit Kontext anzureichern. Er soll quasi die Informationen aus seiner Umgebung aufsaugen, sodass er am Ende nicht mehr nur „König“ bedeutet, sondern beispielsweise „der schottische König aus einem Shakespeare-Stück, der durch Mord an die Macht kam“.

Schritt 3: Der Attention-Mechanismus – Vektoren „sprechen“ miteinander

Hier geschieht das, was den Transformer so revolutionär macht. Die aufbereiteten Vektoren durchlaufen einen sogenannten „Attention-Block“ (Aufmerksamkeits-Block). In diesem Schritt bekommen die Vektoren die Möglichkeit, miteinander zu „sprechen“ und Informationen auszutauschen, um ihre Werte gegenseitig zu aktualisieren.

Der Attention-Mechanismus ist dafür verantwortlich herauszufinden, welche anderen Wörter im Kontext für die exakte Bedeutung eines bestimmten Wortes relevant sind.

Nehmen wir den Satz: „Ein neuronales Netz ist ein Machine-Learning-Modell“. Das Wort „Modell“ hat hier eine andere Bedeutung als in „Ein Chanel-Kleid ist ein klassisches Mode-Modell“. Der Attention-Mechanismus ermöglicht es dem System, den Kontext zu analysieren und die Bedeutung des Vektors für „Modell“ entsprechend anzupassen. Alle diese kontextuellen Bedeutungsnuancen werden vollständig in den Zahlenwerten der Vektoren kodiert.

Schritt 4: Verarbeitung und Wiederholung

Nachdem die Vektoren im Attention-Block ihre Bedeutungen kontextuell verfeinert haben, durchlaufen sie eine andere Art von Operation, die oft als „Feed-Forward-Layer“ oder „Multi-Layer Perceptron“ bezeichnet wird. Anders als beim Attention-Mechanismus interagieren die Vektoren hier nicht miteinander, sondern werden alle parallel durch dieselbe Operation geschickt. Man kann sich diesen Schritt vereinfacht so vorstellen, als würde das Große Sprachmodell für jeden Vektor eine lange Liste von Fragen stellen und dessen Werte basierend auf den Antworten aktualisieren.

Dieser gesamte Prozess wird nicht nur einmal durchlaufen. Die Architektur des Transformers sieht vor, dass die Daten abwechselnd mehrere Attention-Blöcke und Feed-Forward-Layer passieren. Mit jeder Wiederholung dieses Zyklus wird das im Vektor kodierte Verständnis des Kontexts tiefer und nuancierter.

Schritt 5: Die Vorhersage – Vom Vektor zurück zum Wort

Am Ende dieser langen Kette von Verarbeitungsschritten ist die Hoffnung, dass die gesamte wesentliche Bedeutung der bisherigen Textpassage im Vektor des letzten Tokens verdichtet wurde. Auf diesen finalen, kontextgesättigten Vektor wird eine letzte Operation angewendet. Er wird durch eine finale Matrix, die „Unembedding Matrix“, geschickt, um eine Liste von Roh-Werten zu erzeugen – einen für jeden möglichen Token im Vokabular des Modells. Diese Werte werden in der Fachsprache auch „Logits“ genannt.

Da diese Logits eine beliebige Liste von Zahlen sind, müssen sie in eine gültige Wahrscheinlichkeitsverteilung umgewandelt werden. Hier kommt die sogenannte „Softmax“-Funktion ins Spiel. Sie stellt sicher, dass alle Werte zwischen 0 und 1 liegen und ihre Summe exakt 1 ergibt. Dabei sorgt sie dafür, dass die höchsten Logit-Werte die größte Wahrscheinlichkeit erhalten. Das Modell hat nun eine klare Verteilung, die angibt, mit welcher Wahrscheinlichkeit jeder Token der nächste im Satz sein könnte. Daraus wird dann eine Auswahl getroffen und der Kreislauf kann von Neuem beginnen.

Transformer-Technologie ein Baustein in der Zukunft des Search-Marketings

Was bedeutet dieses Wissen nun für uns, die wir uns professionell mit der Sichtbarkeit von Informationen im digitalen Raum beschäftigen? Es bedeutet alles. Das grundlegende Prinzip des Transformers ist das Verstehen von Beziehungen und Kontext. Er bewertet nicht nur einzelne Wörter, sondern deren Zusammenspiel. Damit wird deutlich, warum starre, keyword-basierte Optimierungsansätze im Zeitalter der generativen KI endgültig obsolet sind.

Wer die Funktionsweise des Transformers versteht, begreift die neue Bedeutung von kontextueller Relevanz: Es geht um semantische Tiefe, logische Zusammenhänge und die klare Einordnung von Entitäten in ihren korrekten Kontext. Die Optimierung für Maschinen, deren „Denken“ auf der Transformer-Architektur basiert, ist die nächste unausweichliche Evolutionsstufe der Suchmaschinenoptimierung. Sie hat einen Namen: Large Language Model Optimization (LLMO). Die Aufgabe ist nicht mehr nur, einer Maschine ein Vokabular beizubringen, sondern ihr zu beweisen, dass man die gesamte Konversation versteht.

Bedeutung SEO LLMO Google Ai Mode
Optimierung für AI Overviews und AI Mode ≠ SEO, oder?
Optimierung für AI Overviews und AI Mode ≠ SEO, oder? 1012 717 Patrick Stolp

Viele SEOs flippen auf LinkedIn aktuell aus. Ausnahmsweise auch mit Recht, so meine Meinung. Mit dem Aufkommen von Googles AI Overviews und dem sich abzeichnenden, tiefergreifenden AI Mode sehen sich viele in der Branche mit einer Welle der Unsicherheit konfrontiert. Doch inmitten dieser Umwälzungen macht eine erstaunlich oft gehörte Phrase die Runde: „Das ist doch alles nur SEO.“ Eine Aussage, die nicht nur eine bemerkenswerte Simplifizierung darstellt, sondern auch von einer gefährlichen Fehleinschätzung der technologischen Realität zeugt. Ist es die typisch menschliche Verdrängung angesichts existenzieller Veränderungen, die hier spricht? Oder schlicht ein Mangel an tiefgreifender Auseinandersetzung mit der Funktionsweise von Large Language Models (LLMs) und den daraus resultierenden generativen Oberflächen?

Man könnte argumentieren, das Gehirn sei faul, auf Effizienz getrimmt und neige dazu, Probleme zu unterdrücken. Und ja, eine ganze Branche, deren Protagonisten ihre Positionierung an die drei Buchstaben S-E-O geknüpft haben, spürt dieser Tage ein deutliches Beben. Die Behauptung, die „SEO-Basics blieben dieselben“, mag beruhigend klingen, ist aber ein Trugschluss. Das weiß jeder, der sich intensiv mit den technischen Grundlagen der neuen „Suchsysteme“, den LLMs, beschäftigt. So wie ich.

Dieser Artikel wird argumentieren, dass die Optimierung für generative KI-Systeme wie Googles AI Overviews oder den in Patenten wie „Search with stateful chat“ skizzierten AI Mode weit mehr ist als eine bloße Erweiterung des bekannten SEO-Toolkits. Es geht um eine neue Disziplin – nennen wir sie Large Language Model Optimization (LLMO) oder Generative Engine Optimization (GEO) – die ein tiefes Verständnis der zugrundeliegenden Technologien, eine radikal andere Herangehensweise an Content und eine Neuausrichtung strategischer Ziele erfordert. Wer jetzt nicht bereit ist, die alten Denkmuster zu hinterfragen und sich den neuen Realitäten zu stellen, riskiert nicht nur den Anschluss zu verlieren, sondern in der informationsgetriebenen Welt von morgen unsichtbar zu werden.

Disruption in der Informationsverarbeitung: Warum AI Overviews, AI Mode und LLMs die SEO-Landkarte fundamental neu zeichnen

Wer auf der Suche nach Informationen war, der bediente sich in der Regel einer Google-Suche. Wenn wir ehrlich sind, beschreibt dieses Anliegen die Funktion der Suchmaschine Google aber nicht sonderlich präzise. Tatsächlich – mit Ausnahme von Google-Formaten wie die Featured Snippets – erhielten Nutzer von Google nach der Eingabe einer Suchanfrage aber keine direkte Antwort, also eine Information, sondern eine Liste an Dokumenten, die womöglich die Antwort auf eine Frage hatten.

Die Liste war dabei vorsortiert nach vermeintlicher Relevanz, inhaltlicher Qualität und Vertrauen zum Publisher. Die Informationen musste ein Nutzer aber dennoch selbst herausfiltern.

Dies ändert sich nun. Google übernimmt im AI Mode und teils auch durch die AI Overviews das Googeln für seine Nutzer. Der kognitive Aufwand wird für den Nutzer somit weiter gesenkt. Die Antwort auf die gestellte und mögliche Folgefragen gibt es jetzt direkt durch das Google-System, namentlich durch ein Query Fan-out.

Infobox:

Der Google AI Mode geht über die explizite Suchanfrage hinaus. Basierend auf der initialen Suchanfrage können intern zusätzliche, „synthetische“ Suchanfragen generiert werden, um ein umfassenderes Verständnis zu erlangen und eine reichhaltigere Antwort zu erstellen. Eine erfolgreiche Optimierung muss daher nicht nur die primäre Anfrage, sondern auch diese impliziten, verwandten Fragen und ganze Nutzer-Journeys antizipieren und abdecken. Das Patent „Search with stateful cha“ beschreibt, wie der AI Mode hierfür einen „contextual search state“ über mehrere Interaktionen hinweg aufrechterhält. Mehr dazu unter Query Fan-Out in Google AI Mode: Definition & implizite SEO-Auswirkungen.

Googles erklärtes Ziel ist es, „das Googeln für dich zu erledigen“ und die kognitive Last für den Nutzer, die sogenannten „Delphic Costs“, zu reduzieren, indem das System die Informationssynthese übernimmt, die der Nutzer früher selbst leisten musste. Dies bedeutet, dass Inhalte nicht nur „gefunden“, sondern von der KI aktiv verarbeitet und weitergedacht werden.

Nicht nur der Google AI Mode, auch andere Sprachmodelle besitzen dafür „Reasoning“-Fähigkeiten, das heißt, sie können Informationen aus multiplen (oft heterogenen und multimodalen) Quellen nicht nur abrufen, sondern auch interpretieren, verknüpfen, bewerten und daraus neue Schlussfolgerungen oder komplexe Antworten synthetisieren.

Einzigartige Antworten durch Hyperpersonalisierung

Während Personalisierung in der Google-Suche nichts wirklich Neues ist, erreicht sie im AI Mode eine neue Dimension. Durch die Nutzung von User Embeddings, die einer AI-Mode-Konversation gewissermaßen als eine Art Layer überlagert und auf dem bisherigen Dialogverlauf (contextual state), dem Vorwissen des Nutzers zu bestimmten und potentiell Daten aus dem gesamten Google-Ökosystem (Gmail, Kalender etc.) basieren, wird jede Antwort hochgradig individualisiert.

Das Ideal eines für alle Nutzer gleichen Suchergebnisses, auf dem traditionelles Ranktracking beruht, löst sich damit für den AI Mode weitgehend auf. Die Konsequenz: Was für einen Nutzer eine relevante und hilfreiche Antwort darstellt, kann für einen anderen bei identischer Suchanfrage bereits ganz anders aussehen.

Large Language Models ranken und indizieren nicht

Wie bereits erwähnt steht das Ende der zehn blauen Links bevor. Es kommt die Zeit der personalisierten synthetisierten KI-Antworten. Im Zuge dessen möchte ich mit der häufig gelesenen Behauptung aufräumen, dass es für LLMs bzw. im AI Mode, bei ChatGPT und Co. „Rankingfaktoren“ gäbe. Große Sprachmodelle führen keine Ranking-Scorings durch, wie es Suchmaschinen tun.

Richtig ist zwar, dass einige LLMs und auch der Google-AI-Mode Retrieval-Techniken wie beispielsweise für das Grounding (eine Art Informationsfaktencheck durch Nutzung relevanter und vertrauenswürdiger Quellen) anwenden, allerdings ist dieser Prozess lediglich ein Mittel zum Zweck.

Die eigentliche Antwortgenerierung folgt dann LLM-internen Logiken der Wahrscheinlichkeitsberechnung und semantischen Kohärenz. LLMs haben auch keinen Dokumenten-Index im Sinne einer klassischen Suchmaschine; sie mögen zwar Vektordatenbanken nutzen, aber diese dienen ausschließlich der semantischen Ähnlichkeitssuche und nicht der Relevanzbewertung im Sinne klassischer Suchmaschinenrankings.

In einer Vektordatenbank werden Inhalte auf Basis ihrer Bedeutung als numerische Vektoren gespeichert, sodass ein LLM kontextuell passende Informationen abrufen kann. Entscheidend ist jedoch: Es findet keine Bewertung oder Gewichtung statt. Richtig ist zwar, dass mittlerweile auch die klassische Google-Suche mit Vektordatenbanken arbeitet, allerdings nur als Vorfiltrierung für weitere Bewertungssysteme wie das Qualitätssystem E-E-A-T.

Von SEO zu LLMO

Somit nähern wir uns einer zentralen Frage: Nämlich was der AI-Mode und grundlegende LLM-Techniken für die klassische Suchmaschinenoptimierung bedeutet. Es ist ein offenes Geheimnis, dass auch die klassische Google-Suche seit Hummingbird keine rein lexikalische Suche mehr ist, sondern eine hybride lexikalisch-semantische Suchmaschine.

Das bedeutet, dass auch im Google-Suchesystem teils noch Sparse-Retrieval-Methoden wie TF-IDF oder BM25 Anwendung finden, also klassische „Keyword“-Such-Systeme, beispielsweise um eine möglichst schnelle und kostengünstige Relevanzbewertung von Dokumenten bzw. Inhalten vornehmen zu können.

Vektorsysteme sind dann besonders nützlich, wenn nicht exakte Begriffsübereinstimmung, sondern semantische Nähe eine Rolle spielt – etwa bei der Suche nach ähnlichen Inhalten oder zur Identifikation thematisch verwandter Dokumente.

Nicht zu vergessen in Googles hauseigene Entitätendatenbank bzw. Entitäten-Index, der Knowledga Graph. Google nutzt heute hybride Rankingstrategien, um je nach Suchintention ein dynamisches Gleichgewicht zwischen Recall und Precision zu erzielen.  Die Begriffe Recall und Precision stammen ursprünglich aus der Information Retrieval- und Suchmaschinentechnologie und sind zentrale Metriken zur Bewertung von Such- und Klassifikationssystemen.

Beide messen auf unterschiedliche Weise, wie gut ein System relevante Informationen identifiziert und ausliefert. Precision bevorzugt Qualität der Treffer. Recall bevorzugt Vollständigkeit der Treffer. Bei unklaren oder weit gefassten Suchanfragen wird Recall priorisiert (z. B. durch semantische Erweiterung via Entitäten oder Synonyme). Bei sehr konkreten oder transaktionalen Suchen hingegen fokussiert sich Google auf Precision, um dem Nutzer sofort die bestmögliche Antwort zu liefern.

Dieser hybride Ansatz der klassischen Google-Suche wird durch die Funktionsweise von LLMs und dem AI Mode nochmals auf eine neue Ebene gehoben, und zwar eine, die traditionelle Optimierungsansätze an ihre Grenzen bringt. Während die klassische Suche noch auf das Ranking von Dokumenten abzielt, auch wenn dies durch semantische Komponenten angereichert wird, geht es im AI Mode und bei LLM-generierten Antworten um die Synthese von Informationen aus den relevantesten Passagen oder „Chunks“ verschiedener Quellen.

Hier verschiebt sich der Fokus weg von der Optimierung eines gesamten Dokuments auf eine Handvoll Keywords hin zu einem deutlich granulareren und dynamischeren Prozess. Es geht nicht mehr primär darum, für Keywords zu ranken, sondern darum, die Wahrscheinlichkeit zu maximieren, dass die eigenen Inhalte (bzw. spezifische Abschnitte daraus) von einem LLM als die präzisesten, nützlichsten und vertrauenswürdigsten Informationsbausteine für die Beantwortung einer expliziten oder impliziten (synthetischen) Nutzeranfrage erachtet werden. Dies erfordert einen neuen Denkansatz: Relevanz-Engineering.

Relevanz-Engineering als neues Content-Optimierungsziel

Relevanz-Engineering zielt darauf ab, Inhalte auf die Verarbeitungslogik von Large Language Models zu optimieren. Im Kern geht es darum, Inhalte so zu strukturieren, zu formulieren und mit Kontext anzureichern, dass sie für LLMs optimal „lesbar“, interpretierbar und als Grundlage für die Antwortgenerierung geeignet sind. Doch was bedeutet das konkret?

Optimierung für LLM Readability und Chunk Relevance

LLMs, wie sie im AI Mode Anwendung finden, bevorzugen Inhalte, die klare Kontexte bieten, in natürlicher Sprache verfasst sind, eine logische Struktur und Informationshierarchie aufweisen und exakt auf die (oft sehr spezifische) Nutzerintention passen.

Dies bedeutet, Inhalte müssen in präzise, in sich geschlossene „Information Nuggets“ oder Chunks zerlegt werden können, die eine hohe semantische Dichte aufweisen und spezifische Aspekte einer Anfrage beantworten. Eine Studie zur Textvereinfachung (arXiv:2505.01980v1) unterstreicht, wie wichtig leicht verständliche und kognitiv wenig belastende Inhalte sind.

Antizipation synthetischer Queries und Nutzer-Journeys

Da der Google AI Mode basierend auf dem Nutzerkontext und der initialen Anfrage weitere, synthetische Queries generiert, reicht es nicht mehr, sich auf offensichtliche Keywords zu konzentrieren. Relevanz-Engineering muss darauf abzielen, komplette Themencluster und potenzielle Nutzer-Journeys so abzudecken, dass die eigenen Inhalte auch für diese impliziten Anfragen als relevant erkannt werden. Dies erfordert eine tiefere Auseinandersetzung mit einer Thematik und den möglichen Informationspfaden der Nutzer.

Nutzung von Vektor-Embeddings zur Analyse und Optimierung

Um die semantische Relevanz von Content-Passagen für spezifische (auch synthetische) Anfragen zu bewerten, müssen SEOs selbst Werkzeuge und Methoden der Vektorisierung und Ähnlichkeitsberechnung anwenden.

Es geht also darum, Vektor-Embeddings für Queries und Content-Passagen zu generieren (idealerweise mit Googles eigenen Modellen ), deren Ähnlichkeit zu berechnen (z.B. Kosinus-Ähnlichkeit) und auf dieser Basis die Inhalte gezielt semantisch anzureichern.

Grundsätzlich gilt zukünftig zu berücksichtigen, dass der Google AI Mode multimodal funktioniert, also nicht nur Text, sondern auch Bilder, Audio und Video berücksichtigt. Relevanz-Engineering muss daher auch die Optimierung und Bereitstellung dieser multimodalen Inhalte umfassen, um sicherzustellen, dass die eigenen Informationen in der für die jeweilige Anfrage und den Nutzerkontext am besten geeigneten Form berücksichtigt werden können.

Es bedarf neuer Metriken zur Erfolgsmessung

Die Rolle klassischer Suchmaschinen-Rankings als primärer Indikator für Sichtbarkeit und Erfolg erodiert im Kontext generativer KI-Systeme zusehends. Zum einen weil LLMs, wie erklärt, nicht ranken und es grundsätzlich personalisierte Antworten gibt. Sichtbarkeit zu messen, wird also nahezu unmöglich.

Zum anderen zeigen Analysen aktueller AI Overviews in den Google-Suchergebnissen bereits eine signifikante Diskrepanz: Die in den KI-generierten Antworten zitierten Quellen korrelieren immer weniger mit den Top-10-Positionen der traditionellen organischen Suchergebnisse. Es kommt vor, dass Quellen zitiert werden, die weit jenseits der Top-10 oder sogar außerhalb der Top-100 ranken. Ähnliche Muster sind auch bei anderen LLM-basierten Antwortsystemen wie ChatGPT zu beobachten. Es könnte sein, dass die Situation für den Google AI Mode nicht sonderlich anders sein wird.

Hinzu kommt, dass Unternehmen wie Deepseek oder Alibaba intensiv an Methoden forschen, um ihre LLMs für das Grounding weniger abhängig von externen Suchmaschinen zu machen. Die Gründe hierfür sind vielfältig: Kostenreduktion, größere Unabhängigkeit und potenziell schnellere Antwortgenerierung.

Sollten sich diese Ansätze durchsetzen, würde der Einfluss traditioneller Suchmaschinen-Rankings auf Erwähnungen von rankenden URLs in LLM-Antworten weiter signifikant sinken. Es ist daher riskant, sich als SEO darauf zu verlassen, dass gute Rankings in der klassischen Suche automatisch zu Sichtbarkeit in LLM-basierten Systemen führen.

Neue KPIs für das Zeitalter der KI-gestützten Suche

Wie Google selbst andeutet, sollen SEOs aufhören, primär Klicks zu messen. Googles AI Mode und ähnliche Systeme zielen wie aufgezeigt darauf ab, Nutzeranfragen direkt in der Suchoberfläche umfassend zu beantworten. Dies führt unweigerlich dazu, dass Nutzer seltener auf die zugrundeliegenden Quell-Websites klicken.

Sichtbarkeit bedeutet hier nicht mehr primär, Klicks auf die eigene Seite zu generieren, sondern als vertrauenswürdige Quelle in der generierten Antwort prominent zitiert oder referenziert zu werden. Dies wirft eine kritische Frage auf: Wenn traditionelle Indikatoren wie Position, Klicks oder Impressionen an Aussagekraft verlieren, wie messen wir dann zukünftig Erfolg?

Aus den bisherigen Ausführungen ergeben sich für mich folgende neue KPIs:

  • Chunk Retrieval Frequency: Wie oft werden einzelne Inhalts-„Chunks“ abgerufen? Dies spiegelt die Relevanz auf granularer Ebene wider, die für LLM-Antworten entscheidend ist.
  • Embedding Relevance Score: Die Vektorähnlichkeit zwischen Suchanfrage und Inhalt, beispielsweise durch Cosinus-Ähnlichkeit – ein Kernmaß für die Auffindbarkeit in Vektordatenbanken und somit ein Indikator für die semantische Passgenauigkeit.
  • Attribution Rate in LLM Outputs / LLM Citation Count: Wie oft wird eine Marke oder Quelle in KI-generierten Antworten namentlich genannt oder zitiert? Dies wird zur neuen Währung für Sichtbarkeit und Vertrauen und zeigt den direkten Einfluss auf die Antwortgenerierung.
  • Vector Index Presence Rate: Der Prozentsatz der eigenen Inhalte, der in relevanten Vektordatenbanken indexiert ist. Denn was nicht auffindbar ist, kann nicht Teil einer LLM-Antwort werden.
  • LLM Answer Coverage: Die Anzahl unterschiedlicher Fragen und Themenbereiche, die durch die eigenen Inhalte abgedeckt und potentiell von einem LLM für Antworten genutzt werden können; ein Indikator für thematische Breite und Nützlichkeit.

Die unbequeme Wahrheit: Wer jetzt nicht handelt, wird Teil der digitalen Vergangenheit

Die Analyse ist eindeutig, die Schlussfolgerung unumgänglich: Die Optimierung für Googles AI Mode (und andere LLM-Systeme) ist nicht „nur SEO“. Wer dies weiterhin behauptet, verschließt die Augen vor einem Umbruch, der die Grundfesten unserer SEO-Branche erschüttert. Es geht hier nicht um ein weiteres Algorithmus-Update, das mit ein paar taktischen Anpassungen pariert werden kann. Wir erleben eine disruptive Veränderung in der Art und Weise, wie Nutzer Informationen suchen, erhalten und mit ihnen interagieren.

Der vielzitierte Ausruf „SEO ist tot“ mag in der Vergangenheit oft übertrieben gewesen sein – doch diesmal steht mehr auf dem Spiel als nur Rankingfaktoren. Es geht um die zukünftige Relevanz im digitalen Informationsraum.

Die Bequemlichkeit des Bekannten und die menschliche Neigung, komplexe Probleme zu verdrängen, mögen verständlich sein. Doch sie sind in der aktuellen Situation fatale Ratgeber. Die technologischen Realitäten erfordern ein radikales Umdenken. Wer sich jetzt nicht mit den technologischen Grundlagen von LLMs auseinandersetzt, wer nicht bereit ist, neue Kompetenzen aufzubauen, bestehende Werkzeuge kritisch zu hinterfragen und organisationale Silos einzureißen, der wird den Anschluss verlieren.

Die Zukunft der Informationsbeschaffung liegt im Dialog, in der direkten, KI-gestützten Bedürfnisbefriedigung. Wir müssen lernen, Inhalte für KI-Agenten aufzubereiten, die als Interpreten und Synthetisierer für den Endnutzer fungieren. Die Herausforderung liegt darin, die Informationsräume so zu gestalten, dass die probabilistischen Modelle der KI zu validen, hilfreichen und – aus Unternehmenssicht – förderlichen Ergebnissen „raten“.

Wie ich bereits an anderer Stelle formulierte: Ein Sprachmodell versteht nicht, weil es „weiß“, sondern weil es gut „rät“ – und das gelingt nur, wenn seine Wahrscheinlichkeitsverteilung die zugrundeliegende Realität approximiert.

Die Kunst für uns als Informationsarchitekten und Zukunftsgestalter im digitalen Raum wird sein, genau diese Approximation im Sinne unserer Ziele zu beeinflussen. Das ist die eigentliche Aufgabe jenseits von Keywords und Backlinks. Wer diese Herausforderung annimmt, hat die Chance, die nächste Ära des Search Marketings aktiv mitzugestalten. Wer sie ignoriert, wird unweigerlich Teil der digitalen Vergangenheit. Es gibt keine Ausreden mehr.