Quelle: How AI Mode Works and How SEO Can Prepare for the Future of Search (ipullrank.com)
Inhaltsverzeichnis
Was ist der „AI Mode“ überhaupt?
Mit der Einführung von „AI Overviews“ (ehemals Search Generative Experience / SGE) führte Google eine neue Form der Suche ein. Diese Übersicht betrifft nicht nur einzelne Suchergebnisse, sondern hat mittlerweile einen ganz eigenen Modus bekommen: Den sogenannten AI Mode.
Dieser AI Mode liefert nicht einfach eine Liste von Links, sondern generiert direkt Antworten, die auf vielen Quellen und internen Google-Systemen beruhen. Das verändert grundlegend, wie Informationen abgerufen und präsentiert werden – besonders aus SEO-Sicht. Das Ziel von Google ist es, nutzerfreundlichere, dialogorientierte Sucherlebnisse zu bieten.
Für SEO bedeutet das: Der klassische „10 Blue Links“-Ansatz verliert an Bedeutung. Die Sichtbarkeit verschiebt sich dorthin, wo Inhalte zitiert oder für die Antwortgenerierung verwendet werden – auch wenn keine Klicks mehr erfolgen.
Die Grenzen klassischer SEO in der AI-gestützten Suche
Traditionelle SEO-Modelle basieren stark auf Keywords, TF-IDF, BM25 oder Linkprofilen – also auf Techniken, die für ein Ranking in klassischen Dokumentlisten gedacht sind.
Doch AI Mode nutzt ganz andere Technologien:
- Dense Retrieval: Statt Keywords mit klassischen Scores zu matchen, werden semantische Vektorräume genutzt. Seiten, Absätze oder sogar Passagen werden durch Embedding-Vektoren dargestellt.
- Diese Vektoren werden dann mit der Suchanfrage (ebenfalls als Vektor) verglichen, was völlig neue Relevanz-Bewertungen ermöglicht.
- Zudem kommen große Sprachmodelle (Large Language Models, LLMs) zum Einsatz, die aus den relevanten Passagen Antworten generieren, nicht nur finden.
SEO kann sich also nicht mehr auf klassische Ranking-Faktoren verlassen. Stattdessen muss man verstehen, wie Large Language Models denken, wie sie Relevanz „empfinden“ und wie sie Inhalte auswählen, kombinieren und zitieren.
Definitionen
Was bedeutet „Dense Retrieval“?
In der klassischen SEO-Welt funktioniert Suchmaschinen-Retrieval so:
- Eine Anfrage (Query) wird mit Dokumenten verglichen, basierend auf Keywords, Keyword-Dichte, TF-IDF usw.
- Das nennt man „Sparse Retrieval“ – weil es sich auf spärlich verteilte, explizite Begriffe stützt.
Dense Retrieval hingegen geht ganz anders vor:
- Die Suchanfrage wird nicht mehr wörtlich (also als einzelne Wörter) verarbeitet.
- Stattdessen wird sie von einem neuronalen Netzwerk in einen mathematischen Vektor umgewandelt – also in eine Reihe von Zahlen, die die Bedeutung („Semantik“) der Anfrage widerspiegeln.
Was ist ein „Embedding-Vektor“?
Ein Embedding-Vektor ist eine numerische Repräsentation eines Textes, z. B. eines Satzes, Absatzes oder Dokuments. Dabei wird nicht mehr „Pizza“ einfach als Wort betrachtet, sondern z. B.:
„Ich habe Hunger auf italienisches Essen“ und „Wo kann ich Pizza bestellen?“
→ würden sehr ähnliche Vektoren haben – obwohl die Wörter unterschiedlich sind.
Das passiert durch sogenannte Transformermodelle (wie BERT, GPT etc.), die Sprache semantisch verstehen.
Was ist ein „semantischer Vektorraum“?
Stell dir vor, du legst all diese Embedding-Vektoren in ein riesiges 3D-Universum – das ist der semantische Vektorraum:
- Ähnliche Inhalte liegen nah beieinander.
- Unähnliche Inhalte liegen weiter auseinander.
Wenn ein Nutzer eine Frage stellt, wird diese ebenfalls als Vektor in diesen Raum gelegt – und dann sucht das System die nächsten, semantisch passenden Inhalte, unabhängig von der exakten Wortwahl.
Warum ist das für SEO wichtig?
Du optimierst nicht mehr nur für Wortübereinstimmung, sondern für Bedeutungsnähe. Das bedeutet:
- Inhalte müssen kontextreich, klar und semantisch vielfältig formuliert sein.
- Es zählt, wie „ähnlich denkend“ deine Inhalte zur Nutzeranfrage sind – nicht nur, ob ein bestimmtes Keyword drinsteht.
Merkmale von AI Mode – So funktioniert die neue Google-Suche
Google’s AI Mode ist nicht einfach ein bisschen smarter – er ist strukturell anders aufgebaut als die klassische Suche. Dabei gibt es mehrere Schlüsselmerkmale:
1. Reasoning-Modelle
Statt nur Informationen abzurufen, versucht das System, Schlussfolgerungen zu ziehen. Es kombiniert mehrere Informationen, analysiert Beziehungen und baut daraus eine argumentative, erklärende Antwort – wie ein Mensch.
2. Fan-out Queries
Eine einzige Nutzerfrage wird intern in viele kleine Unteranfragen aufgesplittet. Diese „fan-out“ Queries holen verschiedene Aspekte, Perspektiven und Detailinformationen ein, bevor die Antwort generiert wird.
3. Passage-Level Retrieval
Nicht mehr ganze Seiten oder Dokumente werden priorisiert, sondern einzelne Passagen. Google extrahiert also sehr gezielt kleine Textabschnitte, die besonders relevant sind.
4. Personalisierung & User Embeddings
Google passt die generierten Antworten an den User an:
- Durch Nutzerverhalten, Standort, Suchverlauf, Interessen usw.
- Technisch: Der User wird durch einen Embedding-Vektor repräsentiert (wie oben erklärt), um die für ihn passende Antwort zu berechnen.
5. Zero-Click Behavior
Immer mehr Antworten werden direkt in der Suche präsentiert. Das heißt: Es gibt oft keinen Anreiz mehr für einen Klick – Informationen werden sofort geliefert. Für SEO bedeutet das: Sichtbarkeit ≠ Klicks.
Multimodale, personalisierte Suche
Der „AI Mode“ ist nicht nur textbasiert – sondern multimodal, er funktioniert also über mehrere Medien hinweg.
1. Multimodalität
Die Suche kann Inhalte aus Text, Bild, Video, Sprache, Übersetzung gleichzeitig verarbeiten und einbinden.
Beispiel: Eine visuelle Anleitung (z. B. aus einem YouTube-Video) kann direkt in die Antwort integriert werden.
2. Memory Layer
Google merkt sich in gewissem Umfang frühere Suchanfragen oder Chatverläufe. Diese werden genutzt, um bessere Folgeantworten zu generieren – ähnlich wie bei ChatGPT mit Chatverlauf.
3. Kontext-First statt Query-First
Statt immer nur die aktuelle Suchanfrage zu betrachten, schaut AI Mode viel stärker auf den Gesamtkontext:
- Was hat der Nutzer vorher gesucht?
- Welche Inhalte sind für ihn langfristig relevant?
- Welche Aufgaben oder Informationsziele verfolgt er?
💡 Was heißt das für SEO?
Es reicht nicht mehr, einfach „für Keywords zu schreiben“. Stattdessen musst du:
- Inhalte so aufbauen, dass sie leicht zitierbar sind.
- Konkrete, passagenbasierte Antworten liefern.
- In verschiedenen Medienformaten präsent sein (Text, Video, Bild).
- Im besten Fall Inhalte bieten, die Reasoning ermöglichen – also Zusammenhänge erklären, nicht nur Fakten liefern.
Technischer Aufbau von AI Mode
Es folgt ein kurzer tieferer Einblick, wie Google den AI Mode technisch realisiert – also was im Hintergrund passiert, wenn du eine Anfrage stellst.
1. Fan-out & Fan-in Architektur
- Eine Anfrage wird in viele Teilfragen zerlegt (Fan-out).
- Diese Teilfragen holen Inhalte aus verschiedenen Quellen: Web, Google-eigene Daten, interne Modelle etc.
- Dann folgt ein „Fan-in“-Prozess: Alle Ergebnisse werden zusammengeführt und verarbeitet.
2. Modulare LLM-Pipelines
- Google verwendet nicht nur ein LLM, sondern eine Reihe spezialisierter Modelle, die auf bestimmte Aufgaben trainiert sind:
- z. B. eines für Zitationen, eines für Faktentreue, eines für User-Personalisierung.
3. Passage-Level vs. Dokument-Level
- Die Systeme bewerten nicht nur ganze Dokumente, sondern arbeiten auf Absatzebene (Passagen), um gezielt relevante Textteile herauszufiltern.
4. Pairwise Ranking
- Um die besten Inhalte zu finden, nutzt Google ein Vergleichsverfahren: Zwei Passagen werden einander gegenübergestellt und bewertet – z. B. nach Relevanz, Lesbarkeit oder Autorität.
5. Reasoning Chains
- Antworten entstehen in mehreren Denk-Schritten (Reasoning Chain). Die Modelle kombinieren verschiedene Informationsbausteine und begründen die Antwort wie in einem logischen Argument.
6. User Embeddings
- Die gesamte Suche ist zunehmend nutzerabhängig: Das Verhalten des Users, frühere Suchen und Interessen beeinflussen, welche Inhalte als relevant gelten.
Strategien für „Relevance Engineering“
(Dieser Abschnitt ist besonders wichtig für dich als SEO-Profi!)
„Relevance Engineering“ bedeutet: Inhalte so zu gestalten, dass sie in der AI-gestützten Suche überhaupt eine Rolle spielen können – also ausgewählt, zitiert und eingebunden werden.
Hier sind die wichtigsten Empfehlungen:
1. Inhalte in sinnvolle Passagen gliedern
- Lange Textblöcke sind Gift. Stattdessen:
- Klare, thematisch fokussierte Absätze oder Textmodule.
- Jeder Abschnitt sollte eine klar beantwortbare Frage adressieren.
- Verwende z. B. strukturierte H2/H3-Fragen und direkt darunter prägnante Antworten.
2. Syntaktische Vielfalt
- Verwende nicht immer die gleiche Satzstruktur oder Formulierungen.
Warum? LLMs vergleichen semantische Nähe – zu viel Wiederholung wirkt „low quality“ oder redundant.
3. Präzision vor Länge
- Relevante, klar formulierte Aussagen werden eher extrahiert.
- Beispiel: Lieber „In Berlin gelten ab 2024 neue Regeln für E-Auto-Parkplätze“
statt „Viele Städte, darunter Berlin, haben eventuell bald neue Regelungen…“
- Beispiel: Lieber „In Berlin gelten ab 2024 neue Regeln für E-Auto-Parkplätze“
4. Zitierbarkeit erhöhen
- Baue Inhalte so, dass sie wortwörtlich übernommen werden können:
- Definierende Aussagen („X ist…“)
- Anleitungen in Listenform
- Schritt-für-Schritt-Erklärungen
5. Semantische Klarheit
- Vermeide unklare Verweise wie „dies“, „jenes“, „siehe oben“.
- Nutze stattdessen eindeutige Begriffe, die auch aus dem Kontext heraus verständlich sind.
6. Modularität
- Texte sollten auch in Einzelteilen funktionieren:
- Jedes Modul, jede Passage muss für sich verständlich und relevant sein.
- Dadurch steigt die Chance, dass sie vom AI Mode als nützlich erkannt wird.
💡 Was heißt das konkret für deine SEO-Praxis?
SEO verändert sich durch AI Mode von einem rein technischen Optimierungshandwerk zu einem redaktionellen Qualitätsprozess, mit Fokus auf:
- Modularisierung: statt langer Fließtexte → kleinere, thematisch fokussierte Einheiten.
- Frage-Antwort-Formate: besonders geeignet für Passage-Level Retrieval.
- Semantische Konsistenz und Zitierfähigkeit: schreibe so, dass ein LLM dich gerne als Quelle verwendet.
Toolbedarf & Lücken in bestehender SEO-Software
Momentan sind die meisten aktuellen SEO-Tools noch nicht auf die Logik des AI Mode vorbereitet. Vor allem betrifft dies die folgenden fehlenden Funktionen.
Fehlende Funktionen
- AI Mode Visibility Tracking: Es gibt keine Tools, die messen, ob und wie Inhalte in AI Overviews zitiert werden.
- Persona-basiertes Ranking: Kein Tool kann simulieren, wie sich unterschiedliche Nutzerprofile auf die Antwortzusammenstellung auswirken.
- Passage-Level-Analyse: Tools bewerten weiterhin ganze Seiten, nicht einzelne Passagen – was aber in AI Mode entscheidend ist.
- Relevance Mapping: Es fehlt an Funktionen, die zeigen, welcher Content semantisch „nah genug“ an typischen AI-Antworten ist.
- Reasoning-Simulation: Kein Tool kann nachbilden, wie eine AI Schlussfolgerungen auf Basis mehrerer Textquellen bildet.
Kurz gesagt: Die vorhandene Toollandschaft misst weiterhin Rankings – aber nicht Relevanz in AI Mode. Die Autoren erwarten, dass sich das mittelfristig ändern wird – viele Tool-Anbieter arbeiten daran.
Fazit: Strategische Neuausrichtung – Was SEO jetzt werden muss
SEO muss sich anpassen, um in einer AI-gesteuerten Suchwelt relevant zu bleiben. Die wichtigsten Gedanken:
1. SEO wird „Relevance Engineering“
- Früher ging es um Sichtbarkeit in den „10 blauen Links“.
- Künftig geht es darum, als Quelle in AI-Antworten aufzutauchen – also so relevant, vertrauenswürdig und hilfreich zu sein, dass das Modell dich „zitiert“.
SEO wird damit eher zu einer Redaktionsstrategie mit technischer Tiefe:
Du schreibst nicht nur für Suchmaschinen, sondern für Sprachmodelle.
2. Neue KPIs
- Klassische Metriken wie „Platz 3 für Keyword XY“ verlieren an Wert.
- Stattdessen:
- Anteil an AI-Antworten („Share of Voice in AI Overviews“)
- Zitierfähigkeit deiner Inhalte
- Erwähnungen in multimodalen Kontexten (z. B. YouTube, Bilder, strukturierte Daten)
3. Relevanz ≠ Ranking
- Es reicht nicht mehr, vorn zu stehen.
- Wichtig ist, in AI-Antworten aufzutauchen – auch dann, wenn dein Snippet gar nicht klassisch sichtbar wäre.
4. Marke & Expertise rücken in den Vordergrund
- Sprachmodelle bevorzugen vertrauenswürdige Quellen.
- Daher gilt:
- E-E-A-T stärken (Experience, Expertise, Authoritativeness, Trustworthiness)
- Deine Marke und dein Autor:innenprofil müssen für Modelle erkennbar als verlässlich gelten.
5. Content-Strategie wird modular und vorausschauend
- Inhalte werden in Zukunft auf Antwortfähigkeit hin geplant:
- Welche Fragen könnten Modelle stellen?
- Wie antworte ich so, dass mein Content strukturell bevorzugt wird?
Die Rolle von SEO verändert sich fundamental.
SEO ist nicht mehr (nur) technische Optimierung und Keyword-Arbeit, sondern:
Eine Disziplin, die Inhalte so strukturiert, textet und ausrichtet, dass sie von AI-Systemen als wertvoll erkannt, integriert und zitiert werden.
Diese neue Rolle erfordert redaktionelles Denken, technische Kenntnisse, Modellverständnis – und ein Umdenken bei Erfolgsmessung und Content-Erstellung.
Bonus:
Semantische Konsistenz und Zitierfähigkeit: Wie konzipiert man Inhalte so, dass ein LLM sie gerne als Quelle verwendet?
Der Artikel gibt dazu mehrere handfeste Empfehlungen
- Semantische „Tripel“ bilden
- Formulierungen wie „[Subjekt] [Prädikat] [Objekt]“ liefern klare Aussagen:
z. B. „Berlin ist die Hauptstadt Deutschlands.“
→ unterstütztem Verständnis und sorgt für hohe semantische Relevanz.
- Formulierungen wie „[Subjekt] [Prädikat] [Objekt]“ liefern klare Aussagen:
- Eindeutig zitierfähige Inhalte
-
- Definierende Sätze („X ist…“), klare Fakten oder Schritt-für-Schritt-Anleitungen in Listenform eignen sich hervorragend für direkte Übernahmen (Zitat).
- Klare, selbstständige Passagen
-
- Jeder Absatz sollte für sich stehen und verständlich sein – auch ohne den Rest des Textes. Das erhöht die Wahrscheinlichkeit, dass genau diese Passage als Quelle genutzt wird.
- Vermeidung von Pronomen und unklaren Verweisen
-
- Statt „Dies führt dazu…“ besser: „Dieses Verbot führt dazu…“ – so wird klar, was gemeint ist und das LLM kann gezielt zitieren .
Modularisierung: Mehrere kurze Seiten oder eine lange Seite?
Der Artikel liefert hierzu eine differenzierte Sicht :
a) Inhalt modular strukturieren:
- Wichtig sind absatzweise klare Fragestellungen, strukturierte H2/H3-Überschriften – jede Passage behandelt ein Fokusthema.
- Ein einzelner, gut strukturierter Beitrag kann mehrere Themen bedienen, solange Passagen eigenständig funktionieren.
b) Mehrere kurze Seiten oder ein Cluster?
- Topical Clustering – thematisch verwandte Seiten bilden – kann sinnvoll sein, wenn:
- Themen unterschiedlich sind, aber zusammengehören,
- Du für jedes Thema semantisch verdichtete (dense) Inhalte anbieten willst.
- Ein einzelnes umfassendes „Hub“-Dokument mit tiefen Passagen kann aber genauso gut sein – solange die Struktur klar und passage-fokussiert ist.
Fazit:
- Entscheidend ist Modularität – nicht zwingend multiple URLs.
- Ob du einen „One-Pager“ oder ein Cluster baust, hängt von Thema, Umfang und Nutzerintention ab.
- Wichtig ist: Passagen müssen semantisch und thematisch eigenständig stark sein.
Nutzung von definierenden Aussagen und Zitierpraktiken: Greifen LLMs auf Zitate zurück oder nur auf gespeicherte Vektorinhalte?
Der Artikel geht hierauf indirekt ein, nicht abschließend:
- Retrieval-Augmented Generation (RAG) legt nahe, dass LLMs relevante Passagen abrufen, also tatsächlich vorhandenen Text verwenden – theoretisch inklusive Zitat.
- In der Praxis:
- LLMs generieren Antworten basierend auf abgerufenen Passagen, aber nutzen nicht immer wörtliche Zitate – sie „paraphrasieren“ häufig.
- Definierende Aussagen („X ist…“) haben aber eine höhere Chance, wörtlich übernommen zu werden, denn klare, prägnante Fakten erleichtern das Retrieval.
- Wann wird zitiert?
- Wahrscheinlicher bei eindeutig formulierten, eigenständigen Passagen mit klaren Fakten oder Definitionen.
- Weniger wahrscheinlich bei verstreuten Infos, Interpretationen oder historischen Erklärungen (die vom Modell eher neu generiert werden).
Kurz gesagt: Eine exakt formulierte, gut strukturierte Passage kann zitiert werden, aber Modelle paraphrasieren oft – dennoch steigt die Wahrscheinlichkeit bei solchen Inhalten deutlich.