Der semantische Imperativ: Generative Engine Optimization und LLM-Sichtbarkeit
Das digitale Informations-Ökosystem erlebt gerade den größten Strukturwandel seit der Kommerzialisierung des World Wide Web. In den letzten fünfundzwanzig Jahren war das dominante Paradigma der Online-Entdeckung Information Retrieval (IR) – ein deterministischer Prozess, bei dem die Anfrage einer Person mit einem Dokumentenindex abgeglichen wird, um eine sortierte Liste potenzieller Antworten zu erzeugen. Diese Ära, geprägt von den “zehn blauen Links”, hat die kognitive Last der Synthese dir überlassen. Du musstest klicken, lesen, bewerten und relevante Fakten aus den gefundenen Dokumenten herausziehen.
1. Der erkenntnistheoretische Wandel: Von Information Retrieval zu neuronaler Synthese
Dieses Paradigma wird gerade von Neural Information Retrieval (NIR) und generativer KI verdrängt. In der neuen “Answer Engine”-Ökonomie wandert die kognitive Last vom Menschen zur Maschine. Large Language Models (LLMs) wie OpenAI’s GPT-Reihe, Anthropic’s Claude und Google’s Gemini rufen nicht nur Dokumente ab. Sie nehmen Informationen auf, interpretieren sie und fügen sie zu einer direkten, dialogischen Antwort zusammen. Das verändert die Physik digitaler Sichtbarkeit. Es reicht nicht mehr, von einem Crawler gefunden zu werden. Du musst für ein neuronales Netz verständlich sein.
Für Fachleute entsteht daraus ein Sichtbarkeitsproblem. Klassische SEO-Kennzahlen – Rankings, Klickrate und organischer Traffic – verlieren in einer Zero-Click-Welt an Bedeutung, in der die Antwort direkt im Interface geliefert wird. “LLM-Sichtbarkeit” ist deshalb nicht eine Position auf einer Seite, sondern die Wahrscheinlichkeit, zitiert und in die generierte Ausgabe des Modells aufgenommen zu werden.1 Sie misst, wie häufig und wie autoritativ ein Entity (eine Person, eine Marke oder ein Konzept) vom Modell referenziert wird, wenn es Antworten im thematischen Umfeld dieser Expertise synthetisiert.
Abonniere meinen Substack Newsletter!
Um diese Sichtbarkeit zu erreichen, brauchst du eine neue Disziplin: Generative Engine Optimization (GEO). Anders als SEO, das auf Keywords und Backlinks setzt, um Relevanz für einen Ranking-Algorithmus zu signalisieren, setzt GEO auf Informationsgewinn, Entity-Autorität und semantische Nähe, um Wahrhaftigkeit für ein probabilistisches Modell zu signalisieren.3 GEO zielt darauf ab, die zwei wichtigsten Gedächtnissysteme eines LLM zu beeinflussen: sein parametrisches Gedächtnis (Wissen, das während des Trainings in den Gewichten kodiert wird) und sein nicht-parametrisches Gedächtnis (Informationen, die es in Echtzeit per Retrieval-Augmented Generation, kurz RAG, abruft).5
Dieser Report analysiert die Mechanismen, die LLM-Sichtbarkeit steuern. Er beschreibt die technische Architektur, mit der du maschinenlesbare Expertise etablierst, die Content-Engineering-Prinzipien, die Ingestion erleichtern, und strategische Manöver, mit denen du in einem kompetitiven Umfeld “Share of Model” gewinnen kannst.
2. Die neuronale Architektur von Autorität
Wenn du auf Sichtbarkeit optimieren willst, brauchst du ein klares Modell deiner Zielgruppe: des LLM selbst. LLMs “kennen” Expertinnen und Experten nicht so, wie Menschen das tun. Sie repräsentieren sie als Vektoren in einem hochdimensionalen latenten Raum.
2.1 Vektoren, Embeddings und semantische Nähe
Im Kern des Verständnisses eines LLM steht das Embedding. Wenn ein LLM Text verarbeitet, verwandelt es Wörter und Phrasen in numerische Vektoren – Zahlenlisten, die semantische Bedeutung in einem mehrdimensionalen Raum abbilden. In dieser geometrischen Darstellung liegen verwandte Konzepte näher beieinander.
Für angehende Expertinnen und Experten ist GEO zum Teil die Arbeit, diesen Vektorraum zu formen. Das Ziel ist, dass der Vektor, der die Expert-Entity repräsentiert (zum Beispiel “Dr. Elena Rossi”), nahe bei den Vektoren der Topic-Entity (zum Beispiel “Neuro-Symbolic AI”) und bei den Attribut-Vektoren von Autorität liegt (zum Beispiel “leading”, “pioneer”, “research”).
Wenn dein digitaler Footprint verstreut, inkonsistent oder unstrukturiert ist, bleibt deine Vektor-Repräsentation diffus und weit weg von den Kernthemen deines Feldes. Das Modell erkennt vielleicht den Namen, aber es bindet ihn nicht sauber an die Expertise. Mit strenger semantischer Konsistenz und wiederholter Ko-Okkurrenz in hochautoritativen Datensätzen kannst du die Clusterung enger machen und deine Identität an das Thema ankern. Dann steigt die statistische Chance, dass das Modell dich beim Beantworten thematischer Fragen “mitzieht”.5
2.2 Die zwei Modi von Sichtbarkeit: Pre-Training vs. RAG
LLM-Sichtbarkeit ist nicht nur ein Effekt. Sie entsteht über zwei unterschiedliche technische Pfade, und jeder Pfad braucht eine eigene Strategie.
2.2.1 Parametrische Sichtbarkeit (die Trainingsdaten)
Diese Form von Sichtbarkeit ist eingebaut. Sie entsteht, weil das Modell auf einem Korpus trainiert wurde, in dem deine Arbeit vorhanden und relevant war. Wenn ein LLM eine Frage zu Shakespeare beantwortet, muss es nicht zwingend das Web durchsuchen. Vieles ist in den Gewichten kodiert.
Mechanismus: Massives Ingestieren von Datensätzen wie Common Crawl, The Pile und C4.8
Optimierungszeitraum: Langfristig (Monate bis Jahre).
Strategie: Ubiquität in wissenschaftlicher Literatur, Präsenz in “hochwertigen” gefilterten Web-Subsets und Autorenschaft von Büchern oder grundlegenden Texten.
2.2.2 Nicht-parametrische Sichtbarkeit (RAG und Live-Retrieval)
Das ist dynamische Sichtbarkeit. Systeme wie Perplexity, Bing Chat und Google AI Overviews nutzen Retrieval-Augmented Generation. Bei einer Anfrage suchen sie das Live-Web nach passenden Dokumenten, geben ausgewählte Snippets in das Context Window des Modells und lassen dann eine Antwort synthetisieren.
Mechanismus: Echtzeit-Indexierung plus schnelle neuronale Synthese.
Optimierungszeitraum: Kurzfristig (Tage bis Wochen).
Strategie: Technische Crawlability, Schema-Markup, ein Inverted-Pyramid-Aufbau und Präsenz auf Plattformen, die häufig gecrawlt werden.6
Eine wirksame GEO-Strategie bedient beide Modi: eine langfristige Reputation, die Trainingsdaten durchdringt, und eine bewegliche, technisch optimierte Präsenz für Live-Retrieval.
3. Die Data-Supply-Chain: Primärquellen für LLMs
Wenn du sichtbar werden willst, musst du dort existieren, wo Modelle lernen. Wenn du die Zusammensetzung von Trainingsdaten verstehst, kannst du deine Präsenz gezielt in die “Schulbücher” des KI-Zeitalters hineinbauen.
3.1 Zerlegung der wichtigsten Datensätze
LLMs werden nicht auf dem “ganzen Internet” trainiert. Sie werden auf kuratierten, gefilterten Teilmengen trainiert, die Qualität erhöhen und Rauschen reduzieren.
3.1.1 Common Crawl und C4 (Colossal Clean Crawled Corpus)
Common Crawl ist ein Fundament für viele Open-Source- und proprietäre Modelle. Rohdaten aus Common Crawl sind chaotisch und werden häufig gefiltert. Der C4-Datensatz von Google ist eine bereinigte Variante, die Kauderwelsch, Duplikate und Low-Quality-Text entfernt.
Implikation: Nur “saubere” und “autoritative” Domains überstehen C4-ähnliche Filter. Analysen von C4 zeigen eine starke Verzerrung hin zu Regierungs- und Bildungsseiten sowie hin zu Legacy-Medien (zum Beispiel NYTimes und BBC).8
Strategie: Wenn du nur auf einem schwachen Personal-Blog publizierst, steigt die Chance, aus C4-abgeleiteten Trainingssets herauszufallen. Um die Inklusionschancen zu verbessern, solltest du auch auf Plattformen publizieren, die in gefilterten Korpora häufig vorkommen, etwa Medium, LinkedIn Pulse und etablierte Branchenjournale.
3.1.2 Dolma und RedPajama
Moderne offene Datensätze wie Dolma und RedPajama, die für Modelle wie OLMo und Llama genutzt werden, machen die Zusammensetzung transparenter. Dolma umfasst zum Beispiel mehr als 3 Billionen Tokens und priorisiert explizit:
- Wissenschaftliche Paper (PeS2o, arXiv)
- Code (The Stack, GitHub)
- Enzyklopädisches Wissen (Wikipedia, Wikibooks)9
Strategie: Für technische Expertinnen und Experten kann eine Präsenz auf GitHub (auch über Dokumentation) und auf arXiv unverhältnismäßig wertvoll sein. Diese Domains werden oft viel vollständiger ingestiert als das breite Web, in dem stark gesampelt wird.
3.2 Die Hierarchie der RAG-Quellen
In Live-Retrieval-Umgebungen (zum Beispiel Perplexity und Google AI Overviews) wird Sichtbarkeit durch eine Citation Economy gesteuert. Das Modell wählt meist nur wenige Quellen aus, die es vor der Antwort wirklich liest. Mehrere Studien zu Zitationsmustern beschreiben eine stabile Hierarchie vertrauenswürdiger Domains.
Hinweis zur “Reddit-Bias”: Reddit ist zu einer wichtigen Quelle für LLMs geworden, besonders bei How-to- und subjektiven Fragen. Entwickler und Suchsysteme behandeln Reddit als Proxy für “menschliche” Erfahrung in einem Web, das zunehmend von synthetischem Text überschwemmt wird. Ein Thread mit hoher Interaktion wirkt wie ein vorvalidierter Daten-Cluster. Für dich als Expertin oder Experte ist Beteiligung in Nischen-Subreddits deshalb nicht nur Community-Management. Es ist ein direkter Input in den Retrieval-Stream.13
4. Entity Engineering: Der Knowledge Graph
Der robusteste Weg zu Expertensichtbarkeit ist der Wechsel von “Text” zu “Entity”. In Suchsystemen und LLM-Pipelines ist ein String mehrdeutig. Eine Entity ist ein klar identifizierbares Objekt mit eindeutiger ID und definierten Attributen.
4.1 Die Rolle von Wikidata
Wikidata ist eine Kernschicht des modernen semantischen Webs. Anders als Wikipedia, die aus Prosa besteht und hohe Notability-Schwellen setzt, besteht Wikidata aus strukturierten Daten (Triples) und ist oft zugänglicher, auch wenn strukturelle Relevanz weiterhin zählt.15
Ein Wikidata-Item ist einer der wirksamsten Schritte, um eine maschinenlesbare Identität zu etablieren. Du bekommst eine QID (zum Beispiel Q123456). Diese QID ist sprachunabhängig und kann als universeller Anker dienen. Wenn ein LLM deinen Namen in unterschiedlichen Kontexten sieht, kann es die Erwähnungen auf eine ID auflösen und Wissen an einem Knoten aggregieren.
Strategische Umsetzung in Wikidata:
- Disambiguation: Wenn du John Smith heißt, trennt die QID “John Smith (AI expert)” von “John Smith (plumber)”. Ohne das kann das Modell Daten verschiedener Personen zusammenwerfen und Expertise verwässern.
- Mehrsprachige Propagation: Wikidata speist Wissenssysteme in vielen Sprachen. Eine sauber definierte Entity kann von Modellen auch dann verwertet werden, wenn Anfragen in anderen Sprachen kommen, weil Beziehungen semantisch und nicht rein sprachlich sind.16
- Property Linking: Nutze Properties, die Autorität und thematische Bindung ausdrücken, etwa P106 (Occupation), P101 (Field of Work), P800 (Notable Work) und P856 (Official Website).17
4.2 Notability und die “Living People”-Policy
Wikidata ist zugänglicher als Wikipedia, setzt bei Biografien lebender Personen aber strenge Regeln durch, um Privatsphäre zu schützen und Spam zu begrenzen. Items für lebende Personen müssen zentrale Kriterien erfüllen:
- Verifizierbarkeit: Aussagen (zum Beispiel Geburtsdatum oder Arbeitgeber) sollten mit Referenzen auf verlässliche Quellen belegt sein, nicht nur mit eigenen Social-Media-Posts.
- Struktureller Bedarf: Idealerweise ist die Person mit anderen Items verknüpft. Wenn du ein Buch verfasst hast, das ein eigenes Wikidata-Item hat, bist du als Autorin oder Autor strukturell notwendig.18
Warnung: Erstelle kein Vanity-Item. Wenn ein Eintrag ohne Drittquellen bleibt, kann er zur Löschung vorgeschlagen werden. Praktisch funktioniert oft die Reihenfolge: erst einen Drittquellen-Papertrail aufbauen (Interviews, Zitate, Datenbankeinträge) und dann das Wikidata-Item erstellen, um diesen Trail zu indexieren.20
5. Technisches GEO: Die Sprache der Maschine
Wenn deine Entity konzeptionell im Knowledge Graph existiert, musst du sie technisch auf dem Web ausformulieren. Hier wird Structured Data (Schema.org) zentral.
5.1 JSON-LD: Die Syntax von Autorität
LLMs sind Vorhersagesysteme. Wenn sie eine Webseite ohne Struktur scrapen, müssen sie Beziehungen erraten. Structured Data reduziert dieses Raten, weil Beziehungen explizit behauptet werden. Für Expertinnen und Experten ist Person-Schema das wichtigste Vehikel.
Standard-Schema aus Plugins ist für GEO oft zu dünn. Es liefert vielleicht nur Name und URL. Um Expertise zu signalisieren, brauchst du Properties, die als semantische Brücken dienen.
5.1.1 Die sameAs-Property
Das ist dein digitaler Fingerabdruck. Du sagst dem Modell: Die Entity auf dieser Seite ist identisch mit der Entity auf diesen anderen URLs.
Strategie: Verlinke deine Wikidata-URL, dein Google-Scholar-Profil, Crunchbase, LinkedIn und andere hochautoritative Datenbankeinträge. So kann Autorität von diesen Plattformen auf deine eigene Domain abstrahlen.21
5.1.2 Die knowsAbout-Property
Das ist ein direkter Kanal, um Expertise zu kodieren. Viele Implementierungen nutzen hier fälschlich nur Strings (zum Beispiel “SEO”).
Strategie: Nutze URLs zu Wikipedia- oder Wikidata-Entities für die Themen. So entsteht ein eindeutiger Link zur gemeinten Entity.
Beispiel: “knowsAbout”: [“https://www.wikidata.org/wiki/Q11660”] (das Wikidata-Item für AI).
Begründung: Damit formulierst du eine formale Beziehung zwischen der Person-Entity und der Topic-Entity. Das reduziert Mehrdeutigkeit, welche “AI” hier gemeint ist.23
5.1.3 mentions vs. about
Bei Artikeln sollte Schema unterscheiden, worum es primär geht und was nur am Rand erwähnt wird.
- about: Kernthema (hohes Gewicht für Retrieval).
- mentions: Nebenthemen (geringeres Gewicht).
Strategie: Nutze about, um die Entities zu verlinken, für die du bekannt sein willst. Das stärkt die thematische Bindung.
Umfassendes Code-Beispiel: Expert-Persona-Schema
Das folgende JSON-LD-Snippet illustriert eine Person-Entity, die für LLM-Ingestion optimiert ist. Der Code ist als escaped Text für WordPress dargestellt:
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Person",
"name": "Dr. Aris Thorne",
"description": "Computational Linguist specializing in Neuro-Symbolic AI and LLM Alignment.",
"url": "https://www.aristhorne.ai",
"image": "https://www.aristhorne.ai/images/headshot-2025.jpg",
"jobTitle": "Principal Research Scientist",
"worksFor": {
"@type": "Organization",
"name": "Sentient Labs",
"sameAs": "https://www.wikidata.org/wiki/Q99999999"
},
"alumniOf": [],
"sameAs": [
"https://www.wikidata.org/wiki/Q123456",
"https://scholar.google.com/citations?user=aristhorne",
"https://www.linkedin.com/in/aristhorne",
"https://twitter.com/aristhorne_ai"
],
"knowsAbout": [],
"mainEntityOfPage": {
"@type": "WebPage",
"@id": "https://www.aristhorne.ai/about"
}
}
</script>
5.2 Knowledge-Panel-Triggering
Ein Google Knowledge Panel ist die sichtbare Oberfläche des Knowledge Graph. Ein solches Panel zu triggern ist für GEO ein wichtiger Meilenstein, weil es signalisiert, dass das System eine Vertrauensschwelle für die Entity erreicht hat.
Strategien für Nicht-Prominente:
- “Entity Home”-Konsolidierung: Definiere eine Seite (oft die About-Seite) als kanonischen Hub. Alle sameAs-Links zeigen von dort nach außen, und externe Profile verlinken zurück. Dieses Kreis-Muster erhöht die Sicherheit des Systems.24
- Autorität leihen: Wenn ein volles Panel unrealistisch ist, können Bücher (Google Books) oder Patente (Google Patents) kleinere Knowledge Cards auslösen.
- Selbstverifizierung: Sobald ein provisorisches Panel erscheint, solltest du es über den Verifizierungsprozess beanspruchen, meist mit einem Google-Konto, das über Search Console mit der offiziellen Website verbunden ist.25
6. Content Engineering: Für Roboter schreiben, um Menschen zu erreichen
Wenn Entity Engineering beschreibt, wer du bist, dann beschreibt Content Engineering, was du sagst und wie du es sagst. LLMs konsumieren Inhalte anders als Menschen. Sie priorisieren Struktur, semantische Dichte und Informationsgewinn.
6.1 Die Inverted Pyramid für generatives Retrieval
Klassische Editorial-Stile bauen oft auf eine Pointe hin. GEO verlangt die Inverted Pyramid. RAG-Systeme ziehen manchmal nur die ersten paar tausend Tokens einer Seite. Wenn die Antwort in Absatz 10 steckt, sieht das Modell sie möglicherweise nie.
BLUF (bottom line up front): Das h1 sollte die Nutzerfrage spiegeln. Der erste Block danach sollte direkt antworten.
Maschinenlesbarkeit: Ein klarer Antwortblock erhöht die Chance, dass Text für Featured Snippets und AI-Overview-Zusammenfassungen extrahiert wird.27
6.2 Semantisches HTML und Struktur
LLMs lesen HTML-Tags als Hinweise auf Hierarchie und Wichtigkeit.
- h1 vs. h2: Das h1 definiert oft das semantische Zentrum. h2-Überschriften bilden Sub-Cluster.
- Listen: Modelle lesen Listen sehr gut. Wenn du dichte Absätze in Listen zerlegst, steigt die Extrahierbarkeit und damit die Wiederverwendung in generierten Antworten.28
- Tabellen: Tabellen sind für Vergleiche besonders wertvoll. Bei Fragen wie “A vs. B” suchen Modelle oft nach tabellarischer Struktur, um zu synthetisieren. Wenn du Vergleichsdaten als Tabellen publizierst, wird deine Seite für das System zum Weg des geringsten Widerstands.27
6.3 Informationsgewinn und Perplexität
Googles “Helpful Content”-Systeme und gängige Trainingsziele belohnen Informationsgewinn – also neue Fakten im Korpus. Wenn ein Artikel nur Bekanntes umformuliert, ist der Informationsgewinn gering und der Inhalt wird eher ignoriert oder abgewertet.
So steigerst du Informationsgewinn:
- Proprietäre Daten: Veröffentliche eigene Umfragen oder Benchmarks. Zahlen sind robuste Artefakte, die Modelle gerne wiederverwenden.
- Begriffsprägung: Definiere klare Begriffe oder Frameworks (zum Beispiel “the 3-step GEO protocol”). Wenn du einen Begriff konsistent definierst und andere ihn zitieren, lernt das Modell die Zuordnung. Wenn Nutzerinnen und Nutzer den Begriff prompten, wirst du zur naheliegenden Quelle.10
- Burstiness: Schreibe mit variierter Satzstruktur und hoher semantischer Dichte. Gute menschliche Texte wirken oft “burstiger” und haben mehr Perplexität als synthetischer Low-Effort-Text. Dieses Signal kann in Training und Ranking eine Rolle spielen.7
7. Die Citation Economy: Off-Page GEO
So wie Backlinks klassisches SEO angetrieben haben, treiben Zitate GEO an. Im LLM-Zeitalter ist ein Zitat mehr als ein Link. Es umfasst auch unlinked Mentions, Ko-Okkurrenzen und Referenzen in Medien, die in Trainings- und Retrieval-Datensätzen landen.
7.1 Barnacle SEO: An die Wale andocken
“Barnacle SEO” bedeutet, deine Marke an Plattformen zu hängen, die bereits Autorität haben und bereits in LLM-Zitaten auftauchen. Oft ist es leichter, einen LinkedIn-Post oder einen Medium-Artikel sichtbar zu bekommen als eine neue eigene Domain.
Taktische Umsetzung:
- Hosts identifizieren: Suche deine Keywords in Perplexity und ChatGPT. Notiere, welche Domains in den Quellen auftauchen (zum Beispiel G2, Capterra, Reddit, Forbes).
- Andocken: Veröffentliche genau dort. Wenn Perplexity Reddit für “best AI tools” zitiert, brauchst du präsente Beiträge im passenden Subreddit. Wenn ChatGPT G2-Reviews zitiert, brauchst du ein gepflegtes G2-Profil.29
7.2 Parasite SEO: Der aggressive Ansatz
Parasite SEO ist ähnlich, aber meist aggressiver. Es bedeutet oft, auf Subdomains oder Sponsored-Bereichen sehr großer Websites zu publizieren, um deren Autorität zu mieten.
Mechanismus: Solche Hosts indexieren oft sehr schnell, weil ihre Domain-Autorität hoch ist.
Anwendung für AI: Listicles auf Parasite-Hosts können einen Listen-Slot in AI-Overviews besetzen. Das System vertraut der Host-Domain und kann die Listenstruktur direkt wiederverwenden.31
7.3 Digital PR und Ko-Okkurrenz
LLMs bauen Assoziationen über textliche Nähe. Wenn “Expert X” und “Topic Y” in vielen Quellen gemeinsam auftauchen, wird die Vektorbeziehung stärker.
Unlinked Mentions: Anders als in klassischem SEO kann GEO auch von reinen Text-Erwähnungen profitieren.
Quote-Strategie: Suche aktiv Gelegenheiten, in Branchenmedien zitiert zu werden. Das Muster “According to [Expert Name], …” ist ein perfektes Lernbeispiel, das Modelle leicht übernehmen.33
8. Strategische Manöver: Wettbewerb und Data Voids
Um eine Nische zu dominieren, musst du nicht nur konkurrieren, sondern auch Leerräume finden, in denen es zu wenig hochwertige Information gibt.
8.1 Data Voids erkennen und füllen
Ein Data Void ist ein Query-Raum mit hoher Nachfrage, aber zu wenig autoritativer Information. In solchen Lücken halluzinieren LLMs eher oder zitieren schwache Quellen.
So findest du Data Voids:
- Prompt Mining: Nutze “People Also Ask” und Autocomplete, um Long-Tail-Fragen zu finden (zum Beispiel “ethics of RAG for medical diagnosis in rural areas”).
- Litmus-Test: Frage ein LLM. Wenn die Antwort vage wird, ausweicht oder nur generische Verzeichnisse zitiert, ist das oft ein Signal für eine Lücke.
Die Füllung: Erstelle einen definitiven, stark strukturierten Beitrag, der genau diese Frage adressiert. Wenn im Vektorraum wenig konkurrierende “Wahrheit” existiert, kann dein Inhalt zur Standardreferenz werden.34
8.2 Co-Citation und die “Best Of”-Strategie
Um Wettbewerber zu überholen, solltest du neben ihnen zitiert werden. So nutzt du deren Gravitation.
- Listicle-Taktik: Erstelle oder sponsere Inhalte wie “Top Experts in [Field]”. Nimm etablierte Namen auf, um Qualität zu signalisieren, und platziere dich selbst als Peer.
- Vergleichsanalyse: Veröffentliche technische Vergleiche (zum Beispiel “meine Methodik vs. die Methodik des Wettbewerbers”). Das zwingt Systeme, beide Entities in einem Kontext zu verarbeiten, und kann semantische Links verdichten.7
9. Messung: Die Share-of-Model-Kennzahl
Klassisches Rank-Tracking passt nicht zu einem nicht-deterministischen System. Die Branche bewegt sich in Richtung Share of Model (SoM) als KPI.
9.1 Share of Model berechnen
SoM misst, wie häufig eine Marke oder Expertin bzw. ein Experte in Antworten auf eine standardisierte Prompt-Liste erwähnt wird.
Methodik:
- Prompt-Set: Definiere 50 relevante Prompts über informational, transactional und comparative Intent.
- Sampling: Führe die Prompts durch Zielmodelle (zum Beispiel GPT-4, Claude, Perplexity) mehrfach aus (zum Beispiel n = 30), um Zufälligkeit zu berücksichtigen.
- Scoring:
- Mention: Taucht der Name auf?
- Rank: Stehst du an erster, zweiter oder letzter Stelle?
- Sentiment: Ist der Kontext positiv?
Formel: SoM = (Summe gewichteter Erwähnungen) / (Anzahl Prompts x Anzahl Runs).36
9.2 Tools und Automatisierung
Manuell geht es, aber es entstehen neue Tools:
- Otterly.AI: trackt Brand Mentions über Chatbots hinweg.38
- Keyword.com: monitoriert die Sichtbarkeit in Google AI Overviews.39
- Profound und Share-of-Model-Agenturen: liefern Enterprise-Audits für Vektorraum-Sichtbarkeit.40
10. Zukunftshorizonte: Agentic Web und internationales GEO
10.1 Optimierung für AI-Agents
Wir bewegen uns von Chatbots, die mit Menschen sprechen, zu Agents, die für Menschen handeln. Ein Agent, der eine Konferenzspeakerin bucht, wird keinen Blog lesen. Er fragt strukturierte Systeme nach Verfügbarkeit, Honorar und Themen ab.
Praktische Konsequenz: Du solltest handlungsrelevante Daten über APIs oder reichhaltiges Schema exposen (zum Beispiel Event-Schema und Offer-Schema). Wenn ein Agent Honorar oder Verfügbarkeit nicht parsen kann, kann er nicht buchen.
10.2 Cross-Lingual-Sichtbarkeit
LLMs sind grundsätzlich mehrsprachig. Sie mappen Konzepte auf Vektoren, nicht nur auf englische Tokens. “Artificial Intelligence” und “Künstliche Intelligenz” liegen semantisch nah beieinander.
Implikation: Eine starke Entity-Definition in Wikidata, das mehrsprachig angelegt ist, kann Zitationen in Deutsch, Japanisch oder Französisch stützen, auch wenn du hauptsächlich auf Englisch publizierst. Diese Übersetzungsunabhängigkeit ermöglicht Skalierung, die klassisches SEO selten geliefert hat.16
Fazit
Der Wechsel von Search Engine zu Answer Engine ist nicht nur eine Veränderung der Oberfläche. Er verändert die Grundmechanik von Discovery. Sichtbarkeit ist nicht mehr Keyword-Matching gegen einen Index. Es geht darum, genug Entity Gravity aufzubauen, um zu beeinflussen, wie ein neuronales System durch semantischen Raum navigiert.
Wenn du Entity Engineering (Wikidata und Schema), Content Engineering (Informationsgewinn und Struktur) und die Citation Economy (Barnacle- und Parasite-Strategien) konsequent umsetzt, kannst du dich als Primärquelle positionieren. Im KI-Zeitalter gewinnen nicht die, die am meisten Content produzieren, sondern die, die am meisten maschinenverständliche Wahrheit publizieren.
Works cited
- Zugriff am 11. Januar 2026, https://www.outerboxdesign.com/articles/ai/llmo-and-geo-what-we-know-optimizing-for-llms-and-ai/#:~:text=GEO%3A%20Generative%20Engine%20Optimization%20focuses,is%20usable%20by%20the%20technology.
- Optimizing Content for LLMs: The Basics of GEO | Heinz Marketing, Zugriff am 11. Januar 2026, https://www.heinzmarketing.com/blog/optimizing-content-for-llms-the-basics-of-geo/
- LLMO and GEO | What We Know About Optimizing for LLMs and AI – OuterBox, Zugriff am 11. Januar 2026, https://www.outerboxdesign.com/articles/ai/llmo-and-geo-what-we-know-optimizing-for-llms-and-ai/
- [2509.08919] Generative Engine Optimization: How to Dominate AI Search – arXiv, Zugriff am 11. Januar 2026, https://arxiv.org/abs/2509.08919
- Generative Engine Optimization (GEO): The New Frontier of Web Visibility in the Age of AI, Zugriff am 11. Januar 2026, https://craftercms.com/blog/business/generative-engine-optimization-the-new-frontier-of-web-visibility-in-the-age-of-ai
- GEO: Generative Engine Optimization – arXiv, Zugriff am 11. Januar 2026, https://arxiv.org/pdf/2311.09735
- Optimize Your Content for LLM in 2026: Top SEO Techniques – Promodo, Zugriff am 11. Januar 2026, https://www.promodo.com/blog/how-to-optimize-your-content-for-llm
- Zjh-819/LLMDataHub: A quick guide (especially) for trending instruction finetuning datasets – GitHub, Zugriff am 11. Januar 2026, https://github.com/Zjh-819/LLMDataHub
- Dolma | Ai2 platform documentation, Zugriff am 11. Januar 2026, https://docs.allenai.org/training_data/dolma
- Generative Engine Optimization (GEO): The Mechanics, Strategy, and Economic Impact of the Post-Search Era – ResearchGate, Zugriff am 11. Januar 2026, https://www.researchgate.net/publication/398120277_Generative_Engine_Optimization_GEO_The_Mechanics_Strategy_and_Economic_Impact_of_the_Post-Search_Era
- How we analyzed the websites in a commonly used AI training dataset – Kevin Schaul, Zugriff am 11. Januar 2026, https://kschaul.com/post/2023/04/21/how-we-analyzed-the-websites-in-a-commonly-used-ai-training-dataset/
- allenai/dolma: Data and tools for generating and inspecting OLMo pre-training data. – GitHub, Zugriff am 11. Januar 2026, https://github.com/allenai/dolma
- The Most-Cited Domains in AI: A 3-Month Study – Semrush, Zugriff am 11. Januar 2026, https://www.semrush.com/blog/most-cited-domains-ai/
- AI Platform Citation Patterns: How ChatGPT, Google AI Overviews, and Perplexity Source Information – Profound, Zugriff am 11. Januar 2026, https://www.tryprofound.com/blog/ai-platform-citation-patterns
- Wikidata:Notability, Zugriff am 11. Januar 2026, https://www.wikidata.org/wiki/Wikidata:Notability
- Wikidata-Driven Entity-Aware Translation: Boosting LLMs with External Knowledge, Zugriff am 11. Januar 2026, https://aclanthology.org/2025.semeval-1.238/
- Guidelines for Using Wikidata to Mobilize Information about People in Collections: A Paleontology Perspective – Paleo Data Knowledge Hub, Zugriff am 11. Januar 2026, https://paleo-data.github.io/guidelines-wikidata-people/
- Wikidata: How Companies & Organizations Can Leverage It – Wikiconsult, Zugriff am 11. Januar 2026, https://wikiconsult.com/en/wikidata-effective-strategies-for-companies-institutions-and-communicators
- Wikidata:Living people, Zugriff am 11. Januar 2026, https://www.wikidata.org/wiki/Wikidata:Living_people
- Wikipedia:Notability (people), Zugriff am 11. Januar 2026, https://en.wikipedia.org/wiki/Wikipedia:Notability_(people)
- How to Implement sameAs Schema on Your Website – Rank Math, Zugriff am 11. Januar 2026, https://rankmath.com/kb/sameas-schema/
- How to Set Up sameAs Schema for Better E-E-A-T | Weekend Growth, Zugriff am 11. Januar 2026, https://weekendgrowth.com/sameas-schema/
- knowsAbout schema: A Short Guide (2026) – Aubrey Yung, Zugriff am 11. Januar 2026, https://aubreyyung.com/knowsabout-schema/
- Google’s Knowledge Panel 101: How To Get One Without Wikipedia – Bold Digital Architects, Zugriff am 11. Januar 2026, https://boldigital.com/blog/googles-knowledge-panel-101-how-to-get-one-without-wikipedia/
- Get verified on Google – Knowledge Panel Help, Zugriff am 11. Januar 2026, https://support.google.com/knowledgepanel/answer/7534902?hl=en
- How To Claim Your Google Knowledge Panel – Direct Online Marketing, Zugriff am 11. Januar 2026, https://www.directom.com/google-knowledge-panel/
- How To Optimize Content for LLMs -The Complete Guide – Onely, Zugriff am 11. Januar 2026, https://www.onely.com/blog/how-to-optimize-content-for-llms/
- Zugriff am 11. Januar 2026, https://blog.hubspot.com/marketing/answer-engine-optimization-best-practices#:~:text=Use%20proper%20semantic%20HTML%20tags%20(headings%2C%20lists%2C%20sections).&text=Use%20%2C%20%3Csection,different%20parts%20of%20your%20page.
- Easiest Barnacle SEO tactics for all Websites – Embarque.io, Zugriff am 11. Januar 2026, https://www.embarque.io/post/barnacle-seo
- Content Strategy Framework for Earning Citations from LLMs (Answer Engine Optimization), Zugriff am 11. Januar 2026, https://davidmelamed.com/2025/07/30/content-strategy-framework-for-earning-citations-from-llms-answer-engine-optimization/
- Parasite SEO: How to Use AI to Boost Rankings Fast, Zugriff am 11. Januar 2026, https://www.revvgrowth.com/ai-seo/parasite-ai-seo-guide
- how parasite SEO helped my AI Saas get traffic from google and chatgpt – Reddit, Zugriff am 11. Januar 2026, https://www.reddit.com/r/SaaS/comments/1o29dol/how_parasite_seo_helped_my_ai_saas_get_traffic/
- Ultimate Guide to LLM Tracking and Visibility Tools 2026 – Nick Lafferty, Zugriff am 11. Januar 2026, https://nicklafferty.com/blog/llm-tracking-tools/
- Data Voids: Where Missing Data Can Easily Be Exploited – ResearchGate, Zugriff am 11. Januar 2026, https://www.researchgate.net/publication/356909935_Data_Voids_Where_Missing_Data_Can_Easily_Be_Exploited
- Making Sense of Data Voids – Data & Society, Zugriff am 11. Januar 2026, https://datasociety.net/points/making-sense-of-data-voids/
- Share of Model: a key metric for AI-powered search – Hallam, Zugriff am 11. Januar 2026, https://hallam.agency/blog/share-of-model-a-key-metric-for-ai-powered-search/
- Measure Share Of Voice In ChatGPT – Trakkr.ai, Zugriff am 11. Januar 2026, https://trakkr.ai/article/measure-share-of-voice-in-chatgpt
- AI Search Monitoring Tool: Track ChatGPT, Perplexity & Google AIO, Zugriff am 11. Januar 2026, https://otterly.ai/
- How to Track Brand Mentions in Perplexity AI – Boost Visibility in AI Search – Keyword.com, Zugriff am 11. Januar 2026, https://keyword.com/blog/track-brand-mentions-perplexity-ai/
- Share of Model™ | Master Your Brand Visibility in AI Marketing, Zugriff am 11. Januar 2026, https://shareofmodel.ai/
- How AI’s Geo-Identification Failures Are Rewriting International SEO, Zugriff am 11. Januar 2026, https://www.searchenginejournal.com/how-ai-geo-identification-failures-are-rewriting-international-seo/559499/









