Sökmotoroptimering är inte vad det var
När jag började bygga webbplatser i mitten av 2010-talet var SEO en relativt förutsägbar disciplin. Tio blåa länkar. Optimera title, meta description, headers, interna länkar. Bygg länkar utifrån. Mät rankning. Upprepa.
2026 är något annat. En växande andel av sökningarna besvaras innan användaren klickar någonstans – av Google AI Overviews, av ChatGPT Search, av Perplexity, av Claude Search, av Gemini Deep Research. Den klassiska trattbilden – sökning → klick → webbplats → konvertering – har fått ett nytt steg inskjutet: AI-syntes. Och i det steget väljs några källor att citera. Resten försvinner.
Det här är inte en framtidsvision. Det är det operativa läget. I flera av Semantikos egna kunder ser jag att den organiska trafiken ligger stabilt, men förhållandet mellan impressions i Search Console och faktiska klick har vridits kraftigt. Fler ser sajten nämnd i AI-sammanfattningar, färre klickar. Den som inte syns i sammanfattningarna förlorar synligheten helt.
Den här artikeln är en djupgående, teknisk genomgång av vad GEO (Generative Engine Optimization) och AEO (Answer Engine Optimization) faktiskt är, hur LLM-baserad sök hämtar och citerar information, och vad du som operatör behöver göra – på kod-, content- och mätningsnivå – för att vara synlig i den nya ordningen.
GEO vs AEO vs SEO: Tre discipliner, tre uppdrag
Det är lätt att blanda ihop begreppen, så låt mig klargöra:
- SEO handlar om att ranka och få klick. Målet är att en URL hamnar högt i en sökresultatsida så att en människa klickar sig in till din sajt.
- AEO handlar om att vara svaret – bli featured snippet, bli uppläst av Siri, dyka upp i Google Business Profile-panelen. Svarsgränssnitten är förutsägbara och har definierade slots.
- GEO handlar om att vara citerad inuti en genererad text. AI:n har ingen "slot" – den skriver fritt och väljer källor att peka på. Ditt uppdrag är att vara en av de källorna.
De tre disciplinerna överlappar men är inte identiska. Ett innehåll som är bra för SEO kan vara värdelöst för GEO om det inte har passager som en LLM kan isolera och citera. Ett innehåll som är bra för GEO behöver ändå ranka för att LLM:en ska hitta det i första läget.
| Aspekt | SEO | AEO | GEO |
|---|---|---|---|
| Målgränssnitt | Sökresultatsida (SERP) | Featured snippet, voice, knowledge panel | AI-syntes (ChatGPT, Perplexity, AI Overviews, Claude) |
| Enhet som rangordnas | Hela sidan (URL) | Svar-passage | Passage + källattribution |
| Primära signaler | Backlinks, content depth, Core Web Vitals, E-E-A-T | Schema, frågestruktur, koncis prosa | Retrieval relevance, citerbarhet, expertsignaler, brand mentions |
| Mäts genom | Rankning, CTR, organisk trafik | Snippet-share, voice-svar, zero-click share | Citation share, brand mention rate, pass-through-klick |
| Tidshorisont | Månader till år | Veckor till månader | Dagar till veckor – LLM-index uppdateras snabbt |
Den viktigaste tankemodellen jag arbetar efter: GEO är inte ersättning för SEO, det är ett lager ovanpå. Klassisk SEO är fortfarande grunden – utan att indexeras av Google/Bing kommer LLM:er sällan hitta dig heller, eftersom deras retrieval-pipelines oftast sitter ovanpå ett klassiskt webb-index.
Så fungerar retrieval i LLM-eran
För att optimera för generativ sök behöver du förstå vad som faktiskt händer när en användare skriver en prompt i ChatGPT Search eller Perplexity. Det är inte magi. Det är en teknisk pipeline med tre steg:
Steg 1: Query-förståelse
Användarens naturliga språk-fråga skickas först genom en modell som antingen omformulerar den till en eller flera sök-frågor, eller direkt embedding-tolkar den. ChatGPT Search skickar ofta 2–5 subfrågor parallellt mot sitt Bing-baserade index. Perplexity kör en egen Sonar-variant. Google AI Overviews använder en hybrid av klassisk söknings-signal och en Gemini-tolkning.
Steg 2: Retrieval
Här spelar ditt innehålls struktur roll. Retrieval fungerar på två sätt parallellt:
- Klassisk sökretrieval (BM25, inverted index) – ungefär som Google alltid fungerat. Din content behöver innehålla de termer som matchar frågan.
- Vektorretrieval via embeddings – varje passage på din sajt omvandlas till en högdimensionell vektor (ofta via modeller som OpenAI text-embedding-3, Cohere Embed v3, eller BGE). Ett dokument är inte en enhet längre – varje stycke, varje H2-sektion, blir en separat embedding. Systemet hämtar de top-k passager vars vektor ligger närmast frågans vektor.
Det är här "passage-level retrieval" kommer in. Om din artikel är en enda lång väv av resonemang utan tydliga sektioner, tabeller eller definitioner, så blir varje chunk suddig och vinner sällan en retrieval-duell mot en konkurrent som har skrivit punktlistor och definitionsrutor.
Steg 3: Re-ranking och generering
Top-k passager (ofta 10–50) skickas genom en re-ranker som poängsätter dem baserat på relevans, källauktoritet och färskhet. De 3–8 bästa hamnar i kontextfönstret tillsammans med prompten. Språkmodellen skriver sedan svaret och citerar det den använde.
Praktisk konsekvens: Du tävlar inte längre mot 10 URL:er på en SERP. Du tävlar mot passager från potentiellt hundratals källor, där vinnarna är 3–8 stycken. Marginalen för att vara "bland top-3 passager" är hårdare än "bland top-10 SERP-resultat", men en väl strukturerad sida kan vinna flera passager från samma svar.
Var sökmarknaden faktiskt står 2026
För att kalibrera insatsen: hur stor är egentligen den här förändringen?
~18%
Andel Google-sökningar som visar AI Overview
Industry trackers, Q1 2026
+60%
Perplexity query-tillväxt år över år
Perplexity public data
~40%
AI-svarssökningar som genererar zero-click
Search Engine Land, 2026 analyses
3–8
Typiskt antal källor en LLM citerar per svar
Egen analys av ChatGPT Search + Perplexity outputs
Det är värt att understryka att detta rör sig mycket snabbt och siffrorna ovan är indikativa. Det som är stabilt är trenderna: zero-click ökar, antalet AI-assisterade sökningar ökar, och antalet källor per svar är litet – oftast 3 till 8.
Trafikbilden förskjuts från "rankning-driven trafik" mot "citation-driven trafik plus kvarvarande rankning". I en av våra kunder inom B2B SaaS ser jag att cirka 14 % av den organiska inflödestrafiken nu kommer från pass-through-klick från Perplexity, ChatGPT Search och Google AI Overviews – en andel som var noll 2024.
Teknisk grund (del 1): Crawlers och åtkomst
Innan du kan optimera behöver du tillåta rätt bots att komma åt ditt innehåll – och veta vad var och en faktiskt gör.
AI-crawlers att känna till
Det finns en uppsjö av AI-bots 2026. De viktigaste:
- GPTBot – OpenAI:s träningscrawler. Fetchar innehåll för att träna framtida GPT-modeller.
- OAI-SearchBot – OpenAI:s sök-specifika crawler för ChatGPT Search-citat.
- ChatGPT-User – Fetchar en URL när en användare frågar ChatGPT om den specifika URL:en. Låg volym, hög intent.
- ClaudeBot – Anthropics träningscrawler.
- Claude-Web – Anthropics agent som gör retrieval för Claude.
- PerplexityBot – Perplexitys sök-crawler.
- Perplexity-User – Fetchar när en användare länkar direkt.
- Google-Extended – En opt-in-flagga Google använder för att separera träningsdata för Gemini/Vertex från vanlig sökindexering. Du kan blockera Google-Extended utan att blockera Googlebot.
- Applebot-Extended – Motsvarande för Apple Intelligence.
- CCBot – Common Crawl, som förser många LLM-träningsdatasets.
Vad din robots.txt bör säga
Frågan är inte "ska vi blockera AI?". Frågan är vilka du vill tillåta träna på ditt innehåll och vilka du vill ska hämta dig för citering.
De flesta företag vill uttryckligen tillåta sök-specifika bots (OAI-SearchBot, Perplexity-User, ChatGPT-User, Claude-Web) eftersom de driver direkt synlighet i AI-svaren. Träningscrawlers (GPTBot, ClaudeBot, CCBot) är en mer filosofisk fråga – vill du att dina texter blir underlag för framtida modellträning utan ersättning? Många förlag säger nej; de flesta tjänstebolag säger ja, eftersom det kan öka sannolikheten att bli citerad av tränade modeller även utan realtidsretrieval.
På Semantikos egen sajt är robots.txt genererad automatiskt av app/robots.ts och tillåter explicit alla 11 stora AI-bots. Det är ett aktivt val – vi vill vara indexerade överallt där kunder kan fråga om Semantiko.
llms.txt – den nya standarden
llms.txt är inte obligatoriskt – ingen crawler tvingar det. Men fler AI-system börjar läsa det som hint, och det är ett lågrisk-sätt att signalera vad som är "canonical" på din sajt. Semantiko har både /llms.txt (kuraterad topic-index) och /llms-full.txt (lång narrativ). Viktigt att filen underhålls när nya pillar-sidor eller viktiga artiklar publiceras – annars blir den snabbt en missvisande karta.
Teknisk grund (del 2): Structured data som faktiskt flyttar på saker
Structured data är inte nytt. Schema.org fanns långt före LLM-eran. Men i GEO-eran blir den explicit värdefull på ett nytt sätt: LLM:er använder JSON-LD för att verifiera fakta (t.ex. datum, författare, organisation) och för att strukturera sin syntes.
Jag arbetar efter en prioriterad schema-matris som ser ut så här för en typisk artikel:
BlogPostingellerArticlemed fullständigauthor(inkl.sameAstill LinkedIn),datePublished,dateModified,wordCount,inLanguage,publisher.BreadcrumbListpå varje undersida – viktigt för hierarkiförståelse både i SERP och i AI-sammanhang.FAQPagenär sidan innehåller ett FAQ-block. Denna markup citeras direkt av AI Overviews med hög frekvens.HowTonär du faktiskt har steg-för-steg-innehåll. Undvik att använda när det inte passar – Googles guidelines straffar missbruk.speakablepåBlogPosting– en CSS-selektor som pekar ut de passager som är mest läsbara för voice-gränssnitt (ofta H1, H2, och ett.key-takeaways-block).
Det sista är särskilt kritiskt för AEO. På Semantiko pekar vår speakable-spec specifikt på article h1, article h2 och .key-takeaways – vilket är varför <KeyTakeaways>-komponenten längst upp på den här artikeln inte bara är visuell utan också tekniskt signalerad som en "uppläsbar sammanfattning".
Ett konkret exempel
För en artikel som den här ser den genererade JSON-LD-blocket ut ungefär så här:
{
"@context": "https://schema.org",
"@type": "BlogPosting",
"headline": "GEO & AEO: Teknisk guide till generativ sökmotoroptimering 2026",
"author": {
"@type": "Person",
"name": "Tommy Skålberg",
"url": "https://semantiko.com/forfattare/tommy-skalberg",
"sameAs": ["https://www.linkedin.com/in/tommyskalberg"]
},
"publisher": { "@type": "Organization", "name": "Semantiko" },
"datePublished": "2026-04-17",
"inLanguage": "sv-SE",
"wordCount": 4950,
"speakable": {
"@type": "SpeakableSpecification",
"cssSelector": ["article h1", "article h2", ".key-takeaways"]
}
}
Detta är inte kosmetik. I mina egna tester av Claude Search och Perplexity ser jag att sidor med fullständig author-markup och sameAs till LinkedIn citeras signifikant oftare än sidor med anonym eller minimal byline – även när innehållet är kvalitativt jämförbart. Expertsignaler är valuta.
Content-arkitektur: Skriva för passage retrieval
Om du ska välja en enda mental modellförändring från den här artikeln, välj den här: en artikel är inte längre ett dokument. Det är ett bibliotek av passager som alla tävlar individuellt.
Sju principer jag använder när jag skriver för GEO
- Definition först. När en ny term introduceras, ge den en explicit definition – helst i en visuellt markerad ruta med schema-signalering. LLM:er plockar dessa som atomära citat.
- En idé per stycke. Långa flytande resonemang tappar retrieval-poäng. Korta, fokuserade stycken med en tydlig påstående-enhet vinner oftare.
- Namngiven expertis i texten. Skriv "I mina tester" eller "På Semantiko ser vi" snarare än passiva konstruktioner. Förstahandserfarenhet är en stark GEO-signal.
- H2/H3 som verkliga frågor eller tesformuleringar. "Så här fungerar retrieval i LLM-eran" slår "Technical background" gånger tio i retrieval-relevans.
- Tabeller för jämförelser, listor för procedurer. Båda formaten är extremt citerbara och visuellt distinkta, vilket hjälper chunkers att identifiera dem som självständiga enheter.
- FAQ-sektion i slutet med riktig Schema. Detta är ofta den mest citerade delen av en artikel i Google AI Overviews.
- Verifierbara datapunkter med källor. När jag skriver "Perplexity-trafiken växte 60 %" länkar jag eller nämner källa. LLM:er gör ofta fact-checking mot ursprungskällor; osubstantierade påståenden plockas sällan.
Anti-mönster som förstör passage-värde
För
- ✓Tydliga H2-rubriker med tesformulering
- ✓Definitionsrutor med schema-markering
- ✓Numerade listor för processer
- ✓Tabeller för jämförelser
- ✓Namngivna experter med LinkedIn-länk
- ✓Datum + dateModified synligt
- ✓Intern länkning till närliggande pillars
Emot
- ✕AI-genererat innehåll utan redaktionell översyn – LLM:er detekterar och nedrankar
- ✕Lång prosa utan sektionsbrytning
- ✕Bilder utan alt-text eller caption
- ✕Anonym eller generisk byline ('Redaktionen')
- ✕Blockering av JavaScript-renderat innehåll för crawlers
- ✕Ingen canonical, vilket gör att duplicerat innehåll splittrar retrieval-signalen
E-E-A-T i GEO-eran
Google förtydligade i december 2025 att Experience, Expertise, Authoritativeness, Trust inte längre gäller bara YMYL-queries (Your Money Your Life), utan alla konkurrenskraftiga frågor. Det här är inte en kosmetisk ändring. För GEO är det definierande.
LLM:er har nämligen ett starkt ingångsfilter för "vem skriver detta?". En välskriven artikel från en sajt med:
- Namngivna författare med verifierbar bakgrund (LinkedIn, akademiska profiler, branschtalanden)
- Organisationens riktiga adress, telefonnummer, momsregistreringsnummer
- Tydlig redaktionell policy
- Konsekvent publiceringshistorik
- Externa bakåtlänkar från auktoritativa sajter
…har dramatiskt högre citering än en sajt där allt detta saknas, även om själva innehållet är lika bra. Jag har sett kundcase där en sajt med tunnare innehåll men stark Organization- och Person-schema slår en konkurrent med mer content men anonym avsändare.
Praktisk konsekvens för ditt företag:
- Alla artiklar ska ha en namngiven författare med
Person-schema. Person-schemat ska inkluderasameAs-länkar till LinkedIn, Twitter/X och eventuella publikationer.- Författarsidor (som Semantikos
/forfattare/tommy-skalberg) ska vara kompletta och uppdaterade. Gamla titlar, saknade foton, tomma CV-sektioner signalerar låg auktoritet. - Redaktionell policy bör publiceras på sajten (vi har vår på
/redaktionell-policy).
Mätning: De nya KPI:erna
Klassisk SEO-rapportering – impressions, CTR, rankning för keyword X – räcker inte längre. Vi behöver nya mätpunkter.
De fyra KPI:erna jag följer
- Citation share – hur ofta din domän dyker upp som citerad källa i AI-svar för dina relevanta frågor, jämfört med konkurrenter. Verktyg som Ahrefs Brand Radar och Profound samplar AI-gränssnitt systematiskt och ger en mätbar share.
- Brand mention rate – hur ofta ditt varumärkesnamn nämns i LLM-svar, även utan länk. En AI kan rekommendera "Semantiko i Stockholm" utan att citera en specifik URL. Detta är svårare att mäta men oerhört värdefullt.
- Pass-through CTR från AI-gränssnitt – när någon faktiskt klickar sig från ChatGPT Search, Perplexity eller Google AI Overview till din sajt. Dessa identifieras via referrer-mönster i GA4 eller server-side tracking.
- Prompt relevance – mer kvalitativt: när en användare frågar något i din nisch, nämns ni? Manuell sampling är fortfarande nödvändig här. Jag kör en standardlista av 50 prompts månadsvis mot ChatGPT, Claude, Perplexity och Google för varje kund.
Verktyg som faktiskt fungerar
- Ahrefs Brand Radar – ger share of voice i AI-responses över tid, på per-fråga-nivå. Deras MCP-integration gör det möjligt att queriea detta direkt i ett AI-gränssnitt.
- Profound – specialiserat på AI-synlighet med automatiserad prompt-sampling.
- Google Search Console – AI Overviews räknas fortfarande som impressions, så GSC ger en första signal om AI-täckning ökar.
- Manuell sampling via Claude Code + en egen prompt-battery – vi kör detta varje vecka för våra kunder.
Praktisk stack och workflow
Så här arbetar jag konkret på Semantiko. Detta är inte en teoretisk modell utan det vi faktiskt gör.
Innehållsproduktion
- Idé och brief. Vi börjar med en research-fas där Claude Opus används för konkurrensanalys: vilka passager citeras i AI-svar för den här frågan idag, från vilka domäner, och vad saknas?
- Utkast med Manus eller Claude Code. Utkastet är alltid ett utkast. Aldrig publicerat utan mänsklig redigering – LLM:er kan skapa struktur snabbt men missar ofta nyans och förstahandserfarenhet.
- Expertpass. Artikeln redigeras av den namngivna författaren (den expert vars byline den kommer bära). Detta är inte kosmetik – det är E-E-A-T i praktiken.
- Teknisk review. Schema genereras via våra
components/seo/JsonLd-komponenter. AEO-block (KeyTakeaways,DefinitionBox,StatBox,ComparisonTable,ProConList) används strategiskt. - Audit innan publicering.
pnpm audit:cikör metadata-, JSON-LD-, H1-, redirect- och image-auditor; bygget fallerar om något saknas.
Tekniska förutsättningar i ramverket
Vår Next.js-arkitektur är byggd med GEO i åtanke från grunden:
- All content SSG:as – LLM-crawlers får komplett HTML utan JavaScript-rendering.
sitemap.xmlauto-genereras från alla 158 publika rutter.llms.txtochllms-full.txtpubliceras automatiskt.- Structured data emitteras server-side, inte client-side (vilket är kritiskt – många AI-bots kör inte JS).
- Author-sidor med full
Person-schema finns för varje riktig författare.
Detta är inte "SEO-tillägg". Det är grundarkitektur.
Vanliga misstag jag ser i GEO-projekt
- Att behandla GEO som ersättning för SEO. Det är det inte. Utan rankning i klassisk sök, ingen retrieval.
- Att generera content med AI utan expertpass. LLM:er detekterar idag AI-genererade texter och nedrankar dem. Dessutom skapar de generiska formuleringar som inte vinner passage-duellen.
- Att blockera alla AI-bots reflexmässigt. Utan indexering finns du inte. Det strategiska valet är att välja vilka bots du tillåter, inte att stänga allt.
- Att skriva för keywords istället för frågor. GEO drivs av naturliga frågor, inte sökfraser. "Vad är skillnaden mellan GEO och AEO?" vinner retrieval-duellen mot en sida om "GEO AEO".
- Att sakna author-byline. Anonyma artiklar citeras sällan av LLM:er 2026.
- Att köra JSON-LD via JavaScript som renderas client-side. Många AI-crawlers exekverar inte JS. Server-side eller statisk HTML är minimum.
- Att tro att en artikel är "färdig" när den är publicerad. GEO-underhåll betyder
dateModified-uppdateringar, faktakontroller och republicering när landskapet ändras.
Vad jag tror händer 2026 och framåt
Några hypoteser som jag arbetar efter, baserade på vad jag ser i data och produkter:
- Google AI Overviews täcker 30 %+ av queries till slutet av 2026. De vanligaste Y:ar (Y=transaktionella) är sist; informationsquery först.
- ChatGPT Search blir standardgränssnitt för vissa kohorter. Särskilt tekniker, forskare och upphandlare – grupper med komplexa frågor.
- Perplexity kommer fortsätta att vara den mest transparenta AI-söken med tydligast source attribution. Det gör dem värda att specifikt optimera för – de är enklast att mäta effekt på.
- Claude Search växer i affärskritiska kontexter där faktakvalitet prioriteras över hastighet. Anthropic-ekosystemet har starka CMO-relationer.
- Mätstandarden konsolideras. Någon leverantör – troligtvis Ahrefs eller Semrush – kommer definiera en branschstandard för "AI citation share" som blir lika standardiserad som "organic traffic" är idag.
Den som vinner GEO idag bygger ett försprång som är svårt att ikappgå – eftersom retrievalsystemen har minne. En LLM som upprepat citerat dig fortsätter ofta att göra det i relaterade queries.
Slutsats: Börja med grunderna, mät från dag ett
GEO är inte en ny disciplin – det är en utveckling av SEO där innehåll, struktur och auktoritet vägs in mer direkt. Men den är annorlunda nog att kräva nya verktyg, nya mätpunkter och ett nytt sätt att tänka kring vad en artikel är.
Mitt praktiska råd om du börjar från noll:
- Auditera dina crawler-regler – säkerställ att AI-bots kan läsa dig.
- Komplettera din JSON-LD – särskilt
Article,FAQPage,speakableoch fullständigPerson-schema för författare. - Skriv om dina mest trafikdrivande sidor med passage-strukturen i åtanke – definitioner, listor, tabeller, FAQ.
- Mät citation share – även om du bara börjar med manuell sampling månadsvis.
- Namnge dina experter – investera i författarprofiler på sajten och LinkedIn.
Vi hjälper företag dagligen att bygga om sin synlighet för den nya ordningen. Om du vill veta hur din sajt står sig i GEO-landskapet just nu är första steget en teknisk genomgång.