Microsoft har nu släppt en AI Performance report i Bing Webmaster Tools som ger en ovanlig typ av insyn: hur Copilot faktiskt använder webbsidor som underlag. För SEO och AI‑search är det här en stor grej — inte för att “Bing plötsligt är allt”, utan för att rapporten introducerar signaler vi saknat: plattformens egna datapunkter om retrieval och citeringar.
Den här artikeln visar hur du använder rapporten i praktiken och hur du omsätter den i en process som ökar sannolikheten att bli citerad (och därmed synlig) i AI‑svar.
Quotable block 1 I klassisk SEO optimerar du mot användarens sökfras. I AI‑search måste du också optimera mot motorns egna interna frågor — det som Copilot kallar grounding queries.
Vad är AI Performance report (och varför bry sig)?
AI Performance report visar hur Copilot interagerar med ditt innehåll. Den innehåller två begrepp som är centrala att förstå:
1) Grounding Queries
En grounding query är den sökfras Copilot skapar internt för att hitta källor på webben. Den är ofta en omformulering av användarens prompt — mer specifik, mer “search‑lik”, mer fokuserad på entiteter, features och jämförelser.
Det här är i praktiken query rewriting (en välkänd RAG-teknik) fast “inbyggd” i sökmotorn.
2) Citations
Citations är när Copilot använder en sida som källa i ett svar. I rapporten kan du se vilka sidor som blir citerade och hur ofta.
Quotable block 2 “Citations” är en ny typ av SEO‑signal: inte klick, utan källstatus i AI‑svaret.
Källor:
RAG-logiken bakom Copilot (varför struktur slår “bra text”)
Copilot fungerar i praktiken som en RAG‑pipeline:
- Fråga/prompt kommer in
- Systemet gör query rewriting (grounding queries)
- Systemet gör retrieval (ofta hybrid: lexikal + semantisk)
- Resultat omrankas (reranking)
- LLM genererar svaret med stöd av källor
Microsoft beskriver tydligt byggblocken i en RAG‑pipeline: chunking, hybrid search (t.ex. RRF), query rewriting och reranking.
Källa:
Varför “hybrid” spelar roll även för content
Om retrieval är endast semantisk kan den missa sällsynta tokens: produktnamn, akronymer, lagar, standarder, versionsnummer. Därför är hybrid (BM25 + vector) ofta mer robust.
Källa:
Steg-för-steg: så använder du rapporten för att hitta content gaps
Steg 1: Exportera datan och skapa tre listor
Från AI Performance report vill du i praktiken skapa:
- Lista A: Grounding queries (rådata)
- Lista B: URL → citations
- Lista C: URL → grounding events (om du har det i exporten)
Målet är att kunna ställa frågan:
- “Vilka intents försöker Copilot lösa inom vår nisch?”
- “Vilka av våra URL:er blir valda som källa?”
- “Var har vi hög användning men låg belöning?”
Steg 2: Klustra grounding queries (intent + entiteter)
Gör inte 200 kluster. Börja med 8–15:
- Definitioner (”vad är…”)
- Jämförelser (”X vs Y”)
- “Bäst i test”/val (”hur väljer man…”)
- Implementering (”hur gör man… steg för steg”)
- Verktyg/mallar (”template”, ”checklist”)
- Pris/ROI (”kostnad”, ”lönsamhet”)
- Risk/compliance (”GDPR”, ”säkerhet”)
- Lokalt/marknad (”i Sverige”, ”Göteborg”)
Extrahera också entiteter (verktyg, standarder, branscher, roller) ur queries.
Steg 3: Mappa kluster → URL (primary + support)
För varje kluster:
- Primary URL: sidan som ska vara “källan” Copilot väljer.
- Support URLs: 2–6 sidor som ger bevis, exempel, checklistor och jämförelser.
Det här är “topic cluster” tänkt som retrieval‑graf: interna länkar och tydliga ankare gör att olika chunks kan hämtas med hög precision.
Steg 4: Optimera primary‑sidor för citerbarhet (“answer units”)
Du vill skapa extractable blocks — inte bara flytande text.
Praktisk mall för en “answer unit”
- Rubrik som matchar intent (fråga)
- 2–4 meningar svar
- 1–3 bullets med kriterier
- Ett mini‑exempel
- Länk till fördjupning
Exempel (SEO + AI‑search):
<section id="grounding-query">
<h2>Vad är en grounding query?</h2>
<p><strong>Grounding query</strong> är den omformulerade sökfras Copilot skapar internt för att hämta webbkällor.
Den kan skilja sig från användarens prompt och är ofta mer specifik (entiteter, features, jämförelser).</p>
<ul>
<li>Använd den för att hitta verkliga intents Copilot försöker lösa.</li>
<li>Mappa query-kluster till primära URL:er och support-sidor.</li>
<li>Optimera varje primär sida med tydliga answer units och bevis.</li>
</ul>
</section>
Quotable block 3 En AI‑motor citerar sällan “hela artiklar”. Den citerar stycken som överlever retrieval: tydligt avgränsade, korrekt namngivna och lätta att plocka ut.
Steg 5: Prioritera med en enkel 2×2
Du behöver ingen perfekt modell första veckan. Rangordna URL:er efter:
- Hög grounding, låg citation → störst potential (förbättra struktur + answer units)
- Hög citation → skydda och uppdatera (uppdaterad-datum, exempel, internlänkar)
- Låg grounding → kanske fel match/ ämne, eller saknar coverage
Process: så bygger du in det i en SEO/AI‑search‑leverans
Här är ett förslag som passar en byrå/consultancy-process.
Fas: Research (ny signal)
Ny input-källa: Grounding queries från Bing WMT.
- Gate: “Finns grounding clusters för vår kategori som vi inte täcker?”
- Output: 8–15 kluster + mapping till URL:er.
Fas: Content brief
- Gate: Varje brief måste ha:
- 3–5 definierade entiteter
- 2–4 answer units (rubriker + syfte)
- 1 checklist‑block
Fas: QA (citation-ready)
- Gate: “Kan en retrieval‑motor hitta rätt stycke?”
- Rubriker matchar intents
- Definitioner tidigt
- Minst ett konkret exempel
- Internlänkar till bevis/fördjupning
Checklista (redo att kopiera)
- Exportera Grounding Queries + Citations från Bing WMT
- Klustra queries (8–15) efter intent
- Extrahera entiteter (verktyg, standarder, roller)
- Mappa kluster → primary URL + support URLs
- Bygg 2–4 answer units per primary URL
- Lägg definitioner tidigt + konkreta exempel
- Lägg internlänkar: “fördjupning”, “jämförelse”, “checklista”
- Uppdatera datum/uppdaterad + ansvarig
- Följ upp: citations per URL efter 2–4 veckor
Källor
- Otterly (rapport + definitioner av grounding queries och citations): https://otterly.ai/blog/bing-webmaster-tools-ai-performance-report/
- Microsoft (RAG pipeline building blocks: chunking, hybrid, query rewriting, reranking): https://www.microsoft.com/en-us/microsoft-cloud/blog/2025/02/04/common-retrieval-augmented-generation-rag-techniques-explained/
- Neo4j (advanced RAG: hybrid retrieval, reranking, filtering): https://neo4j.com/blog/genai/advanced-rag-techniques/