Relevance Engineering för AI‑search: Needs‑Met + Task Completion Blocks (så blir du citerad)

AI‑search belönar inte “längre content” — den belönar content som slutför uppgiften. För att öka chans till citering behöver du bygga sidor av Task Completion Blocks: (1) snabbt svar, (2) steg, (3) decision rules, (4) risker/edge cases, (5) nästa steg. Kombinera detta med semantisk HTML och en strikt QA‑gate (källor nära claim + schema som matchar synlig text).


Varför “Needs Met” har blivit praktiskt igen

Google har alltid haft en intern definition av kvalitet: hur väl en sida möter ett behov. I Search Quality Rater Guidelines (QRG) finns ramen “Needs Met”, och senaste uppdateringar har lagt till exempel för AI Overviews och förtydliganden kring YMYL.

AI Overviews och liknande system är i praktiken en “super‑SERP”: modellen ska leverera ett färdigt svar. Den väljer därför källor som hjälper den göra två saker:

  1. Svara korrekt och komplett
  2. Minska risk (YMYL: medicin, ekonomi, juridik)

Det här leder till en enkel slutsats:

Du optimerar inte bara för ranking. Du optimerar för att bli den enklaste källan att bygga ett helt svar på.


Från Query → Task → Completion (QTC)

En query är sällan målet. Den är ett symptom på en uppgift.

  • Query: “tandimplantat pris”
  • Task: förstå totalkostnad och vad som ingår
  • Completion: jag kan säga “detta gäller mig”, jag vet nästa steg, jag vet risker/alternativ

Praktisk fråga att ställa om varje sida:

“Om någon bara läser den här sidan — kan de sluta leta?”


Task Completion Blocks (TCB): sidans byggstenar

Här är mönstret som gång på gång fungerar i AI‑search (citerbarhet + konvertering):

Block 1: Snabbt svar (1–3 meningar)

  • Direkt definition eller slutsats
  • Lägg ev. en begränsning: “det beror på X”

Block 2: Hur gör jag? (steg)

  • Numrerad lista (OL) med 5–9 steg

Block 3: Decision rules

  • “Om X → gör Y”
  • “Gäller när… gäller inte när…”

Block 4: Risker + vanliga fel

  • Edge cases
  • När ska man kontakta vård/experter

Block 5: Nästa steg

  • CTA, checklistor, förväntningar, vad som händer härnäst

Quotable block (1)

I AI‑search vinner inte den som “har mest text”, utan den som gör användaren klar.


Semantisk HTML: gör dina block extraherbara

Semantik är “rätt element för rätt jobb”. MDN sammanfattar att semantiska element hjälper både människor och maskiner att förstå innehåll.

Praktisk standard för TCB:

  • H2 = huvuddel
  • H3 = Answer Unit / block
  • DL = definitioner
  • OL = steg
  • UL = checklistor
  • Tabeller med caption + rubrikrad

Exempel (kort):

<h3>Vad är ett tandimplantat?</h3>
<p><strong>Ett tandimplantat är…</strong> (1–2 meningar).</p>

<h3>Så går behandlingen till (7 steg)</h3>
<ol>
  <li>…</li>
</ol>

<h3>Checklista inför konsultation</h3>
<ul>
  <li>…</li>
</ul>

Structured data: stödlagret (men inte en genväg)

Google är tydliga med att structured data beskriver sidans innehåll och att du inte ska markera upp information som inte är synlig.

Praktiskt:

  • Låt schema spegla det du faktiskt visar.
  • QA: FAQPage måste matcha synliga FAQ exakt.

Quotable block (2)

Schema hjälper AI förstå vad du menar. Men din textstruktur avgör om AI kan citera dig.


Information gain: “nytta per sekund”

Du behöver inte tänka patent. Tänk bara:

  • Har sidan regler (hur man väljer)?
  • Har sidan constraints (när det inte funkar)?
  • Har sidan exempel (typfall)?
  • Har sidan risk (vad kan gå fel)?

Det är nästan alltid högre information gain än generiska guider.


Praktisk checklista (copy/paste)

  •  Finns ett snabbt svar i toppen (1–3 meningar)?
  •  Finns steg (OL) som gör processen tydlig?
  •  Finns decision rules (om X → Y) och begränsningar?
  •  Finns risker/edge cases + “när söka hjälp”?
  •  Finns nästa steg (CTA + vad som händer)?
  •  Är Answer Units passage‑independent (150–300 ord)?
  •  Ligger källor nära claim (evidence co-location)?
  •  Matchar schema synlig text (FAQ 1:1)?

Nästa steg (för BDM)

  1. Inför “TCB‑gate” i Phase 4.5 (Citation‑Ready Pack)
  2. Testa på 1 sida: 6–10 Answer Units + 5 TCB‑block
  3. Mät före/efter: CTR, scroll‑depth, CTA, och citations (manual SoA‑logg)

Källor

Dela inlägg

Läs fler inlägg