AI
Stratégia
🤖 AI Keresőoptimalizálás & Láthatóság

A strukturált adatok attribúciójának ismert és ismeretlen oldalai

A marketingesek rajonganak a jól működő tölcsérekért, mert ezek világosan megmutatják, hogyan teljesítenek a stratégiáink. Láthatjuk az átkattintási arányokat és nyomon követhetjük a vásárló útját a felfedezéstől egészen a konverzióig. Ám az AI-alapú világban, amelyben most élünk, ez a tölcsér mintha eltűnt volna a sötétben.

Az olyan mesterséges intelligencia alapú élmények, mint a ChatGPT vagy a Perplexity, még nem kínálnak teljes körű láthatósági adatokat. Bár léteznek feltörekvő eszközök, amelyek részben bepillantást engednek, az általuk szolgáltatott adatok sem átfogóak, sem mindig megbízhatóak. Az eddig megszokott mutatók, például az impressziók vagy kattintások, ezekben az új terekben nem adják vissza a teljes képet, így a marketingesek egy újfajta mérési kihívással szembesülnek.

Ahhoz, hogy megértsük ezt a változást, érdemes végignézni, mit tudunk és mit nem tudunk mérni a strukturált adatok (más néven schema markup) értékelése kapcsán. Ha tisztában vagyunk a mérhető és irányítható területekkel, könnyebben összpontosíthatunk a mostani lehetőségekre, és felkészülhetünk arra, ahogyan az AI alakítja a fogyasztók márkákhoz való viszonyát.

Sok „AI láthatósági” adat ma még nem megbízható. Az AI-forradalom okozta mérőszám-igény lázában sokan új eszközökhöz fordulnak, amelyek többnyire olyan mutatókat vezetnek be, mint például az „AI platformokon való márkahitelesség”. Ezek azonban nem mindig alapulnak valós, képviselő adatbázisokon.

Például akadnak olyan eszközök, amelyek az ún. „AI promptokat” úgy mérik, hogy rövid kulcsszó-arányos kifejezéseket tekintenek a ChatGPT vagy Perplexity felhasználói kérdéseivel egyenértékűnek. Ez azonban félrevezető, mert a felhasználók ennél jóval hosszabb, kontextusban gazdagabb kérdéseket tesznek fel, amelyek inkább személyesek és beszélgetős jellegűek, és semmiképp sem hasonlíthatók a megszokott hosszú kulcsszavas keresésekhez.

Ezek a mesterséges mérőszámok álmegnyugvást adnak, miközben elvonják a figyelmet a ténylegesen mérhető és befolyásolható dolgokról. Valójában a ChatGPT, a Perplexity vagy akár a Google AI összefoglalói sem nyújtanak világos, átfogó láthatósági adatokat. De akkor mit tudunk mérni, ami valóban befolyásolja a láthatóságot? A strukturált adatokat.

De mit is jelent az „AI keresési láthatóság”? Hagyományos SEO-ban a láthatóság azt jelentette, hogy megjelenünk az első oldalon, vagy kattintásokat kapunk. Az AI által vezérelt világban a láthatóság azt jelenti, hogy a keresőmotorok és az AI rendszerek megértik, megbíznak bennünk, és hivatkoznak ránk. Ebben a folyamatban a strukturált adatoknak kulcsszerepük van: segítenek definiálni, összekapcsolni és tisztázni egy márka digitális világát, hogy az AI rendszerek könnyebben feldolgozhassák az információkat.

Nézzük, mi az, amit biztosan mérni tudunk a strukturált adatok kapcsán.

Az egyik jól mérhető hatás a gazdag találatok (rich results) révén növekvő átkattintási arány. A negyedéves üzleti jelentéseinkből látjuk, hogy ha egy weboldalon strukturált adatokat alkalmaznak, a tartalom jogosult lesz megjelenni gazdag találatokban, és ez az ismert, nagyvállalati márkák esetében egyértelműen jelentős átkattintási növekedést hoz. A Google több mint 30 féle ilyen gazdag találatot támogat, és ezek folyamatosan megjelennek az organikus keresések között.

Például egy háztartási gépeket forgalmazó vállalat a 2025 harmadik negyedévében a termékoldalain 300 százalékos átkattintási növekedést ért el, amikor a Google gazdag találatot jelenített meg ezeknél az oldalaknál. Ez egyértelmű bizonyíték arra, hogy a gazdag találatok mind a láthatóságot, mind a konverziót növelik.

Nem kevésbé fontos a márkanév nélküli, vagyis nem konkrét márkákra irányuló kattintások növekedése az erőteljesebb entitáskapcsolatok (entity linking) miatt. Fontos megkülönböztetni az egyszerű schema markupot a fejlettebb, entitásokat összekapcsoló markuptól, amely egy tudásgráfot (knowledge graph) is létrehoz. Míg az egyszerű schema leírja, mi található a weboldalon, az entitáskapcsolás összefűzi ezeket a fogalmakat más, jól definiált entitásokkal a weben és a saját oldalunkon, összefüggéseket és jelentést hozva létre.

Az entitás egy olyan egyedi és megkülönböztethető dolog vagy fogalom, mint például egy ember, termék vagy szolgáltatás. Az entitáskapcsolás meghatározza, hogyan kapcsolódnak ezek az entitások egymáshoz, akár külső források alapján, mint a Wikidata vagy a Google tudásgráf, akár a vállalat belső tartalom-tudásgráfján keresztül.

Például képzeljünk el egy orvosról szóló oldalt. Az egyszerű schema markup leírja az orvost, de az entitáskapcsoló markup összekapcsolhatja őt a Wikidata és a Google tudásgráf adatbázisaival, meghatározva szakterületét, illetve összekapcsolva a kórházzal és az általa nyújtott szolgáltatásokkal.

Habár a hagyományos SEO-mutatók még nem mérik közvetlenül az AI élményeket, néhány platform már képes azonosítani, ha egy márkát megemlítenek egy AI Overview (AIO) eredményben. A BrightEdge egyik kutatása szerint az entitás-alapú SEO gyakorlatok erősebb AI láthatóságot támogatnak. A jelentés megállapította, hogy az AI a megbízható, jól ismert entitások tartalmát részesíti előnyben, így érdemes elengedni a darabokra szabdalt kulcsszavas optimalizálást, és szélesebb, átfogó témabefolyást kiépíteni. Az adatok szerint az ilyen tekintélyes tartalmak háromszor nagyobb eséllyel jelennek meg AI válaszokban, mint a szűk témákra koncentráló oldalak.

Ami még ismeretlen: bár meglévő SEO mutatókkal követni tudjuk az entitások schema markupban betöltött szerepét, még nincs közvetlen anyagunk arról, miként befolyásolják ezek az elemek a nagynyelvi modellek (LLM-ek) teljesítményét.

Az, hogy az LLM-ek hogyan dolgozzák fel a schema markupot, a megértéssel kezdődik, amely alapja a láthatóságnak. Ez egyre erősödő bizonyítékkal alátámasztott tény, amit például a Microsoft egy 2025-ös blogbejegyzésében is megfogalmazott: a marketingeseknek arra kell törekedniük, hogy tartalmaik könnyen értelmezhetők legyenek és olyan formába öntve, amit az AI rendszerek használni tudnak.

A schema egy kód, amely segíti a keresőmotorokat és az AI rendszereket abban, hogy felfogják a tartalom jelentését. Hasonlóképpen a Google is hangsúlyozza, hogy a strukturált adatok gépileg értelmezhető módon osztják meg az információt.

Miért fontos ez mindkét nagy tech cég számára? Egyrészt a költséghatékonyság és a nagy pontosságú, megbízható AI rendszerek megalkotása miatt. Kutatások kimutatták, hogy a tudásgráfok segítenek csökkenteni az LLM-ek „téveszmés válaszainak” (hallucinációinak) számát és javítják a teljesítményt.

Például örvendetesen meggyőző tudományos vizsgálatok bizonyítják, hogy a tárolt tudásgráf-alapú rendszerek csökkentik a téves válaszokat nyílt végű kérdések esetén. Bár maga a schema markup ritkán kerül közvetlenül az LLM-ek képzésébe, a lekérdezéseknél használt „retrieval-augmented generation” (RAG) rendszerekben kulcsszerepet kap. Az egyik ilyen rendszer, a Microsoft GraphRAG, entitás- és relációkinyeréssel állít elő tudásgráfot szöveges adatokból, és ezt a grát alkalmazza a lekérdezések feldolgozásakor. Kísérleteik szerint ez a megközelítés különösen jól teljesít bonyolult, több lépést igénylő kérdések megválaszolásánál.

Ez magyarázza, hogy a Google és a Microsoft miért ösztönzi a nagyvállalatokat arra, hogy fektessenek be a strukturált adatokba: ezek adják az alapját annak, hogy az AI rendszerek pontos és kontextusban helytálló válaszokat adhassanak.

Fontos különbséget tennünk a pár oldal optimalizálása és egy tudásgráf teljes vállalati szintű kialakítása között. Egy nemrégiben adott interjúban a Google termékvállalati alelnöke, Robby Stein elmondta, hogy az AI lekérdezések mögött akár több tucatszoros al-lekérdezés is állhat, amit „query fan-out”-nak neveznek. Ez azt jelenti, hogy egy nagyon összetett rendszer működik a háttérben, amely komplex megközelítést igényel.

A siker nemcsak egy-egy oldal optimalizálását, hanem a teljes vállalati tartalom környezetét összefogó tudásgráf vagy adatréteg megteremtését követeli meg.

Ez a megközelítés valójában a szemantikus web (semantic web) vízióját valósítja meg. Ahogyan a szemantikus web megalapozói, Tim Berners-Lee, Ora Lassila és James Hendler 2001-ben leírták: ez a web lehetővé teszi, hogy a gépek megértsék a dokumentumok és adatok jelentését, és intelligens ügynökök végrehajtsanak komplex feladatokat a felhasználók számára.

Napjainkban ezt már a ChatGPT-hez hasonló AI rendszereken belüli tranzakciók és lekérdezések mutatják meg. A Microsoft az úgynevezett „ügynöki web” (agentic web) következő szakaszára készül. 2024 novemberében RV Guha, a Schema.org egyik alkotója és jelenleg a Microsoftnál dolgozó szakember bejelentette az NLWeb projektet, amelynek célja, hogy a weboldalakat természetes nyelvű AI alkalmazásokká alakítsa, lehetővé téve, hogy a felhasználók közvetlenül, egy AI asszisztenshez hasonló módon tegyenek fel kérdéseket a weboldalak tartalmára.

Guha elmondása szerint az NLWeb arra törekszik, hogy az AI és emberek számára egyaránt használható, természetes nyelvű felületet biztosítson, ami a strukturált adatokat (például a Schema.org formátumot) használja ehhez.

Az AI és az új technológiák világában tehát még nem állnak rendelkezésre teljes körű mérőszámok arra, hogy a schema markup pontosan milyen szerepet játszik az AI láthatóságban. Ugyanakkor a Google és a Microsoft egyértelmű, következetes jeleket ad arra, hogy AI alapú keresési élményeikben részben valóban a strukturált adatokat használják a tartalom megértésére.

A marketing jövője azoké lesz, akik gépek számára érthetők és megbízhatók – és ebben a strukturált adat kulcsszerepet játszik.

💡 AI Alapfogalmak Kezdőknek

Mi az a "Generatív AI"?

A generatív mesterséges intelligencia olyan forradalmi technológia, amely képes új tartalmat létrehozni szöveg, kép, hang vagy akár videó formájában. Míg a hagyományos AI rendszerek elsősorban felismeréssel, osztályozással vagy elemzéssel foglalkoznak, addig a generatív AI valóban "alkot" és "kreál".

Ez a technológia tanulási mintákon alapul: hatalmas adathalmazokból tanulja meg a mintázatokat, összefüggéseket és szabályszerűségeket, majd ezek alapján képes teljesen új, korábban nem létező tartalmat előállítani. Gondoljunk csak a ChatGPT-re, amely képes folyékony beszélgetésre, esszék írására vagy kódolásra, miközben egyetlen válasza sem egy előre beprogramozott sablon.

Az AI láthatóság szempontjából különösen fontos megérteni, hogy ezek a rendszerek hogyan generálnak válaszokat, mivel a modern AI keresőoptimalizálás stratégiák éppen arra épülnek, hogy tartalmainkat ezek a generatív rendszerek könnyen megtalálják, megértsék és idézzék.

A generatív AI alkalmazási területei szinte végtelenek: tartalom készítés, marketinganyagok létrehozása, ügyfélszolgálati chatbotok, programozási segédletek, kreatív művészetek - és természetesen az AI keresőoptimalizálás új világában egyre fontosabb szerepet játszik abban is, hogyan találnak meg minket a potenciális ügyfelek az AI-vezérelt keresési rendszerekben.

Mi az az LLM (Nagy Nyelvi Modell)?

A Large Language Model (LLM) - magyarul Nagy Nyelvi Modell - a mesterséges intelligencia egyik legforradalmibb vívmánya. Képzeljünk el egy rendkívül okos szoftvert, amelyet literálisan milliárd oldalas szövegen képeztek ki: könyveken, cikkeken, weboldalakon, tudományos publikációkon és még számtalan más forrásból.

Ez a hatalmas "tanulási folyamat" teszi lehetővé, hogy az LLM megértse a nyelv struktúráját, a szavak közötti kapcsolatokat, a kontextust és még a finom jelentésárnyalatokat is. Az eredmény? Egy AI, amely képes folyékony, emberre emlékeztető válaszokat adni szinte bármilyen témában.

Az olyan platformok, mint a ChatGPT (OpenAI), Claude (Anthropic), Google Gemini vagy a Microsoft Copilot mind-mind LLM technológiára épülnek. Ezek a rendszerek nem egyszerűen "visszakeresnek" válaszokat egy adatbázisból - valójában megértik a kérdést, kontextusba helyezik, és generálnak egy releváns, koherens választ.

Az AI keresőoptimalizálás szempontjából az LLM-ek megértése kritikus fontosságú. Amikor tartalmainkat optimalizáljuk, már nem csak a Google hagyományos algoritmusaira gondolunk, hanem arra is, hogy egy ChatGPT vagy Perplexity AI hogyan dolgozza fel és idézi a tartalmunkat. Az AI láthatóság növelése éppen azt jelenti, hogy weboldalunkat úgy strukturáljuk, hogy ezek a nagy nyelvi modellek könnyen feldolgozzák, megértsék és válaszaikban felhasználják.

Fontos megjegyezni, hogy az LLM-ek folyamatosan fejlődnek. Minden új generáció okosabb, pontosabb és képes összetettebb feladatok megoldására - ezért az AI keresőoptimalizálási stratégiáinkat is folyamatosan frissítenünk kell a legújabb trendeknek megfelelően.

Mi az a "Prompt"?

A prompt lényegében az az utasítás, kérdés vagy bemenet, amelyet egy mesterséges intelligencia rendszernek adunk. Egyszerű példa: amikor a ChatGPT-be beírjuk, hogy "Írj egy bloggbejegyzést az AI keresőoptimalizálásról" - ez a mondat a prompt.

De a prompt ennél sokkal több is lehet! Egy jól megírt prompt tartalmazhat kontextust, stílusirányt, példákat, kért formátumot és még számos más elemet, amelyek együttesen irányítják az AI válaszát. Minél precízebb és átgondoltabb a prompt, annál jobb és relevánsabb választ kapunk.

Ennek felismeréséből született meg a Prompt Engineering - magyarul "prompttervezés" - mint önálló szakterület. A prompt engineerek olyan szakemberek, akik pontosan tudják, hogyan kell megfogalmazni az utasításokat, hogy az AI a lehető legjobb, legpontosabb és leginkább használható eredményt adja.

Az AI láthatóság és AI keresőoptimalizálás kontextusában a prompt megértése azért kulcsfontosságú, mert amikor valaki egy AI rendszernek (például ChatGPT-nek vagy Perplexity-nek) kérdést tesz fel, az ő kérdése lesz a prompt. A mi feladatunk az, hogy weboldalunkat úgy alakítsuk ki, hogy amikor az AI "eldönti" melyik forrásból válaszoljon, a mi tartalmunkat válassza.

Példák jó promptokra:

  • "Magyarázd el 10 éves gyereknek, mi az AI keresőoptimalizálás"
  • "Írj 500 szavas SEO-barát szöveget az AI láthatóságról, szakmai hangnemben"
  • "Adj 5 konkrét tippet, hogyan javíthatom weboldalamon az AI láthatóságot"

Látható, hogy mindhárom példa precíz, egyértelmű és konkrét elvárásokat fogalmaz meg. Ez pontosan az, amit mi is megtehetünk a saját tartalmainknál: egyértelműen, strukturáltan és érthetően fogalmazzuk meg az információt, hogy az AI rendszerek könnyen feldolgozzák és felhasználják válaszaikban - ezzel növelve az AI láthatóságunkat.

🚀 Kezdje el most!

Szeretnéd ha Téged ajánlana az AI?
Vágjunk bele!

Foglalj időpontot díjmentesen, és kezdjük el növelni láthatóságod az AI válaszaiban.

Árak megtekintése
24 órás válaszidő
Személyre szabott stratégia
Nincs kötelezettség