AI
Stratégia
🤖 AI Keresőoptimalizálás & Láthatóság

Heti AI-körkép: a keresés átalakulása, önálló ügynökök és olcsóbb frontier modellek

  • Az AI-alapú keresés alapjaiban írja át a forgalomszerzés logikáját: a LinkedIn 60%-os B2B-forgalom-csökkenést tapasztalt, a ChatGPT pedig milliárd kérést kezel naponta, mégis töredékannyi látogatót küld tovább, mint a Google.
  • Az önálló AI-ügynökök egyre közelebb kerülnek a mindennapokhoz: az OpenAI, az xAI és a Google is aktívan fejleszti azokat a rendszereket, amelyek a felhasználó nevében hajtanak végre feladatokat – a vásárlástól a kampánymenedzsmentig.
  • A frontier AI-modellek egyre olcsóbbak és erősebbek: az Anthropic Claude Sonnet 4.6 és a Google Gemini 3.1 Pro megjelenése, valamint az Alibaba nyílt forráskódú Qwen 3.5 modellje együttesen nyomás alá helyezik a zárt modellek árazását.


Az AI-keresés átalakulása az elmúlt héten is új fejezettel gazdagodott. A nagy platformok egymás után tesznek lépéseket, amelyek alapjaiban formálják át, hogyan találnak rá a felhasználók a márkákra, a tartalmakra és a termékekre. Az alábbiakban összefoglaljuk a legfontosabb fejleményeket.

A LinkedIn ejtette a hagyományos SEO-mérőszámokat

A LinkedIn bejelentette, hogy a márkanevekhez nem köthető, figyelemfelkeltő B2B-forgalma akár 60%-kal is visszaesett, miközben az AI-alapú keresési élmények csökkentik az átkattintási hajlandóságot – annak ellenére, hogy a rangsorolási pozíciók stabilan maradtak. A platform erre reagálva felhagyott a hagyományos SEO-mutatókkal, és a mérést az AI-válaszokban való megjelenésre, citációkra és hivatkozásokra helyezte át. Ez jól mutatja azt a szélesebb trendet, amellyel minden digitális marketingessel számolnia kell: a cél már nem a klikk megszerzése, hanem a jelenlét az AI által generált válaszokban.

A ChatGPT sok kérdést kezel – de kevés látogatót küld tovább

Egy 76 000 weboldalt elemző kutatás szerint a ChatGPT naponta milliárdnyi promptot dolgoz fel, mégis töredékannyi referral-forgalmat generál, mint a Google. Az ok strukturális: míg a Google általában a felhasználót egy külső oldalra irányítja, a ChatGPT a legtöbb kérdést a saját felületén belül oldja meg. A különbség nem a méretben van, hanem az üzleti modellben. Ez azt jelenti, hogy a márkák számára egyre fontosabbá válik, hogy az AI válaszain belül legyenek jelen – nem pedig csupán abban bízzanak, hogy a felhasználó majd átkattint.

A Google hirdetéseket vezet be az AI Mode-ba

A Google elindította a szponzorált elhelyezések új formátumát az AI Mode-ban, amelyet naponta már több mint 75 millió felhasználó vesz igénybe. A hirdetések közvetlenül az AI által generált válaszokon belül jelennek meg, termékkeresési pillanatokban. A hosszabb, társalgási jellegű keresések gazdagabb szándékjelzéseket nyújtanak, amelyek alapján a Google pontosabb hirdetéscélzást ígér. Ez a fejlemény alapvetően változtatja meg a fizetett keresés logikáját: a kampányoknak, a kreatívoknak és a mérési modelleknek egyaránt alkalmazkodniuk kell az AI-vezérelt felfedezési folyamathoz.

Az OpenAI autonóm kampánykezelőt képzel el

Az OpenAI monetizációs vezetője felvázolta azt a jövőképet, amelyben a vállalkozások egyszerűen bemondják a céljaikat a ChatGPT-nek, és az AI önállóan kezeli a kampányokat: liciteket tesztel, büdzsét oszt el, és finomhangolja a stratégiát. Az első hirdetési tesztek az ingyenes és belépő szintű felhasználókra koncentrálnak. Az ügynökségi szakma szkeptikus: kérdéses, hogy az AI képes-e visszaadni a stratégiai ítélőképességet és a kulturális kontextusra való érzékenységet. Ha azonban ez a rendszer terjed, az komoly nyomást helyez az ügynökségi modellekre és a performance marketing szakmára.

A Microsoft elmagyarázta, hogyan választ az AI-keresés márkákat

A Microsoft Advertising frissített útmutatót adott ki arról, hogyan működik a márkák megjelenítése az AI-alapú keresőkörnyezetekben. A folyamat három lépcsőből áll: a modell betanítási adatain alapuló alapszintű megértés, a lekérdezett webes tartalmakkal való finomítás, és a strukturált, első kézből származó adatok pontosítása. A kulcsüzenet: az AI-keresésben a láthatóságot már nem a kulcsszavak, hanem az entitás-tekintély, a strukturált adatok és a kontextuális relevancia határozza meg.

A Perplexity leállítja a hirdetéseket – a Google viszont láthatóbbá teszi a linkeket

A Perplexity AI-kereső fokozatosan kivezeti a hirdetéseket, és előfizetéses, illetve vállalati ügyfelekre koncentrál, attól tartva, hogy a reklámok alááshatják a felhasználói bizalmat. A Google ezzel ellentétes irányban mozdul: az AI Overviews és az AI Mode találatain belül lebegő előnézeteket és képeket vezet be az idézett forrásokhoz, hogy az AI-generált válaszokból könnyebb legyen a weboldalakra navigálni. Ha ez a változás érezhető forgalomnövekedést hoz a kiadóknak, az részben enyhítheti a SEO-szakma agodalmait.

Olcsóbb és erősebb frontier modellek

Az Anthropic bevezette a Claude Sonnet 4.6-ot alapértelmezett modellként, amely egyes irodai feladatokban még a prémium Opus 4.6-ot is felülmúlja – változatlan áron. A Google elindította a Gemini 3.1 Pro-t, amely az előző verzióhoz képest több mint kétszeres következtetési teljesítményt nyújt szintén változatlan áron. Az Alibaba pedig Apache 2.0 licenc alatt adta ki a Qwen 3.5 sorozatot, amely az állítások szerint a vezető zárt modellekkel versenyképes teljesítményt nyújt, és tizenkét egynél jóval olcsóbban futtatható. A verseny élesedése várhatóan nyomást helyez az árakra az egész szektorban.

Az önálló AI-ügynökök terjeszkednek

Az xAI kiadta a Grok 4.2 bétaverziót, amely négy specializált ügynöket futtat párhuzamosan, vitatkoztat és szintetizál – a fejlesztők szerint ez 65%-kal csökkenti a téves válaszok arányát. Az OpenAI felvette az OpenClaw alapítóját, hogy vezesse a személyes AI-ügynökök fejlesztését, amelyek a felhasználó nevében hajtanak végre feladatokat alkalmazások között. A Google és a délkelet-ázsiai Sea Ltd (Shopee, Garena) stratégiai partnerséget kötött agentic vásárlási prototípusok fejlesztésére. Az UC Berkeley kutatói pedig 67 oldalas kockázatkezelési keretet adtak ki az autonóm AI-ügynökök szabályozásához – jelezve, hogy a szektor már nem csak a lehetőségekkel, hanem a governance-kihívásokkal is szembenéz.

Az Apple kamerás viselhető eszközökkel lép az ambiens AI-piacra

Az Apple állítólag 2027-re tervezi okosszemüvegének piacra dobását, amelyhez kamerás fülhallgatók és egy AirTag méretű viselhető pendant is csatlakozna. A cél: a Siri vizuális kontextussal való gazdagítása, hogy az asszisztens valós idejű környezeti jelzések alapján is tudjon reagálni. Ez közvetlenül a Meta okosszemüveg-ökoszisztémájával helyezi szembe az Apple-t az ambiens AI-hardverek piacán.

💡 AI Alapfogalmak Kezdőknek

Mi az a "Generatív AI"?

A generatív mesterséges intelligencia olyan forradalmi technológia, amely képes új tartalmat létrehozni szöveg, kép, hang vagy akár videó formájában. Míg a hagyományos AI rendszerek elsősorban felismeréssel, osztályozással vagy elemzéssel foglalkoznak, addig a generatív AI valóban "alkot" és "kreál".

Ez a technológia tanulási mintákon alapul: hatalmas adathalmazokból tanulja meg a mintázatokat, összefüggéseket és szabályszerűségeket, majd ezek alapján képes teljesen új, korábban nem létező tartalmat előállítani. Gondoljunk csak a ChatGPT-re, amely képes folyékony beszélgetésre, esszék írására vagy kódolásra, miközben egyetlen válasza sem egy előre beprogramozott sablon.

Az AI láthatóság szempontjából különösen fontos megérteni, hogy ezek a rendszerek hogyan generálnak válaszokat, mivel a modern AI keresőoptimalizálás stratégiák éppen arra épülnek, hogy tartalmainkat ezek a generatív rendszerek könnyen megtalálják, megértsék és idézzék.

A generatív AI alkalmazási területei szinte végtelenek: tartalom készítés, marketinganyagok létrehozása, ügyfélszolgálati chatbotok, programozási segédletek, kreatív művészetek - és természetesen az AI keresőoptimalizálás új világában egyre fontosabb szerepet játszik abban is, hogyan találnak meg minket a potenciális ügyfelek az AI-vezérelt keresési rendszerekben.

Mi az az LLM (Nagy Nyelvi Modell)?

A Large Language Model (LLM) - magyarul Nagy Nyelvi Modell - a mesterséges intelligencia egyik legforradalmibb vívmánya. Képzeljünk el egy rendkívül okos szoftvert, amelyet literálisan milliárd oldalas szövegen képeztek ki: könyveken, cikkeken, weboldalakon, tudományos publikációkon és még számtalan más forrásból.

Ez a hatalmas "tanulási folyamat" teszi lehetővé, hogy az LLM megértse a nyelv struktúráját, a szavak közötti kapcsolatokat, a kontextust és még a finom jelentésárnyalatokat is. Az eredmény? Egy AI, amely képes folyékony, emberre emlékeztető válaszokat adni szinte bármilyen témában.

Az olyan platformok, mint a ChatGPT (OpenAI), Claude (Anthropic), Google Gemini vagy a Microsoft Copilot mind-mind LLM technológiára épülnek. Ezek a rendszerek nem egyszerűen "visszakeresnek" válaszokat egy adatbázisból - valójában megértik a kérdést, kontextusba helyezik, és generálnak egy releváns, koherens választ.

Az AI keresőoptimalizálás szempontjából az LLM-ek megértése kritikus fontosságú. Amikor tartalmainkat optimalizáljuk, már nem csak a Google hagyományos algoritmusaira gondolunk, hanem arra is, hogy egy ChatGPT vagy Perplexity AI hogyan dolgozza fel és idézi a tartalmunkat. Az AI láthatóság növelése éppen azt jelenti, hogy weboldalunkat úgy strukturáljuk, hogy ezek a nagy nyelvi modellek könnyen feldolgozzák, megértsék és válaszaikban felhasználják.

Fontos megjegyezni, hogy az LLM-ek folyamatosan fejlődnek. Minden új generáció okosabb, pontosabb és képes összetettebb feladatok megoldására - ezért az AI keresőoptimalizálási stratégiáinkat is folyamatosan frissítenünk kell a legújabb trendeknek megfelelően.

Mi az a "Prompt"?

A prompt lényegében az az utasítás, kérdés vagy bemenet, amelyet egy mesterséges intelligencia rendszernek adunk. Egyszerű példa: amikor a ChatGPT-be beírjuk, hogy "Írj egy bloggbejegyzést az AI keresőoptimalizálásról" - ez a mondat a prompt.

De a prompt ennél sokkal több is lehet! Egy jól megírt prompt tartalmazhat kontextust, stílusirányt, példákat, kért formátumot és még számos más elemet, amelyek együttesen irányítják az AI válaszát. Minél precízebb és átgondoltabb a prompt, annál jobb és relevánsabb választ kapunk.

Ennek felismeréséből született meg a Prompt Engineering - magyarul "prompttervezés" - mint önálló szakterület. A prompt engineerek olyan szakemberek, akik pontosan tudják, hogyan kell megfogalmazni az utasításokat, hogy az AI a lehető legjobb, legpontosabb és leginkább használható eredményt adja.

Az AI láthatóság és AI keresőoptimalizálás kontextusában a prompt megértése azért kulcsfontosságú, mert amikor valaki egy AI rendszernek (például ChatGPT-nek vagy Perplexity-nek) kérdést tesz fel, az ő kérdése lesz a prompt. A mi feladatunk az, hogy weboldalunkat úgy alakítsuk ki, hogy amikor az AI "eldönti" melyik forrásból válaszoljon, a mi tartalmunkat válassza.

Példák jó promptokra:

  • "Magyarázd el 10 éves gyereknek, mi az AI keresőoptimalizálás"
  • "Írj 500 szavas SEO-barát szöveget az AI láthatóságról, szakmai hangnemben"
  • "Adj 5 konkrét tippet, hogyan javíthatom weboldalamon az AI láthatóságot"

Látható, hogy mindhárom példa precíz, egyértelmű és konkrét elvárásokat fogalmaz meg. Ez pontosan az, amit mi is megtehetünk a saját tartalmainknál: egyértelműen, strukturáltan és érthetően fogalmazzuk meg az információt, hogy az AI rendszerek könnyen feldolgozzák és felhasználják válaszaikban - ezzel növelve az AI láthatóságunkat.

🚀 Kezdje el most!

Szeretnéd ha Téged ajánlana az AI?
Vágjunk bele!

Foglalj időpontot díjmentesen, és kezdjük el növelni láthatóságod az AI válaszaiban.

Árak megtekintése
24 órás válaszidő
Személyre szabott stratégia
Nincs kötelezettség