Technical SEO

Logfájl elemzés vállalati SEO-döntésekhez

A logfájl-elemzés megmutatja, mit csinálnak a keresőmotorok a weboldaladon, nem azt, amit az SEO-eszközök feltételeznek. Ez a leggyorsabb módja a feltérési keret (crawl budget) pazarlásának azonosítására, annak kiderítésére, miért hagyják figyelmen kívül a fontos oldalakat, és annak ellenőrzésére, hogy a technikai javítások hatására változott-e a Googlebot viselkedése. Szerverlogokat, Python-alapú folyamatokat és vállalati SEO-munkafolyamatokat használok a valós feltérési aktivitás elemzéséhez olyan webhelyeken, ahol 100K URL-től egészen 10M+ URL-ig terjed a skála. A szolgáltatás azoknak a csapatoknak készült, akiknek bizonyítékra van szükségük, mielőtt az architektúrán, sablonokon, belső linkelésen vagy indexelési szabályokon változtatnának.

50M+
log lines processed in large audits
3x
crawl efficiency improvement achieved
500K+
URLs per day indexed on optimized programs
80%
manual analysis time reduced with automation

Gyors SEO-felmérés

Válaszolj 4 kérdésre — kapsz személyre szabott ajánlást

Mekkora a weboldalad?
Mi a legnagyobb SEO kihívásod most?
Van dedikált SEO csapatod?
Mennyire sürgős a SEO fejlesztésed?

Tudj meg többet

Miért fontos a logfájl-elemzés 2025–2026 között a technikai SEO szempontjából

A legtöbb weboldal még mindig a feltételezésekre támaszkodik a crawler-ekből, a oldallistákból és a mintavételezett dashboardokból. Ez hasznos, de nem ugyanaz, mint azt látni, hogy a Googlebot, a Bingbot és más vezető crawler-ek valójában hogyan kérik le a URL-eket a szerverről. A logfájl-elemzés áthidalja ezt a különbséget. Megmutatja, hogy a robotok a kérések 40%-át szűrt oldalakon, elavult paramétereken, soft 404 sablonokon, képfájl URL-eken vagy alacsony értékű lapozáson költik-e el, miközben a pénzoldalak napokig vagy hetekig várnak az újrilegalkalmazásra. Nagy weboldalakon ez a különbség befolyásolja a feltérdezést, a frissítési gyakoriságot, és azt, hogy a javítások milyen gyorsan fordulnak át indexelési változásokba. Gyakran kombinálom ezt a munkát egy technikai SEO audit és a webhelyarchitektúra áttekintésével is, mert a crawl viselkedés közvetlen kimenete az architektúrának, a belső linkelésnek, a canonicals-eknek, az átirányításoknak és a válaszkezelésnek. 2025–2026-ban, amikor a webhelyek nagyskálán publikálnak, és nő az AI-tartalom mennyisége, fokozódik a verseny. Azok a csapatok, amelyek értik a valós crawler-viselkedést, mérhető előnyre tesznek szert.

A naplók figyelmen kívül hagyásának költsége többnyire addig láthatatlan, amíg a rangsorok ellaposodnak, vagy az indexelési lefedettség elkezd elcsúszni. Egy webhelynek lehetnek erős sablonjai, mégis csökkenhet a teljesítménye, mert a keresőmotorok ismételten olyan átirányított URL-eket, fasettált kombinációkat, lejárt landing page-eket vagy olyan szakaszokat keresnek fel, amelyek már nem érdemelnek feltérképezési keretet. Vállalati eCommerce és piacterek esetében rendszeresen látom, hogy a botaktivitás 20%–60%-a elmegy olyan URL-ekre, amelyeknek soha nem lett volna előkelő feltérképezési célpontnak számítaniuk. Ez a pazarlás késlelteti az újrakrawlözést a kategóriaoldalakon, a magas árrésű termékeken, a lokalizált szakaszokon és az újonnan indított sablonokon. Emellett elrejti azokat a könnyen elszalasztható gyökérokokat is, amelyeket a rendszeres SEO-eszközök gyakran nem ismernek fel, mint például a botcsapdák, hibás hreflang útvonalak, inkonzisztens 304-es viselkedés vagy olyan belső hivatkozások, amelyek a feltérképezőket alacsony értékű ciklusokba terelik. Ha a versenytársak már befektetnek a versenytárs-elemzésbe és a vállalati eCommerce SEO-ba, akkor gyorsítják a felfedezést, miközben a te oldalad azt kéri a Googletől, hogy az erőforrásait rossz helyekre fordítsa. A logelemzés a bizonytalan feltérképezési keret (crawl budget) beszélgetéseket számszerűsíthető döntésekké alakítja, amelyek a kieső láthatósághoz és bevételhez köthetők.

A hozam jelentős, mert a feltérképezés (crawl) optimalizálása felhalmozódó hatású. Ha csökkented a pazarlást, javítod a válaszok konzisztenciáját, és a tekintélyt a stratégiai URL-ek felé irányítod, akkor a fontos oldalak gyorsabban bejáratódnak, a frissített oldalak gyakrabban kerülnek visszalátogatásra, és az indexelés kiszámíthatóbbá válik. 41 e-kereskedelmi domainen, 40+ nyelven dolgozva azt láttam, hogy a logokból származó, adatalapú döntések hozzájárulnak a +430% láthatósági növekedéshez, nagy programoknál napi 500K+ URL indexeléséhez, valamint az architektúra és a belső linkelés változtatásai után jelentős javulást hoznak a feltérképezési hatékonyságban. Nem egy általános, szép diagramokkal teli dashboard a célom. Ez egy működő diagnózis: mely botok milyen URL-eket érnek el, milyen gyakran, milyen státuszkódokkal, milyen user agent-ekkel, mely könyvtárak (directories) mentén, milyen mintázatokkal, nyelvekkel és template-ekkel, és mi az, amin először változtatni kell. Ez a módszertan természetesen kapcsolódik a oldalsebesség-optimalizáláshoz, a séma & strukturált adatokhoz, valamint az SEO riportoláshoz & analitikához, mert a crawl-viselkedés a technikai SEO kivitelezésének középpontjában van. Ha olyan oldalt kezelsz, ahol a méret zajt termel, a logfájl-elemzés adja a leg­tisztább képet a valóságról.

Hogyan közelítjük meg a logfájl-elemzést – módszertan, eszközök és validálás

Az én megközelítésem egy egyszerű szabállyal indul: a feltérképezési (crawl) problémákat bizonyítékokkal kell igazolni, nem vélemények alapján feltételezni. Sok SEO-szolgáltató átvizsgál egy webhelyet, észrevesz egy mintát, majd azonnal ajánlásokba ugrik. Én inkább azt szeretném ellenőrizni, hogy a keresőmotorok valóban időt töltenek-e azon a mintán, és hogy a probléma valóban számít-e szerveroldali szinten. Ez azért fontos, mert egy elméleti probléma 50 URL esetén nagyon más, mint egy valós crawler sink, amely havi 12 millió kérést érint. Egyedi feldolgozást (parsing) és automatizálást használok statikus sablonok helyett, mert a nagy webhelyek ritkán illeszkednek a standard irányítópultokhoz. Ennek a munkának nagy része a Python SEO automatizálás segítségével készül, amely lehetővé teszi, hogy naplókat dolgozzak fel, URL-mintákat kategorizáljak, rekordokat gazdagítsak, és megismételhető kimeneteket adjak a stakeholdereknek. Az eredmény nem csupán egy riport, hanem egy döntéstámogató rendszer, amely tovább működik, ahogy a webhely fejlődik.

A technológiai stacket az adatmennyiség, a tárhely/környezet és az a kérdés határozza meg, amire választ kell adnunk. Kisebb projektek esetén az elemzett log-exportok Screaming Frog-fal kiegészítve, szerverminták és a Google Search Console (GSC) önmagukban is elegendőek lehetnek. Vállalati környezetben általában BigQuery-t, Python-t, Pandas-t, DuckDB-t, szerveroldali exportokat, CDN-logokat, valamint a GSC-ből történő API-lekérdezéseket használok, hogy a crawl-kéréseket össze tudjuk kapcsolni az indexelési lefedettséggel, sitemap-tagsággal, canonical logikával és a teljesítményadatokkal. Emellett egyedi crawler-eket és szegmentált könyvtárakat vagy template-eket is alkalmazok, hogy össze tudjuk hasonlítani a botok viselkedését a tervezett információs architektúrával. Ha szükséges, anomáliadetektálást is készítek a kérések ugrásszerű megjelenése, a státuszkódok változásai vagy a váratlan botkoncentráció miatt a vékony szegmensekben. Így a SEO riportolás & analitika sokkal hasznosabb lesz, mert a dashboardok már nem csak tüneteket jeleznek, hanem a kiváltó okokat is. Emellett segít priorizálni a mérnöki munkát olyan számok alapján, amelyeket a product és fejlesztő csapatok megbízhatónak tartanak.

Ez a munkafolyamat során hasznos, de csak a megfelelő helyeken: Claude és GPT modelleket használok mintázatok címkézésének támogatására, log taxonómia javaslatok készítésére, az anomáliák összegzésére, valamint nagy mennyiségű problémához kapcsolódó dokumentáció előállítására. Nem engedem, hogy egy modell döntsön arról, hogy egy feltérképezési (crawl) mintázat számít-e, anélkül, hogy adat alapú ellenőrzés történne. Emberi felülvizsgálat továbbra is elengedhetetlen, amikor milliók nagyságrendű URL-ekkel, több bot típussal és olyan speciális esetekkel dolgozunk, mint az eltérő canonical szabályok vagy a régi (legacy) redirectek. Az AI legjobb felhasználása a kategorizálás, a klaszterezés és az áttekinthető kommunikáció felgyorsítása, így több idő marad a diagnózisra és a megvalósítási terv elkészítésére. Ezért ez a szolgáltatás gyakran kapcsolódik a AI & LLM SEO munkafolyamatokhoz, amikor az ügyfelek gyorsabban szeretnék operatívvá tenni a technikai SEO-t anélkül, hogy pontosságot kellene feláldozni. A minőségbiztosítás magában foglalja a nyers logok célzott ellenőrzését, a user-agent validálást, a mintázatok mintavételezését, valamint a crawl és index adatokkal való egyeztetést, mielőtt a javaslatokat véglegesítjük.

A skálázás mindent megváltoztat a naplóelemzésben. Egy 5 000 oldalas brosúraoldal webhely általában rövid diagnosztikát igényel, míg egy 10M+ URL-es webhelyhez robusztus mintavételezési és szegmentálási keretrendszer kell. Jelenleg olyan programokkal dolgozom, ahol az egyes domainek nagyjából 20M URL-t is képesek generálni, és 500K-tól 10M-ig terjedő indexelt oldalt tartalmaznak, gyakran több tucat nyelven. Ezen a skálán már egy apró hiba a facetingben (szűrési struktúrában), a canonicals beállításokban vagy a belső linkekben is milliókban mérhető, felesleges kéréseket okozhat. A módszertan ezért szekciószintű prioritizálást, nyelvsorokra bontást, sabloncsoportokat, üzleti érték szerinti kategóriákat, valamint időbeli újrafésülési (re-crawl) gyakoriság elemzést is magában foglal. Gyakran kombinálom a logelemzést a nemzetközi SEO-val és a webhelyarchitektúrával, mert a regionális sablonok és URL-struktúrák gyakran megmagyarázzák, hogy miért fésülnek agresszíven bizonyos klasztereket, míg mások miért kimaradnak. A cél az, hogy a feltérképezési erőforrások (crawl) az üzleti prioritásokhoz igazodjanak, ne csak a technikai rendezettség legyen a szempont.

Vállalati logfájl elemzés – így néz ki a valós crawl budget optimalizálás

A standard naplóelemzések nem méretezhetőek, mert a felső szintű kimutatásoknál megállnak. Ha csak annyit látunk, hogy a Googlebot a múlt hónapban 8 millió kérést tett, az önmagában nem hasznos. A vállalati oldalaknak azt kell tudniuk, hogy a 8 millió kérésből melyek voltak igazán fontosak, melyek lettek volna elkerülhetők, hogyan oszlottak meg a sablonok és nyelvek között, illetve hogy egy deployment után mi változott. A komplexitás gyorsan nő, amikor több aldomain is bekerül, regionális mappák, szűréses (faceted) navigáció, feedből generált oldalak, elavult termékarchívumok, valamint örökölt rendszerekből származó, inkonzisztens átirányítási logika is megjelenik. Egyetlen webhely akár több száz hasonlóan kinéző feltérképezési mintát is tartalmazhat egy riportban, miközben a gyakorlatban eltérően viselkednek. Osztályozás és priorizálás nélkül a csapatok a látható problémákat javítják, az igazán költségeseket pedig érintetlenül hagyják. Ezért tekintek a logfájl-elemzést az átfogó technikai rendszer részeként, a migration SEO, a website development + SEO és a vállalati programozott SEO mellett.

Egyedi megoldásokra gyakran van szükség, mert a kész (off-the-shelf) riportok ritkán válaszolják meg azokat a kérdéseket, amelyeket az enterprise döntéshozók feltesznek. Python szkripteket és strukturált adatkészleteket készítek, amelyek URL-eket üzleti logika alapján sorolnak kategóriákba, nem csupán az útvonal-mintázatok szerint. Például egy marketplace-nek szüksége lehet arra, hogy a feltérképezési (crawl) viselkedést szétbontsa kereshető helyszín-kombinációk, beszállítói oldalak, editorial hubok és lejárt készlet állapotok között. Egy eCommerce oldalon pedig érdemes megkülönböztetni az aktív termékeket, a készlethiányos termékeket, a parent–child variánsokat, a szűrőoldalakat, valamint a belső keresési találatokat 40+ nyelven. Amint ez a réteg megvan, valós pontossággal össze tudjuk vetni a “előtte” és “utána” állapotokat. Egy projektnél a kis értékű paraméterkombinációk feltérképezési kitettségének csökkentése és a belső linkelés szigorítása a stratégiai kategóriák felé segített abban, hogy egy negyedév alatt háromszorosra nőjön a feltérképezési hatékonyság a kiemelt szekciókban. Egy másiknál a log-alapú rendbetétel az átirányítások miatti pazarlás (redirect waste) csökkentésére és a sitemap célzása hozzájárult ahhoz, hogy egy nagyléptékű programban naponta 500K+ URL bekerüljön az indexbe. Ezek azok az operatív eredmények, amelyek ezt a szolgáltatást a eCommerce SEO és a semantic core development területekhez kapcsolják, nem pedig egy elszigetelt technikai feladatként kezelik.

A csapatintegráció akkor válik igazán hasznossá, amikor a jó logelemzés értéket termel. A fejlesztőknek konkrétumok kellenek, nem általános figyelmeztetések. A termékmenedzsereknek a hatás keretezésére van szükségük, nem a botelméletre. A tartalmi csapatoknak pedig azt kell tudniuk, hogy a szekcióik felfedezhetők-e, illetve hogy a frissítések a megfelelő ütemben történnek-e. Ezért úgy dokumentálom az eredményeket, hogy minden csapat tudjon lépni: mérnöki ticketek URL-minta példákkal és validálási lépésekkel, SEO-összefoglalók az elvárt crawl- és indexhatásokkal, valamint vezetői áttekintések, amelyek megmutatják, milyen változások várhatók a láthatóságban vagy az operatív hatékonyságban. Emellett időt fordítok a tudásátadásra is, mert egy ügyfélnek értenie kell, miért számít az ajánlás, nem csak azt, mit kell megvalósítani. Ez az egyik oka annak is, hogy az ügyfelek technikai projektek után is bevonnak engem a SEO training és a SEO mentoring & consulting szolgáltatásokba. A jó logelemzésnek az a célja, hogy a szervezet a jövőben önállóbban, magabiztosabban hozhasson crawl-döntéseket.

Ennek a munkának az eredményei kumulatívak, de valós idővonal szerint alakulnak. Az első 30 napban az érték többnyire a tisztánlátásból származik: azonosítjuk a fő pazarlást, validáljuk a feltételezéseket, és megtaláljuk a leggyorsabb, nagy hatású javításokat. 60–90 nap elteltével, miután a redirectek, a belső linkek, a sitemap prioritások, a robots szabályok vagy a paraméterkezelés beállításra kerültek, általában egy egészségesebb feltérképezési eloszlásra és rövidebb újrafeltérképezési késleltetésekre számíthatsz a fontos szekciók esetében. 6 hónap alatt az előnyök gyakran abban jelennek meg, hogy javul az indexelés konzisztenciája, erősebb lesz a bevételi oldalak frissítési viselkedése, és kevesebb technikai meglepetés érkezik a release-ek után. 12 hónap után a legnagyobb haszon az operatív fegyelmen van: a csapatok leállnak a „feltérképezési adó” felhalmozásával, mert gyorsan képesek mérni azt. Gondosan állítom be az elvárásokat, mert nem minden log-probléma hoz azonnali rangsorolási nyereséget, de szinte minden komoly vállalati weboldal profitál abból, hogy visszaszerzi a pazarolt feltérképezési erőforrásokat. A megfelelő mutatók ugyan üzleti modelltől függenek, de a leggyakoribb alap készlet: request hatékonyság, újrafeltérképezési ciklus, indexelési jogosultság, valamint szekciószintű organikus teljesítmény.


Szállítmányok

Mit tartalmaz

01 Nyers szervernapló-gyűjtés és normalizálás Apache, Nginx, IIS, Cloudflare, CDN és load balancer exportok között, így az elemzés a teljes feltérképezési rekordból indul, nem pedig egy mintából.
02 A Googlebot és más crawlerek ellenőrzése a hiteles keresőmotor-kérések elkülönítéséhez a hamisított robotoktól, zajos eszközöktől és a belső monitorozási forgalomtól.
03 A feltérképezési gyakoriság elemzése könyvtár, sablon, nyelv, válaszkód és üzleti prioritás szerint, hogy látszódjon, hová fordítanak figyelmet a keresőmotorok, és hová kellene.
04 Crawl budget pazarlás detektálása paraméterek, szűrők, rendezés, lapozás, redirectek, vékony oldalak, lejárt URL-ek és duplikált tartalom klaszterek esetén.
05 Indexelési összhang felülvizsgálat, amely összeveti a feltérképezett URL-eket a kanonikus célokkal, az XML sitemap-ekkel, a belső linkekkel és a Google Search Console mintázataival.
06 Válaszkód-eloszlás feltérképezése a lassú 200-asok, redirect láncok, soft 404 viselkedés, 5xx csúcsok, elavult 301-es célok és a cache-hez kapcsolódó anomáliák feltárására.
07 Árva oldalak felfedezése naplók, crawl exportok, sitemap-ek, adatbázisok és analitika közötti összekapcsolásokkal, hogy a rejtett, de értékes URL-ek felszínre kerüljenek és újra legyenek hivatkozva.
08 Robot szegmentáció eszköztípus, user agent család, host és crawl szándék szerint, hogy megértsük, hogyan viselkednek a mobil-első és a specializált crawlerek a komplex rendszerekben.
09 Egyedi Python elemzési pipeline-ok és dashboardok ismételhető monitorozáshoz, nem egyszeri Excel-táblák helyett — különösen olyan site-oknál, ahol több tízmillió kérés fut.
10 Akcióterv priorizálva az üzleti hatás, mérnöki erőfeszítés és várható crawl-növekmény alapján, hogy a fejlesztőcsapatok pontosan tudják, mit érdemes először javítani.

Folyamat

Hogyan működik

Fázis 01
1. fázis: Adatgyűjtés és környezetfeltérképezés
1. héten meghatározom a naplóforrásokat, az adatmegőrzési időablakokat, a bot-típusokat és azokat az üzleti szekciókat, amelyek valóban számítanak. Lehetőség szerint 30–90 napnyi naplót gyűjtünk, validáljuk a formátumokat, azonosítjuk a proxyszervereket vagy a CDN-rétegeket, valamint megerősítjük, hogy mely hostok, aldomainek és környezetek legyenek benne a vizsgálatban, illetve melyek maradjanak ki. Emellett feltérképezem a sitemap-eket, a kanonikus mintázatokat, a sabloncsoportokat és a kritikus bevételi szekciókat is, hogy az elemzés az üzleti valóságot tükrözze, ne pedig a nyers forgalmi zajt. Az eredmény egy letisztult beolvasási (ingestion) terv és egy feltárásra váró feltérképezési (crawl) hipotézisliszt lesz.
Fázis 02
2. fázis: Elemzés, gazdagítás és szegmentálás
Az 1–2. héten a nyers naplókat feldolgozom és gazdagítom URL-besorolásokkal, válaszcsoportokkal, nyelv- vagy piacazonosítókkal, oldaltípus-címkékkel és ahol elérhető indexelési jelzésekkel. Ellenőrzöm a főbb user agenteket, kiszűröm a nem releváns zajokat, majd a kéréseket szegmentálom könyvtár, lekérdezési paraméter, státuszkód és sablontípus alapján. Itt szokott megjelenni a rejtett pazarlás: ismétlődő találatok a redirect-eknél, paraméterciklusok, képfájl-útvonalak, elavult kategóriák vagy olyan lapozási útvonalak, amelyek már nem támogatják az SEO célokat. A kimenet egy diagnosztikai adatkészlet és az első körös megállapítások, amelyeket hatásuk szerint rangsorolok.
Fázis 03
3. fázis: Mintadiagnózis és javaslattervezés
A 2. és 3. hét között a naplózási viselkedést a gyökérokkal összekapcsolom az architektúrában, a belső linkelésben, a kanonikusokban, a sitemap-ekben, a robots direktívákban, a teljesítményben és a renderelésben. A javaslatokat nem absztrakt, általános best practice-ként listázom; mindegyik egy feltérképezhető feltérési mintához, az érintett szekcióhoz, az becsült kérelemvolumenhez, az üzleti kockázathoz és a várható nyereséghez kapcsolódik. Ott, ahol hasznos, tartalmazok fejlesztőknek szóló megvalósítási logikát, példákat a javított URL-kezelésre, valamint az erőfeszítés és megtérülés szerinti priorizálást. Az eredmény egy végrehajtható terv, nem pedig egy olyan diakészlet, ami az átadás után „elhal”.
Fázis 04
4. fázis: Monitoring, validálás és iteráció
A javítások élesítése után ellenőrzöm, hogy a bot viselkedése megváltozott-e a következő feltérképezési ciklusokban. A webhely méretétől függően ez 2–6 hetes validálási időszakot jelenthet, amely során nyomon követjük a kérések újraelosztását, az újrafeltérképezési késleltetést, a státuszkódok változásait és az indexelési válaszok alakulását. Azoknál a klienseknél, akiknek folyamatos támogatásra van szükségük, olyan rendszeres monitoringt építek, amelyben a kiugrások, a regressziók és a feltérképezési „crawl drift” korán észrevehető. Ez a fázis gyakran a [SEO curation & monthly management](/services/seo-monthly-management/) szolgáltatásba is átfolyik azoknál a csapatoknál, akik szeretnék, ha a technikai SEO döntéseket folyamatosan monitoroznák.

Összehasonlítás

Logfájl-elemzési szolgáltatások: standard audit vs. vállalati megközelítés

Dimenzió
Szabványos megközelítés
Saját megközelítés
Adatkör
Kis mintát vizsgál a naplókból vagy általános hosztolási exportokból, korlátozott normalizálással.
30–90 napnyi naplót dolgoz fel több szerverről, CD...NS-ekből, proxy-kból és aldomainekről, sablon, nyelv és üzleti érték szerinti osztályozással.
Botellenőrzés
Feltételezi, hogy minden, Googlebot-szerű kérést valósnak kell tekinteni.
Ellenőrzi a felhasználói ügynököket, kiszűri a hamisított botokat, és szétválasztja a keresőmotorok feltérképezőit a megfigyelő eszközöktől és más zajoktól.
URL-elemzés
A URL-ek csoportosítása csak széles mappák szerint, ami elfedi a paraméterezés, a faceting és a sablon-szintű problémákat.
Egyedi URL-taxonómiát épít fel, hogy a feltérképezési pazarlás a pontos mintákra, szabályokra és oldaltípusokra elkülöníthető legyen.
Ajánlások
Általános bevált gyakorlatokat javasol, például javítja a feltérképezési büdzsét vagy megtisztítja az átirányításokat.
Minden ajánlást a kérelemtömeghez, az érintett szekcióhoz, a kiváltó okhoz, a várható nyereséghez és a mérnöki csapatok számára szükséges megvalósítási részletekhez köt.
Mérés
A jelentés kézbesítését követően ér véget.
A bevezetés utáni változásokat követi a feltérképezési (crawl) allokációban, az újrafeltérképezés sebességében, az állapotok eloszlásában és az indexelési válaszban a következő feltérképezési ciklusok során.
Skálázhatóságra való felkészültség
Működik valamennyire kis oldalakon, de elromlik több piacos vagy 10M+ URL-es webes ingatlanok esetén.
Vállalati e-kereskedelemhez, piacterekhez és többnyelvű rendszerekhez készült, egyedi Python-alapú folyamatokkal és ismételhető monitorozással.

Ellenőrzőlista

A teljes logfájl-elemzés ellenőrzőlistája: mit lefedünk

  • Keresőmotor-botok ellenőrzése és szegmentálása – ha a hamis botok vagy a vegyes user-agent adatok szennyezik az elemzéseket, a csapatod a zajra optimalizálhat valós crawler viselkedés helyett. KRITIKUS
  • Crawl allokáció könyvtár, sablon és piac szerint – ha a nagy értékű szekciók alacsony arányban kapnak kéréseket, akkor a pénzoldalak (money pages) feltérképezése és frissítése el fog maradni a versenytársaktól. KRITIKUS
  • Állapotkódok megoszlása és rendellenességek – nagy mennyiségű átirányítás, soft 404-ek, 5xx válaszok vagy elavult 200-as oldalak feleslegesen pazarolják a feltérképezési erőforrásokat, és rontják a technikai minőségbe vetett bizalmat. KRITIKUS
  • Paraméter-, szűrő-, rendezés- és lapozás-expozíció – a nem kontrollált kombinációk gyakran a legnagyobb forrásai a feltérképezési pazarlásnak nagy katalógus- és piactéri webhelyeken.
  • Belső keresés és munkamenet-alapú URL-minták – ha a feltérképezők ezekbe a terekbe be tudnak jutni, akkor több ezer kérést költhetnek olyan oldalakra, amelyeknek soha nem szabad versenyezniük a feltérképezési keretért.
  • Kanónikus URL-ek igazítása a feltérképezett URL-ekkel – ha a botok ismételten nem kanónikus változatokat kérnek le, akkor a kanonizálás beállítása elméletben rendben lehet, de a gyakorlatban gyenge lehet.
  • XML sitemap felvétele a tényleges feltérképezési viselkedéshez képest – ha a stratégiai URL-ek szerepelnek a sitemapben, de ritkán kerülnek feltérképezésre, akkor a sitemap jelzései és az oldalak architektúrája nincsenek összhangban.
  • Újraindexelési (recrawl) késleltetés a frissített oldalak esetén – ha a kiemelten fontos oldalak túl lassan kerülnek újra felderítésre, a tartalomfrissítések, készletváltozások és technikai javítások később hatnak a keresési eredményekre.
  • Árván maradt és alul hivatkozott oldalak észlelése – ha értékes URL-ek a naplókban anélkül jelennek meg, hogy erős belső felfedezési útvonalak lennének, az architektúrát újra kell strukturálni.
  • Kiadási hatáskövetés – ha a bot viselkedése a telepítések, migrációk vagy CDN-módosítások után megváltozik, a folyamatos naplóellenőrzés segíthet időben felismerni az SEO-regressziókat, mielőtt a rangsorok elmozdulnának.

Eredmények

Valós eredmények naplófájl-elemzési projektekből

Vállalati e-kereskedelem
3×-os feltérképezési hatékonyság 4 hónap alatt
Egy nagy katalógusoldal jelentős botforgalmat tapasztalt a paramétervezérelt kombinációk esetén, miközben a régi URL-ek átirányításra kerültek, a fő kategóriaoldalak pedig túl lassan kerültek újrafeltérképezésre. A logelemzést webhelyarchitektúra és technikai SEO audit munkával kombinálva azonosítottam a pazarlást, átterveztem a belső hivatkozások prioritásait, valamint szigorítottam a sitemap és robots szabályokat. A bevezetés után a Googlebot kérései a stratégiai kategóriák és az aktív termékcsoportok felé tolódtak el, miközben a csekély értékű URL-kérések jelentősen visszaestek. A vállalkozás gyorsabb frissülést ért el a kiemelt oldalaknál, és tisztább, jövőbeli kategóriaindításokhoz is jobban használható utat kapott.
Nemzetközi piactér
napi 500K+ URL indexálva a feltérképezési (crawl) tisztítás után
Ebben a projektben egy rendkívül nagy, többnyelvű platformot kellett kezelni, ahol a célzott feltérképezési fókusz piaci mappánként következetlen volt. A logok alapján a robotok aránytalanul sok időt töltöttek elavult készletállapotok bejárásával, duplikált navigációs útvonalakkal és gyenge (kevésbé értékes) regionális kombinációkkal, miközben több nyelven is értékes landing oldalak alacsonyabb feltérképezési gyakorisággal kerültek be. Megalkottam egy szegmentált elemzési keretrendszert, és azt nemzetközi SEO valamint programozott SEO vállalati szintre ajánlásokkal kombináltam. Ennek eredményeként célzottabb lett a crawl mintázata, gyorsabban kerültek felfedezésre a kiemelt oldalak, és a kiemelt bevezetési időszakokban a indexelési teljesítmény napi 500K URL fölé emelkedett.
Nagyméretű kiskereskedelmi platformváltás
+62% crawl arány a kiemelt (priority) sablonok felé 10 hét alatt
Egy platformmigráció után a webhely stabil indexelési számokat jelzett, de a szerves növekedés lelassult. A naplóelemzés feltárta, hogy a Googlebot ismételten régi, átirányított útvonalakat talált el, duplikált variánsútvonalakat, valamint az új build során létrehozott alacsony értékű szűrőzött (faceted) állapotokat. A migration SEO és a website development + SEO szolgáltatásokkal együttműködve feltérképeztem a problémás mintázatokat, rangsoroltam a javításokat, majd a kiadás után validáltam a változásokat. 10 héten belül a kiemelt sablonok lényegesen nagyobb arányban részesítették a crawl tevékenységet, ami javította az újra-bejárás (recrawl) ütemét, és segítette a migráció utáni helyreállás gyorsulását.

Kapcsolódó esettanulmányok

4× Growth
SaaS
Nemzetközi kiberbiztonsági SaaS
80-ról 400 látogatásra/nap 4 hónap alatt. Nemzetközi kiberbiztonsági SaaS platform több piacos SEO s...
0 → 2100/day
Marketplace
Használt autó piactér – Lengyelország
Nulláról 2100/nap organikus látogatóra 14 hónap alatt. Teljes körű SEO indulás a lengyel autó piacté...
10× Growth
eCommerce
Prémium bútor e-kereskedelem – Németország
30-ról 370 látogatásra/nap 14 hónap alatt. Prémium bútor e-kereskedelem a német piacon....
Andrii Stanetskyi
Andrii Stanetskyi
A projekt mögött álló szakértő
11 év alatt oldok meg SEO-problémákat minden területen — eCommerce, SaaS, egészségügy, marketplace-ek, szolgáltató cégek. A startupokhoz készített egyedi auditoktól a több domaines enterprise stackek menedzseléséig mindent csinálok. Megírom a Python-t, felépítem a dashboardokat, és én felelek az eredményért. Nincs közvetítő, nincs fiókmenedzser — közvetlen hozzáférés ahhoz, aki ténylegesen dolgozik.
200+
Szállított projektek
18
Iparágak
40+
Leckedelt nyelvek
11+
Év SEO-ban

Megfelelőségi felmérés

A naplófájl-elemzés valóban megfelel az Ön vállalkozásának?

Vállalati e-kereskedelmi csapatok, amelyek nagy katalógusokat, összetett szűrőket és gyakori készletváltozásokat kezelnek. Ha a webhelyeden több százezer vagy akár több millió URL található, a logok megmutatják, hogy a Googlebot valóban azokra a termék- és kategóriaoldalakra fordítja-e az idejét, amelyek számítanak, vagy elvész a feltérképezési „pazarlásban”. Ez különösen hasznos a vállalati e-kereskedelmi SEO vagy az e-kereskedelmi SEO szolgáltatással együtt.
Olyan piacterek és portálok, amelyek állandóan változó készlettel, helyoldalakkal, szolgáltatói oldalakkal és kereséshez hasonló URL-struktúrával rendelkeznek. Az ilyen vállalkozásoknál gyakran hatalmas feltérképezési (crawling) hatékonysági problémák rejtőznek a sablonizált oldalgenerálásban, ezért a naplóelemzés a kulcsfontosságú diagnosztikai lépés a szélesebb körű portál- és piactér SEO megkezdése előtt.
Többnyelvű weboldalak esetén egyes piacok gyorsan növekednek, míg mások alulreprezentáltak vagy lassan frissülnek. Ha 10, 20 vagy akár 40+ nyelvváltozaton működsz, a naplók megmutatják, hogy a feltérképezés (crawl) allokációja megfelel-e a piaci prioritásoknak, illetve hogy az hreflang vagy az útvonalválasztási döntések torzítják-e a crawl viselkedését. Ilyen esetekben ez természetesen illeszkedik a nemzetközi SEO-hoz.
SEO- és termékcsapatoknak, akik migrációra, architekturális változtatásokra vagy folyamatos technikai irányításra készülnek. Ha be kell bizonyítania, mi az, amit először érdemes megváltoztatni, és ellenőrizni, hogy a kiadások javították a crawler viselkedését, a loganalitika adja a bizonyítékok rétegét. Különösen hasznos, ha együtt alkalmazzák a SEO-gondozással & havi menedzsmenttel a folyamatos nyomon követéshez.
Nem megfelelő?
Nagyon kicsi brosúraoldalak, néhány ezer URL-nél kevesebbel, és nincs számottevő feltérképezési (crawl) bonyolultság. Ilyen esetben általában gyorsabban és több értéket ad egy célzott átfogó SEO audit vagy technikai SEO audit, mint egy dedikált napló (log) projekt.
Olyan vállalkozásoknak, amelyek kizárólag tartalomtervezést, kulcsszótérképeket vagy szerkesztőségi növekedési stratégiát keresnek, jelentős technikai feltérképezési (crawl) problémák nélkül. Ha a fő problémád inkább a témacélzás, nem pedig az indexelés vagy a feltérképezési pazarlás, kezdd a keyword research & strategy vagy a content strategy & optimization szolgáltatással.

GYIK

Gyakran ismételt kérdések

A logfájl-elemzés SEO-ban azt jelenti, hogy a webhely vagy a CDN nyers kiszolgálói naplóit (logjait) átnézzük annak érdekében, hogy pontosan lássuk, hogyan másznak be a keresőrobotok az oldalakra. Megmutatja, mely URL-eket kérik le a botok, milyen gyakran térnek vissza egy-egy szakaszra, milyen státuszkódokat kapnak, és azt is, hol „pazarolódik el” a feltérképezési keret (crawl budget). A feltérképező eszközökkel ellentétben a logok a valós robotviselkedést tükrözik, nem pedig szimulációt. Nagyobb webhelyeknél gyakran ez a legegyértelműbb módszer annak feltárására, miért nem jutnak elég gyorsan vagy alaposan a fontos oldalak a keresőindexbe.
A költség több tényezőtől függ: mekkora az adatmennyiség, milyen összetett a webhely infrastruktúrája, és hogy egyszeri diagnosztikáról vagy folyamatos monitorozási beállításról van-e szó. Egyetlen webhelyrész célzott elemzése teljesen más, mint egy többnyelvű vállalati környezet CDN-nel, illetve több hoszton futó szervernaplókkal. A fő árazási szempontok a naplósorok száma, az adattárolási (retenciós) időtartam, az infrastruktúra bonyolultsága, valamint az implementáció támogatásának mélysége. A pontos keretezést általában az architektúra, a forgalmi mintázatok és a rendelkezésre álló adatforrások átnézése után végzem, hogy a javaslat a valódi üzleti problémára illeszkedjen.
A kezdeti megállapítások általában a naplóadatok rendelkezésre állását követően, illetve ha a hozzáférés rendben van, 1–3 héten belül megjelennek. Az implementáció hatása attól is függ, hogy a mérnöki változtatások milyen gyorsan kerülnek éles környezetbe, és hogy a keresőmotorok milyen gyakran látogatják újra az érintett oldalakat. Nagyobb webhelyeken a feltérképezés átrendeződését sokszor 2–6 héten belül lehet mérni a javítások után, míg az erősebb indexelési és láthatósági hatások akár 1–3 hónapig is tarthatnak. A folyamat gyorsabb, ha az ok egy jelentős feltérképezési pazarlás, és hosszabb, ha a munka szélesebb architekturális fejlesztéseket támogat.
Nem minden esetben jobb; inkább más típusú kérdésre ad választ. A technikai SEO audit megmutatja, hogy a weboldalon mi tűnhet problémásnak (például hibás beállítások, indexelési jelzések vagy crawl-elhetőségi gondok). Ezzel szemben a naplófájl-elemzés azt tárja fel, hogy a keresőmotorok valójában hogyan viselkednek és mit csinálnak az oldalon. Sok vállalati weboldalnál a leghatékonyabb megoldás, ha a két módszert együtt használjuk: az audit azonosítja a lehetséges problémákat, a naplók pedig megmutatják, melyek a legfontosabbak a valós bot-működés szempontjából. Igy így prioritásokat is felállíthat, és a fejlesztéseket a tényleges hatás alapján végezheti el.
Legalább nyers szerver- vagy CDN-naplókra van szükségem, amelyek 30 napot lefednek, de nagyobb webhelyeknél vagy szezonális vállalkozásoknál a 60–90 nap sokkal hasznosabb. További segítséget jelentenek a Google Search Console-ból letöltött exportok, a sitemap fájlok, a crawl (feltérképezési) exportok, az URL-adatbázisok és az oldalszerkezetre vonatkozó jegyzetek. Ha több hoszton fut a webhely, van reverse proxy, Cloudflare vagy load balancer, ezeket érdemes már a kezdetektől feltérképezni. A pontos keretezés megelőzi, hogy kimaradjanak azok a kérések, amelyek ténylegesen megmagyarázzák az SEO-problémát.
Igen, az érték általában a URL-ek mennyiségével és az oldalszerkezet összetettségével együtt növekszik. Az e-kereskedelemmel, apróhirdetésekkel, ingatlanokkal, utazással és piacterekkel foglalkozó vállalkozások gyakran nagyon sok, alacsonyabb értékű kombinációt hoznak létre (például szűrők és variációk), amelyek feleslegesen lekötik a feltérképező (crawler) erőforrásait. Egy kis weboldalon, például 200 oldallal, sokszor elegendő egy hagyományos audit és egy standard feltérképezés. Egy 2 millió terméket tartalmazó oldalon, szűrőkkel és régiós aloldalakkal viszont a naplófájl-elemzés gyakran elengedhetetlen, mert a crawl viselkedése közvetlenül befolyásolja az indexelést és a bevételi potenciált.
Igen. Ez az egyik fő szakterületem. Jelenleg nagy e-kereskedelmi környezetekkel dolgozom, ahol 41 domain érintett, több mint 40 nyelven, és domainekhez hozzávetőleg 20M generált URL tartozik, illetve domenenként 500K–10M indexelt oldal található. A feldolgozás során szegmentálást, automatizálást és skálázható megoldásokat használok, hogy az elemzés akkor is gyakorlati és hasznos maradjon, ha az adatmennyiség óriási.
Ha a webhelyed gyakran változik, akkor a folyamatos napló- vagy forgalomfigyelés erősen ajánlott. A kiadások (releases), sablonfrissítések, CDN-módosítások, migrációk és az új szűrési (faceting) logika mind átalakíthatják a keresőrobotok viselkedését úgy, hogy az rangsorolásban eleinte nem feltétlenül látszik azonnal figyelmeztető jelek. A folyamatos vagy havi ellenőrzések segítenek időben észlelni a feltérképezési pazarlást, a státusz-eltéréseket és a kérések mintázatának változását, mielőtt az láthatósági veszteséghez vezetne. Stabil, kisebb oldalak esetén egy egyszeri elemzés is elég lehet, de vállalati környezetben a rendszeres validálás nagyobb biztonságot ad.

Következő lépések

Kezdje el még ma a logfájl-analízis projektjét

Ha meg szeretnéd tudni, hogyan lépnek ténylegesen kapcsolatba a keresőmotorok a weboldaladdal, a logfájl-elemzés a legközvetlenebb út. Ez felváltja a feltételezéseket bizonyítékokkal, megmutatja, hol veszíted el a crawl budgetet, és mérnöki csapatok számára egyértelmű prioritási listát ad az impact alapján. A munkám 11+ év vállalati szintű SEO-tapasztalatot ötvöz, erős technikai architektúra-munkát végez 10M+ URL-es környezetekben, valamint Pythonnal és AI-támogatott workflow-kkal épített gyakorlati automatizálást. Tallinnban, Észtországban vagyok, de a legtöbb projekt nemzetközi, és több piacot érintő SEO-operációkat foglal magában. Akár egyetlen nagy eCommerce domaint, akár többnyelvű webhelyek portfólióját menedzseled, a cél ugyanaz: a crawler viselkedését a növekedést támogató működéssé tenni, ne pedig ellene dolgozni.

Az első lépés egy rövid felmérő konzultáció, ahol áttekintjük a webhely architektúráját, a logok elérhetőségét, a fő tüneteket, valamint azt, hogy belsőleg mit kell bizonyítanod. Nem kell tökéletes adat-előkészítéssel kezdened a kapcsolatfelvétel előtt; ha a stackeden bárhol léteznek logok, általában ki tudjuk térképezni egy működő kiindulási pontot. A konzultáció után ismertetem az adatigényeket, a várható elemzési mélységet, az ütemtervet, és az első szállítandó anyagot. A legtöbb esetben a kezdeti diagnosztikai keretrendszer már akkor elindítható, amint a hozzáférés rendelkezésre áll, és az első megállapításokat az első 7–10 munkanapon belül megosztjuk. Ha már most gyanítod a crawl waste-et, a redirect loopokat vagy az alulfeltérképezett pénzoldalakat, ez a megfelelő pillanat azok validálására.

Kérd az ingyenes auditot

Gyors felmérés a weboldalad SEO állapotáról, technikai gondokról és növekedési lehetőségekről — kötelezettség nélkül.

30 perces stratégiai egyeztetés Technikai audit riport Növekedési roadmap
Ingyenes audit igénylése
Kapcsolódó

Lehet, hogy erre is szükséged lesz