Industry Verticals

Portál és piactér SEO milliós oldalszámhoz

A portál- és piactér SEO nem az e-kereskedelmi SEO „könnyített” változata. Ez egy másik szakterület: hatalmas URL-készletekre, felhasználói hirdetésekre, szűrős/facettált keresésre, duplikált kínálatra és rendkívül változékony oldalakra épül, amelyek naponta jelennek meg és tűnnek el. Segítek állásportáloknak, ingatlanportáloknak, apróhirdetés-oldalaknak, címtáraknak és összehasonlító platformoknak olyan indexálási rendszereket felépíteni, amelyek skálázhatók a vállalati módszereimmel—ugyanazokkal, amelyeket 41 domainen alkalmazok 40+ nyelven. Ennek eredménye a tisztább feltérképezés, erősebb hirdetés- és kategóriasablonok, jobb index lefedettség, valamint egy keresési növekedési modell, ami akkor is működik, amikor a webhelyed 100 000 oldalról 10 millióra (és tovább) vált.

20M+
Generated URLs Managed Per Domain
500K+/day
URLs Indexed in Peak Rollouts
Crawl Efficiency Improvement
80%
Manual SEO Work Reduced With Automation

Gyors SEO-felmérés

Válaszolj 4 kérdésre — kapsz személyre szabott ajánlást

Mekkora a weboldalad?
Mi a legnagyobb SEO kihívásod most?
Van dedikált SEO csapatod?
Mennyire sürgős a SEO fejlesztésed?

Tudj meg többet

Miért fontos a portál- és piactér-SEO 2025–2026-ban?

A portálok és piacterek ma nagyobb verseny- és keresési nyomás alatt állnak, mint akár 18 hónappal ezelőtt. A Google sokkal kevésbé toleráns a vékony (thin) tartalmú készletoldalakkal szemben, az alacsony értékű szűrős/facettás kombinációkkal, illetve az olyan sablonmásolatokkal, amelyek nem adnak új információt a felhasználóknak. Ezzel párhuzamosan a nagy platformok továbbra is egyre több URL-t hoznak létre szűrők, rendezési állapotok, helykombinációk, belső keresőoldalak és lejárt hirdetések révén. Ennek eredményeként sok vállalkozás több millió oldalt publikál, miközben csak kis százalékuknál megvannak azok a rangsoroláshoz (és akár az indexben maradáshoz) szükséges jelek. Egy komoly portál SEO-stratégia azzal kezdődik, hogy eldöntjük: mely oldaltípusokat érdemes feltérképezni (crawl), melyeket érdemes indexelni (indexation), és melyeknek csupán használhatósági okból szabad létezniük. Ezért a legtöbb projekt a technikai SEO audit elvégzésével és a weboldal architektúrájának alapos átvizsgálásával indul, nem pedig title tag finomhangolásokkal. Ha ez az alap rossz, akkor minden későbbi SEO-tevékenység kevésbé lesz hatékony.

A portál- és piactér-SEO figyelmen kívül hagyásának költsége általában csak akkor derül ki, amikor a károk már láthatóak a Search Console-ban és a bevételi riportokban. Olyan emelkedő „felfedezett, de nem indexelt” (discovered but not indexed) számokat látsz, kategóriaoldalakat, amelyek elveszítik a lekérdezéses lefedettséget, valamint keresőrobotokat, amelyek idejüket a szemét URL-ek helyett nem használható, friss kereskedelmi készletre fordíthatnák. Apróhirdetési és állásbörzék esetén ez gyakran azt jelenti, hogy a Google újra-visszalátogatja az lejárt hirdetéseket, miközben az aktívakat alacsonyabb intenzitással fésüli, pedig azok ugyanazon a napon is forgalmat hozhatnának. Ingatlanhirdetési és címtároldalakon pedig ez azt jelenti, hogy a hely- és szűrőoldalak egymást kannibalizálják, szétosztják az „authority”-t, és összezavarják a találati szándék (intent) párosítását. Azok a versenytársak, akik jobban kezelik a crawl-szabályokat, a tartalmi küszöbértékeket és a belső linkelést, kevesebb oldallal és alacsonyabb működési költséggel fognak megelőzni. A helyes mérőszám nem az, hogy hány oldalt publikálsz, hanem hogy az egyes oldaltípusok mekkora keresleti igényt fednek le, összevetve azzal, amit a versenytársak csinálnak — ezért szoktam a portálos munkát összekapcsolni a versenytárs-elemzéssel és a lekérdezések feltérképezésével (query mapping) a kulcsszó-kutatásból. A tétlenség nem tartja stabilan a helyzetet nagy webhelyeken; a pazarlás fokozódik.

A fellendülés azonban szokatlanul nagy, ha a struktúra rögzített. Vállalati oldalak esetén az indexelési logika módosítása, a listázási sablon minősége vagy a belső linkelés egyszerre javíthat az eredményeken több százezer vagy akár több millió URL-en. Olyan ökoszisztémákon dolgoztam, ahol a generált inventory nagyjából 20 millió URL-t ért domainenként, és a piac, illetve a nyelvi beállítások függvényében 500 000 és 10 millió közötti indexelt oldal volt. Ezekben a környezetekben a nyereség fegyelmezett rendszerekből származik: a feltérképezés szegmentálása (crawl segmentation), az egyes oldaltípusok pontozása (page-type scoring), a sablonok fejlesztése és automatizált QA, nem pedig kézi, alkalmi ellenőrzések. Ez a megközelítés olyan eredményekhez járult hozzá, mint a +430% láthatóságnövekedés, a napi 500K+ URL indexelése kontrollált bevezetések (rollouts) során, valamint a feltérképezési hatékonyság 3×-os javulása. Portálok és piacterek (marketplace-ek) esetén ezek nem hiúsági mutatók: a SERP-ekben több friss inventory-t jelentenek, kevesebb tartalmi pazarlást (content waste), és stabilabb megszerzést (acquisition) a volatilis kínálat mellett. Ez az oldal bemutatja, hogyan építem fel ezeket a rendszereket, ahol a vállalati programmatic SEO illeszkedik, és hogy mikor van szükség a portálnövekedéshez is támogatásra a tartalomstratégia irányából.

Hogyan közelítjük meg a portál- és piactér-SEO-t nagyléptékben

A portálok és piacterek SEO-ja során abból az egyetlen feltevésből indulok ki: nem SEO-problémád van, hanem rendszerszintű probléma. A nagy portáloknál a rangsorolás többnyire az architekturális döntések, a tartalmi küszöbértékek, a feltérési viselkedés, a készlet frissessége és a sablonlogika következménye. Ezért nem elszigetelt, egy-egy ellenőrzőlista alapján kimásolt ajánlásokkal kezdem. Felépítem a modellt arról, hogyan generálja az oldal az URL-eket, hogyan fedezi fel azokat a Google, mely oldaltípusok teremtenek valódi értéket, és hol kerül a rendszerbe a pazarlás. A Python központi szerepet kap, mert a táblázatkezelés gyorsan szétesik, amikor több millió URL-t kell osztályozni, vagy időben vizsgálni az oldalak állapotát. Sok projekt természetesen kapcsolódik a Python SEO automatizáláshoz is, mert amikor egy szabály bizonyítást nyer, azt szkripttel kell lefuttatni, monitorozni, majd újra futtatni — és nem kézzel, minden hónapban. A különbséget, amit a kliensek éreznek, egyszerűen így lehet leírni: kevesebb vélemény, több megismételhető döntés, amelyet adatok támasztanak alá.

A tipikusan az Screaming Frog-ot, a szervernaplókat, a Google Search Console exportjait és az API-val történő lekérdezéseket, a sitemap-adatokat, a nyers URL-mintákat, a sablonleltárakat és egyedi crawlereket is kombinálom, hogy megértsem a különbséget a generált URL-ek, a feltérképezett URL-ek, az indexelt URL-ek és a rangsorolási URL-ek között. Magas változási rátájú piactereknél emellett összevetem a leltárfeedeket, a publikálási időpontokat és az URL-életciklusokat is, hogy lássam, milyen gyorsan jut el a friss tartalom a keresésbe, és mennyi ideig maradnak aktívak a már elavult oldalak. Ez gyakran olyan problémákat is felszínre hoz, amelyeket a hagyományos auditok kihagynak, például paraméterciklusokat, hibás canonical öröklődést, lassú sitemap-forgatást, lapozási zsákutcákat és az on-site keresésből létrehozott crawl trap-eket. A riportolás nem utólagos feladat; vállalati csapatoknál olyan oldaltípus-áttekintéseket, kivételjelentéseket és újrafeltérképezési monitorokat építek, amelyek az audit után is futnak, gyakran kapcsolódva ehhez: SEO reporting & analytics. Ha szükséges, bevonom a log file analysis szolgáltatást is, hogy pontosan megmutassam, mit csinálnak a botok, ne csak az aggregált metrikákból következtessünk. Ez a fajta láthatóság elengedhetetlen, amikor egyetlen sablonhiba egyik napról a másikra 400,000 oldalt érinthet.

Az AI hasznos a portál SEO-ban, de csak ott, ahol a sebesség fontosabb, mint a kreativitás. Claude- és GPT-alapú folyamatokat használok osztályozáshoz, mintafelismeréshez, tartalom-ellenőrzéshez, SERP-klaszterezéshez és szabályozott sablonváltozatok kidolgozásához – nem pedig vakon több ezer oldal legenerálásához, abban bízva, hogy a Google elfogadja őket. Az emberi ellenőrzés továbbra is kritikus a keresési szándékok feltérképezéséhez, a szerkesztési sztenderdekhez, a kockázatkezeléshez, valamint azokhoz az egyedi esetekhez, amikor egy modell nem képes megérteni az üzleti kontextust. Felhasználó által generált platformokon az AI képes pontozni a vékony (thin) találatokat, azonosítani a hiányzó attribútumokat, csoportosítani a duplikált entitásokat, és olyan bővítési lehetőségeket javasolni, amelyeket a szerkesztők vagy a termékcsapatok jóváhagyhatnak. Emellett csökkentheti az időt, ami a hatalmas problémakészletek gyors triázsához kell, ami különösen akkor számít, ha egy portálon 2 millió alacsony értékű oldal van, de csak 150 000 igényel azonnali beavatkozást. Ha a folyamat ismételhetővé válik, AI & LLM SEO workflow-k formájában formalizálom, hogy az output minősége konzisztens és auditálható legyen. Így alkalmazva az AI nem váltja ki a stratégiát; felgyorsítja és olcsóbbá teszi a vállalati szintű kivitelezést úgy, hogy közben nem veszítesz az irányításból.

A skálázás mindent megváltoztat ebben a piaci szegmensben. Egy 80 000 élő oldallal rendelkező portált gyakran lehet jelentősen javítani egy fókuszált sablon- és taxonómiaprojekttel, de egy olyan piactérnél, ahol 8 millió és 20 millió közé esik a generált URL-ek száma, irányításra (governance) van szükség a felfedezéshez, a megjelenítéshez (rendereléshez), az URL-létrehozáshoz, a deindexeléshez, a linkeléshez és a re-crawl prioritáshoz. A többnyelvűség még egy plusz réteget ad, mert a sablonok, az állomány (inventory) minősége, a keresleti minták és a geo-jelzések piacról piacra eltérnek. Jelenleg 41 eCommerce domainen dolgozom 40+ nyelven, és ez a tapasztalat közvetlenül átviszi a fókuszt a portál SEO-ra, ahol a taxonómia-konzisztencia és a lokalizált keresleti lefedettség gyakran döntő tényező. A gyakorlatban ez azt jelenti, hogy olyan keretrendszereket tervezek, amelyek képesek túlélni az új régiókat, új állománytípusokat és a termékvezérelt változásokat úgy, hogy negyedévente ne okozzon indexkáoszt. A projektek gyakran kapcsolódnak a nemzetközi SEO szolgáltatáshoz, amikor a portálok több országban működnek, és a séma & strukturált adatok témához, amikor a gépileg feldolgozható hirdetési/termékadatok befolyásolják a keresési megjelenést. Mindez hosszú távon nem működik tartós webhelyarchitektúra szabályok nélkül, mert a portálok folyamatosan bővülnek, és minden bővülés új módokat teremt arra, hogy elpazaroljuk a crawl budgetet.

Vállalati piactéri SEO stratégia: milyen a valódi, nagyléptékű megvalósítás

A szabványos SEO playbookok gyakran elbuknak portálokon, mert feltételezik, hogy a oldalak stabilak, szándékosan felépítettek, és szerkesztői irányítás alatt állnak. A piacterek ennek az ellenkezői: a készlet óránként változik, a felhasználók által generált adatok egyenetlenek, a termékcsapatok SEO-felülvizsgálat nélkül új kombinációkat hoznak létre, és ugyanaz a entitás több állapotban is létezhet országok/területek szerint, elérhetőségben és szűrők mentén. Egy kisebb oldalon az egyes problémákat oldalról oldalra lehet javítani. Egy nagy, hirdetési besorolású platformon viszont ez a modell összeomlik, mert ha a címgenerálás vagy a canonical logika 1 hibás szabálya 600 000 URL-re replikálódik, azt addig senki sem veszi észre, amíg már késő. Egy másik gyakori hiba az, ha minden indexelhető oldalt egyformának kezelünk, miközben a valóságban csak egy részhalmaz rendelkezik elegendő keresleti potenciállal, egyediséggel és konverziós értékkel ahhoz, hogy az indexelést indokolja. Ezért a page-type (oldaltípus) szabályozás sokkal fontosabb, mint a portálokon az oldalszintű optimalizálás. A munka közelebb áll a keresési termékmenedzsmenthez, mint a hagyományos kampány-SEO-hoz, és gyakran metszi egymást a weboldalfejlesztés + SEO feladatokkal is, amikor magának a platformlogikának kell változnia.

Hogy ezt kezelhetővé tegyem, egyedi rendszereket építek a weboldal köré, nem csupán harmadik féltől származó felületekre támaszkodva. Python szkriptek URL-mintákat osztályoznak, összevetik az élő állapotot a tervezett szabályokkal, felismerik a duplikált entitásklasztereket, nagyskálán auditálják a metaadatokat, és pontozzák az oldalakat olyan jelzések alapján, mint a tartalmi mélység, az inventory frissessége, a belső linkek, a keresletnek való megfelelés és az indexelési státusz. Például egy agresszív szűrési/facettálási funkciókat használó piactéren generálhatok egy keep-or-kill mátrixot, amely azonosítja, hogy mely filterkombinációk érdemesek indexelésre a keresleti igény, az egyediség és a jelenlegi feltérképezési (crawl) viselkedés alapján. Egy másik projekten létrehozhatok egy listing-minőség monitorozót, amely még mielőtt a vékony UGC oldalak felhalmozódnának az indexben, jelzi őket. Ezek a rendszerek különösen akkor hasznosak, amikor portálok szeretnének bővíteni geo oldalakat vagy long-tail kategóriaoldalakat a programmatic SEO for enterprise segítségével, mert a programmatic növekedés csak akkor működik, ha az első naptól léteznek minőségi kapuk. A before-and-after hatás általában először a tisztább crawl mintázatokban és a kisebb index-boomban (index bloat) látható meg, majd később a rangsorolási lefedettségben és az új oldalak felfedezésének sebességében.

A munka sikere azon is múlik, mennyire jól illeszkedik az SEO más csapatok folyamataiba. A fejlesztőcsapatoknak szabályrendszerekre, elfogadási kritériumokra és példákra van szükségük a jó és rossz kimenetről, nem pedig absztrakt útmutatásra. A termékcsapatoknak érteniük kell, miért indexelhető egy bizonyos filter, míg egy másiknak indexelhetetlennek kell maradnia úgy, hogy közben feltérképezhető (crawlable) legyen, de ne kerüljön be az indexbe. A tartalom- és operációs csapatoknak pedig skálázható bővítési (enrichment) folyamatokra van szükségük a címekhez, attribútumokhoz, helyadatokhoz, bizalmi jelekhez és olyan szerkesztőségi modulokhoz, amelyek az amúgy gyenge sablonokat kiemelik a “árucikk” (commodity) szint alól. Rengeteg időt fordítok ezeknek a szabályoknak a dokumentálására, a kiadások (release) átnézésére, és arra, hogy a keresési logikát lefordítsam terméknyelvre, így a döntések túlélnek az első implementáció után is. Multinlingvális vagy regionális portálokon emellett a helyi csapatokat is összhangba hozom az adózás/taxonómia (taxonómia) konzisztenciáját és a tartalmi elvárásokat illetően, gyakran a szemantikus mag fejlesztésével és a tartalomstratégiával. Ez a beágyazott együttműködés különíti el egymástól az egyszeri auditot és azt a portál SEO rendszert, amely egy évvel később is tovább működik.

A portál SEO-nál a kompenzált hozamok időbeli lefutása eltér a tartalomvezérelt oldalakétól. Az első 30 napban általában a legjobb jel a diagnosztikai áttekinthetőség: hogy hány URL-típus létezik, hol pazarolják az idejüket a botok, és mely sablonok nyomják el a teljesítményt. 60–90 nap után a technikai javítások és indexálási kontrollok mérhető változásokat hozhatnak a crawl-allokációban, az új oldalak felfedezésében és az indexált oldalak minőségében. 6 hónapnál a kategória- és geo-oldalak gyakran kezdenek el szélesebb, nem márkás keresleti igényeket is lefedni, mert a belső linkelés, a lekérdezéslefedettség és a sablonok relevanciája együtt javul. 12 hónapra a legerősebb projektek strukturális nyereséget mutatnak: kevesebb junk URL, stabilabb láthatóság, jobb hatékonyság az egyes új listázásoknál, valamint alacsonyabb működési költség indexált oldalonként. Ha egy portál emellett platformváltáson is megy keresztül, ezek a nyereségek fegyelmezett migration SEO tervezéstől függenek, hogy a régi problémák ne kerüljenek egyszerűen át a következő technológiai stackbe. A lényeg az, hogy a megfelelő dolgokat a megfelelő időben mérjük, ne pedig azt várjuk, hogy egy több milliós oldaltisztítás után a 2. hétben hirtelen forgalomnövekedés jön.


Szállítmányok

Mit tartalmaz

01 Oldaltípus alapján történő indexelési mapping, így a kategóriaoldalak, listázó oldalak, szűrők, lapozás, belső keresési URL-ek és az „expired inventory” (lejárt készlet) mind meghatározott SEO-szerepet kap, ahelyett hogy versenyeznének a feltérképezési költségvetésért.
02 Facet- és szűrőarchitektúra-tervezés, amely szétválasztja a bevételt hozó kombinációkat a kis értékű URL-zajtól, csökkentve a duplikált állapotokat és megóvva a feltérképezési kapacitást.
03 Listázó sablonok optimalizálása a címek, headingek, strukturált adatok, belső linkek és bizalmi elemek terén, hogy a felhasználó által generált oldalak magasabb minőségi küszöböket is elérhessenek.
04 Lejárt és elfogyott URL-ek kezelésének szabályai, amelyek lehetőség szerint megőrzik az értéket (equity), elkerülik a felesleges soft-404 „pazarlást”, és megakadályozzák, hogy a halott készlet uralja a feltérképezési aktivitást.
05 Programozott metaadat- és szöveg (copy) keretrendszerek, amelyek nagyléptékben javítják a relevanciát, miközben a minőség-ellenőrzés a helyén marad a vékony, ismétlődő vagy jogilag érzékeny tartalmak esetén.
06 Belső linkrendszerek kategória-, geo- és keresleti klaszterekhez, amelyek segítik a keresőrobotokat abban, hogy a fontos készletet gyorsabban fedezzék fel, és a jogosultságot (authority) célzottabban osszák el.
07 Naplóalapú crawl budget (feltérképezési költségvetés) elemzés, amely megmutatja, hol tölti az idejét a Googlebot valójában, mely szekciók vannak alulfeltérképezve, és mi akadályozza az új oldalak újbóli felkeresését.
08 Strukturált adatok (structured data) implementálása listázásokhoz, szervezetekhez, breadcrumbs-hoz, FAQ-khoz és – ahol indokolt – értékelési jelekhez, javítva a jogosultságot (eligibility) és az entitások egyértelműségét.
09 Marketplace-specifikus mérőszám irányítópultok, amelyek a lap-típusok teljesítményét, az indexelési arányokat, az újraszkennelési sebességet és a sablon-szintű változásokat követik, nem csupán a teljes weboldali forgalmat.
10 Workflow automatizálás Python-nal és AI-támogatott QA-val, hogy a nagy készleteket feldolgozza, az anomáliákat felismerje, és az ismétlődő SEO-műveleteket akár 80%-kal csökkentse.

Folyamat

Hogyan működik

Fázis 01
1. fázis: Készletfelmérés és feltérképezési diagnózis
Az első fázis feltérképezi a weboldal valós „alakját”, nem pedig azt az alakot, amit a termékdokumentáció feltételez. Szétválasztom az oldaltípusokat, exportálom az indexelési állapotokat, áttekintem a sablonokat, valamint mintákat elemzek az élő és lejárt készletekből, és összevetem a generált vs. indexelt URL-ek számát. Ha rendelkezésre állnak szervernaplók, elemzem a botok viselkedését, hogy hol megy el a feltérképezési keret (crawl budget) feleslegesen, és milyen gyorsan térnek vissza a fontos oldalak. Az eredmény egy oldaltípus-értékelő (page-type scorecard), a problémák priorizálása, valamint egyértelmű lista azokról az oldalakról, amelyeket indexelni kell, fejleszteni, konszolidálni vagy le kell tiltani.
Fázis 02
2. fázis: Architektúra és sablontervezés
Ezután meghatározom, hogy a keresés szempontjából az egyes oldaltípusok pontosan mit szolgálnak: a keresleti igények megfogását, a felfedezéstámogatást, a jogosultság (authority) továbbadását, vagy azt, hogy kizárólag felhasználói célra maradjanak. Ide tartoznak a szűkített (faceted) navigációs szabályok, a canonical logika, a belső linkelési minták, a sitemap-tervezés, a strukturált adatok (structured data) lefedettsége, valamint a lista- vagy kategóriasablonokkal szembeni követelmények. UGC-vel (felhasználói tartalommal) rendelkező portálok esetén emellett tartalmi küszöböket is beállítok, hogy az alacsony információtartalmú oldalak ne áraszthassák el az indexet. Ennek a fázisnak a végére a csapatodnak már bevezetési specifikációi lesznek, nem pedig homályos ajánlások.
Fázis 03
3. fázis: Bevezetés, QA és kontrollált tesztelés
A megvalósítás szakaszokban történik, mert a nagy portálok nagyon gyorsan nem várt mellékhatásokat okozhatnak. Általában a leginkább skálázható eredményekkel kezdem, mint a sablonok javítása, a belső linkelés, a sitemap logika, valamint a nagy értékű filterek indexelési szabályai, majd ezt a feltérképezési adatok és a Search Console alapján validálom a szélesebb körű bevezetés előtt. A QA magában foglal szabályalapú ellenőrzéseket, a megjelenített HTML felülvizsgálatát, valamint az olyan sablonok kivételfigyelését, amelyek valós készletadatok mellett hibáznak. Ebben a fázisban az automatizálás a legfontosabb, mert a manuális ellenőrzés nem tud lépést tartani a napi több ezer változtatással.
Fázis 04
4. fázis: Mérés, iteráció és skálázás
A launch után oldal-típus alapú mérőszámokat követek, nem pedig megvárjuk a generikus forgalmi összefoglalókat. Ez azt jelenti, hogy az indexelt URL-ek arányát, az újra-letapogatások gyakoriságát, a sablonok szerinti kattintásnövekedést, a frissességi láthatóságot, valamint azt, hogy milyen gyorsan jelenik meg az új készlet a keresésben. A bevált mintázatokat ezután bővítjük több kategóriára, geóra vagy piacterekre, míg a gyenge szegmenseket átsoroljuk vagy kideindexeljük. Hosszú távú együttműködések esetén ez természetesen átvezet a kormányzásba és az [SEO curation & monthly management](/services/seo-monthly-management/).

Összehasonlítás

Portál- és marketplace SEO: standard vs. vállalati megközelítés

Dimenzió
Standard megközelítés
Megközelítésünk
„URL-stratégia”
„Széles halmazú szűrőket indexel, lapozást és belső keresési oldalakat is, mert több URL-t több rangsorolással feltételez.”
„Meghatároz egy szerepet minden oldaltípusnak, csak a kereslet által alátámasztott kombinációkat tart indexelhetőnek, és a feltérképezési büdzsé elhasználása előtt eltávolítja az alacsony értékű URL-zajt.”
Listaoptimalizálás
Néhány mintoldal módosításával dolgozik, és feltételezi, hogy a sablon a webhely többi részén is megfelelő.
A lista (listing) sablonjait elemzi nagymértékben, pontozza a felhasználói tartalom (UGC) minőségét, meghatározza a dúsítási küszöbértékeket, és az eredményeket több ezer valós készletállapotban validálja.
Crawl budget menedzsment
A feltérképezési statisztikákat összesítve vizsgálja, és általános tisztítási javaslatokat tesz anélkül, hogy bizonyítaná a hatást.
A naplókat, sitemap-elemzést és oldaltípus szerinti szegmentálást használja annak pontos megmutatására, hogy a robotok hol töltenek időt, és mely szabályok javítják az értékes készletek újrafeltérképezését.
Duplikált tartalom kezelése
Főként kanonikus címkékre támaszkodik, és abban bízik, hogy a Google helyesen összevonja a hasonló oldalakat.
A duplikációt a forrásnál csökkenti fasett-szabályozással, entitáscsoportosítással, URL-kezeléssel, kanonikus érvényesítéssel és célzott deindexeléssel.
Reporting
Tracks sitewide traffic and rankings with limited visibility into why templates or sections changed.
Measures indexed ratios, page-type performance, recrawl velocity, fresh listing visibility, and release-level impact so decisions can be repeated.
Működési modell
Dokumentumot szolgáltat, és a kivitelezést belső csapatokra bízza minimális QA-val.
Beágyazott technológiai partnerként működik: specifikációkkal, validálással, automatizálással és irányítással támogatja a folyamatos méretnövelést.

Ellenőrzőlista

Teljes portál- és piactér SEO ellenőrzőlista: mit fedünk le

  • Indexelés oldaltípus szerint – ha a kategóriák, listázó oldalak, szűrők, földrajzi oldalak és lejárt URL-ek nincsenek helyesen besorolva, a Google alacsony értékű készletre pazarolja az időt, és kihagyja azokat a kereskedelmi oldalak, amelyeknek rangsorolniuk kellene. KRITIKUS
  • Szemlézeti (faceted) navigációs vezérlők — a nem szabályozott rendezés, szűrés és paraméterkombinációk több millió duplikált URL-t hozhatnak létre, amelyek csökkentik az oldal hitelességét, és elárasztják a Search Console-t alacsony értékű állapotokkal. KRITIKUS
  • Lejáró vagy duplikált hirdetések esetén a kanonikus, noindex és átirányítási logika — ha itt gyenge a szabályozás, az soft-404 pazarlást, értékvesztést (equity-veszteséget) és a készlet kimerülése után is indexben maradó elavult oldalakat eredményez. KRITIKUS
  • Sablonminőségi küszöbértékek a listázásokhoz — a hiányzó attribútumok, a gyenge címek, a hiányzó bizalmi jelzések vagy az üres leírások gyakran az UGC-oldalakat a rangsoroláshoz szükséges szint alatt tartják, ami az esetek következetes teljesítését is akadályozza.
  • Kategória- és geo landingoldal szándékának összehangolása — ha a hub-ok nem illeszkednek a valós keresleti mintázatokhoz, a webhely olyan oldalakat fog túl nagy mennyiségben előállítani, amelyek nem tudnak tartós láthatóságra szert tenni.
  • Belső linkelés kategóriákból, morzsamenü(kből), kapcsolódó entitásokból és szerkesztőségi modulokból — a gyenge linkelés lelassítja a feltárást, és megakadályozza, hogy a tekintély átáramoljon az új vagy kiemelt tartalmakba.
  • Strukturált adatok lefedettsége — a hiányos vagy következetlen séma gyengíti a gépi értelmezést az olyan listingeknél, szervezeteknél, breadcrumbs/navigációs morzsáknál és más fontos oldal-elemeknél.
  • Sitemap (sitemap) egészsége és frissessége — ha a sitemap logika nem tükrözi az élő, értékes URL-eket, a feltérképezők (crawlers) elavult prioritási jelzéseket kapnak, és a friss tartalom tovább tart, amíg eljut a keresési eredményekbe.
  • Log-alapú újratestolás-elemzés — enélkül a csapatok gyakran azokat az oldalakat optimalizálják, amelyekre szerintük érdemes figyelni, nem pedig azokat, amelyekre a botok ténylegesen idejük nagy részét fordítják.
  • Folyamatfigyelés és kiadási QA — a portál SEO gyorsan visszaeshet a termékmódosítások után, ezért minden új sablonhoz vagy navigációs szabályhoz automatizált validálás szükséges.

Eredmények

Valódi eredmények portál- és piactér-SEO projektekből

Ingatlanportál
+210% nem márkás kattintás 9 hónap alatt
A projekt erős márkaismertséggel rendelkezett, de gyenge volt az organikus lefedettsége a korlátozott számú vároldoldalak körén kívül. A fő problémák a kontrollálatlan szűrőkombinációk, a vékony (kevés tartalommal rendelkező) hirdetési sablonok, valamint a kategóriahubok voltak, amelyek nem illeszkedtek tisztán a tényleges keresleti igényekhez. A geo-kategória architektúra átalakítása, az indexálási szabályok szigorítása, valamint a sablonszintű relevancia javítása a schema & structured data támogatásával azt eredményezte, hogy a nem márkás kattintások több mint háromszorosára nőttek a célzott szekciókon. Legalább ilyen fontos, hogy a feltérképezési aktivitás eltolódott a duplikált szűrőállapotok felől az aktív készletek és a stratégiai landing oldalak irányába.
Kleinapróhirdetési piactér
3× nagyobb feltérképezési hatékonyság és 500K+ URL/nap indexelve a bevezetési időszak alatt
A webhely óriási mennyiségű hirdetést és lejárt oldalakat generált, de a Googlebot túl sok időt töltött a halott készleten és a gyakran ismétlődő paraméteres URL-ekkel. Létrehoztam egy oldal-típus irányítási (governance) modellt, átdolgoztam a sitemap logikát, és bevezettem automatizált ellenőrzéseket a lejárt hirdetések kezelésére, valamint a belső linkelési hiányosságokra. A bevezetési időablak alatt a platform jelentős javulást ért el abban, hogy milyen gyorsan fedezték fel és indexelték az értékes oldalakat; a csúcspontokon napi több mint 500 000 újonnan indexelt URL-t regisztráltunk. Ezt egyedi szkriptek és monitorozási rétegek támasztották alá, hasonlóan ahhoz a munkához, amelyet a(z) Python SEO automation leírásában is ismertetünk.
B2B címtár és lead piactér
0-ról napi 2 100-ig szerves látogatás az új SEO szekciókon
A vállalkozásnak sok szolgáltatói adata volt, de nem volt skálázható módja arra, hogy ezt az adatot keresőszándékra optimalizált, valóban hasznos oldalakba alakítsa. Kifejlesztettünk egy keresletvezérelt taxonómiát, minőségi küszöböket állítottunk fel a szolgáltatói oldalakhoz, és strukturált kategória–helyszín céloldalakat indítottunk, amelyeket szerkesztőségi modulok támogattak az üres sablonok helyett. Az új szekciók a tényleges forgalom teljes hiányától nagyjából napi 2 100 látogatásig jutottak, miközben az indexálási “bloat”-ot kordában tartottuk. A bevezetés azért működött, mert a programozott oldalgenerálást a programmatic SEO for enterprise szemlélet fegyelme kísérte, nem pedig a tömeges publikálás.

Kapcsolódó esettanulmányok

4× Growth
SaaS
Nemzetközi kiberbiztonsági SaaS
80-ról 400 látogatásra/nap 4 hónap alatt. Nemzetközi kiberbiztonsági SaaS platform több piacos SEO s...
0 → 2100/day
Marketplace
Használt autó piactér – Lengyelország
Nulláról 2100/nap organikus látogatóra 14 hónap alatt. Teljes körű SEO indulás a lengyel autó piacté...
10× Growth
eCommerce
Prémium bútor e-kereskedelem – Németország
30-ról 370 látogatásra/nap 14 hónap alatt. Prémium bútor e-kereskedelem a német piacon....
Andrii Stanetskyi
Andrii Stanetskyi
A projekt mögött álló szakértő
11 év alatt oldok meg SEO-problémákat minden területen — eCommerce, SaaS, egészségügy, marketplace-ek, szolgáltató cégek. A startupokhoz készített egyedi auditoktól a több domaines enterprise stackek menedzseléséig mindent csinálok. Megírom a Python-t, felépítem a dashboardokat, és én felelek az eredményért. Nincs közvetítő, nincs fiókmenedzser — közvetlen hozzáférés ahhoz, aki ténylegesen dolgozik.
200+
Szállított projektek
18
Iparágak
40+
Leckedelt nyelvek
11+
Év SEO-ban

Megfelelőségi felmérés

Portal- és marketplace SEO megfelelő a vállalkozásod számára?

Állásportálok, hirdetési oldalak és hirdetés-gyűjtő piacterek nagy mennyiségű felhasználói tartalommal létrehozott oldalakkal. Ha a készleted naponta változik, és az organikus növekedés attól függ, hogy a friss hirdetéseket gyorsan feltérképezzük, anélkül hogy szemétnek számító tartalmak indexelésre kerüljenek, akkor ez a szolgáltatás Önnek való. Gyakran akkor működik a legjobban, ha a logfájl-elemzéssel együtt használja, amikor a feltérképezési erőforrások elosztása már egyértelműen szűk keresztmetszetet jelent.
Ingatlan-, autó-, utazási és összehasonlító platformok, amelyeknél jelentős geo- és szűrőkomplexitás van. Ha a város-, régió-, kategória- és attribútumkombinációk több ezer, egymáshoz nagyon hasonló „állapotot” hoznak létre, akkor a fő igény inkább strukturális SEO, mintsem több tartalomgyártás. Ezek a projektek gyakran átfedik egymást a weboldal-architektúrával és a nemzetközi SEO-val a több piacra történő bővítés érdekében.
Olyan címtárak és lead-generáló portálok, amelyek sok strukturált adattal rendelkeznek, de gyenge a keresési megjelenésük. Ha az oldalaid léteznek, de nem rangsorolnak, mert a sablonok túl általánosak, túl vékonyak vagy rosszul vannak egymással összekötve, a portál SEO az operatív adatokat keresési eszközökké alakíthatja. Ez általában egy erősebb tartalomstratégia és a szemantikus mag fejlesztése révén jár a legnagyobb haszonnal.
Vállalati szintű platformok, amelyek jelentős átalakításokat, taxonómia-módosításokat vagy migrációkat terveznek. Ha a termék és a fejlesztőcsapat folyamatosan változtatja azt, hogy a URL-ek, szűrők vagy sablonok hogyan működnek, akkor az SEO-nak a döntések részeként kell szerepelnie még az indítás előtt — nem akkor, amikor már leesett a forgalom. Ilyen esetekben általában a portál-munkát kombinálom a migration SEO szolgáltatással és a website development + SEO szolgáltatással.
Nem megfelelő?
Kisebb brosúraoldalak vagy korai stádiumú vállalkozások, amelyeknél kevesebb mint néhány száz fontos oldal van. Ha a kihívásod az alapvető láthatóság, a helyi jelenlét vagy a szolgáltatásoldalak optimalizálása, akkor érdemesebb inkább egy átfogóbb szolgáltatással kezdeni, például a website SEO promotion szolgáltatással vagy a local SEO szolgáltatással.
Csak azoknak a csapatoknak, akik kizárólag tömeges AI-oldalgenerálást keresnek irányítás, QA vagy technikai változtatások nélkül. A több ezer, alacsony értékű portáloldal közzététele ritkán működik hosszú távon; ha először alapokra van szüksége, kezdje a teljes körű SEO auditálással vagy a technikai SEO auditálással.

GYIK

Gyakran ismételt kérdések

A portál- és piactér-SEO olyan keresőoptimalizálási gyakorlat, amely a nagy, hirdetés/listázás-alapú weboldalakra fókuszál, mint például állásportálok, apróhirdetési oldalak, címtárak, ingatlanportálok és összehasonlító platformok. A munka nem csupán egyes kulcsszavakra terjed ki, hanem az oldaltípusokra épülő stratégiára, a feltérképezési (crawl) keretre, a szűrők/facetták kezelésére, a hirdetési sablonok minőségére és az indexelési szabályozásra is. Ezeken az oldalakon akár milliónyi URL is lehet, de közülük csak töredék érdemel indexelést. A jó piactér-SEO eldönti, mely URL-ek rangsoroljanak, melyek támogassák a felfedezést, és melyek maradjanak ki az indexből. Emellett figyelembe veszi a készlet frissességét, a duplikált entitásokat és a felhasználók által generált tartalom egyenetlenségét is.
A költség főként a mérettől, a technikai összetettségtől, valamint attól függ, mennyi megvalósítási támogatásra van szükség. Egy célzott audit egy közepes méretű portálhoz egészen más, mint egy több piacon átívelő projekt, amely logok, sablonok, automatizálás és több millió URL-en zajló bevezetési (rollout) minőségbiztosítás. A valódi árazási változó nem csupán az oldalak száma: hanem az, hogy hányféle oldaltípus, érintett szereplő, nyelv és platformszabály igényel elemzést és irányítást. Vállalati piactereknél a legolcsóbb opció gyakran nem a legalacsonyabb teljes költség, ha a gyenge struktúra rosszul felépített feltérképezési keretet és mérnöki erőforrásokat pazarol. Általában az architektúra, a forgalmi kép és az állomány viselkedésének átnézése után határozom meg a megfelelő kereteket, hogy a roadmap a tényleges kockázatokhoz igazodjon.
Általában hamarabb jelentkeznek a diagnosztikai jellegű eredmények, míg a valódi forgalomnövekedés fokozatosabb. Az első 2–6 hétben gyakran már körvonalazódik, hogy mely oldaltípusok termelik a felesleges terhelést, és mely javítások hoznak valódi hatást. A technikai fejlesztések (például a feltérképezési keret, a sitemap-logika vagy a kanonikus beállítások) akár 1–3 hónapon belül is befolyásolhatják a felfedezést és az indexelést, különösen aktív webhelyeken. A jelentősebb rangsorjavulás jellemzően 3–6 hónapot igényel, mert a Google-nek újra kell dolgoznia a sablonokat, az oldalak minőségi elemeit és a belső linkstruktúrát nagy léptékben. Nagy portáloknál sokszor a legnagyobb értéket 6–12 hónap alatt, a javítások felhalmozódó (komponáló) hatása adja, nem pedig egy azonnali ugrás.
Átfedik egymást, de a piactéri oldalaknál általában nagyobb a keresési és tartalmi ingadozás, több a felhasználók által generált tartalom, és gyakori a duplikáció a hirdetések, az eladók és a szűrőfeltételek különböző állapotai között. Az eCommerce weboldalak sokszor szorosabban kontrollálják a terméktartalmat, míg a piactéreknek a beszállítók vagy felhasználók változó minőségéből kell „építkezniük”. Továbbá a piactérek gyakrabban találkoznak lejáró készletekkel, hiányos hirdetésekkel és dinamikusan generált URL-ek nagyobb arányával. Ezért az indexelési döntések és a minőségi küszöbök sokszor fontosabbak, mint önmagában a klasszikus termékoldal-optimalizálás. Ha a saját katalógusodat értékesíted, [eCommerce SEO](/services/ecommerce-seo/) vagy [enterprise eCommerce SEO](/services/enterprise-ecommerce-seo/) lehet a jobb választás.
Először szétválasztom azokat az oldalakat, amelyek stratégiailag fontosak, illetve azokat, amelyek létezése pusztán abból adódik, hogy a platform képes őket automatikusan létrehozni. Ezután megvizsgálom a duplikált tartalmak csoportjait, a tartalom mélységét, a hiányzó attribútumokat, a belső linkelést, valamint az elköteleződési és frissességi jeleket annak eldöntésére, hogy egy oldalt javítani, összevonni, noindexelni vagy kivenni a feltérképezhető útvonalakból érdemes-e. A vékony oldalak kezelése ritkán egyetlen, mindenkire egyformán alkalmazható megoldás, mert bizonyos találati/listázási oldalak minimális szöveggel is jól rangsorolhatnak, ha az entitásadatok erősek és a keresési szándék egyértelmű. A cél nem az, hogy minden oldal hosszú legyen; hanem hogy minden indexelt oldalnak legyen indoka. UGC-dús oldalak esetén gyakran hatékonyabb az automatikus pontozás és a sablon alapú tartalombővítés, mint a kézi újraírás.
Igen, ezek kifejezetten erős célterületek ehhez a szolgáltatáshoz, mert hasonló, jól kezelhető szerkezeti problémákkal küzdenek. Az állásportáloknál fontos az új tartalom frissességének kezelése, a lejárt hirdetések kontrollja, valamint a kategória–hely logika erősítése. Az ingatlanportáloknál odafigyelést igényel a földrajzi kereslet szabályozása, a hirdetésduplikáció csökkentése és a szűrőlogika helyes beállítása. A címtáraknál gyakran az egységesített (normalizált) entitások, a kategória-szándék pontos illesztése és a sablonok közti különbségek javítása a kulcs. Az egyes szabályok az üzleti modelltől függenek, de az alaprendszer ugyanaz: meg kell határozni, mi kerüljön indexelésre, növelni kell a sablonok értékét, és a feltérképezést (crawl) a ténylegesen hasznos, konverziót támogató oldalak felé kell irányítani.
Igen. A tapasztalatom erősen vállalati méretű környezetekhez kötődik: többek között 41 domainnel, 40+ nyelven, valamint domainenként nagyjából 20 millió generált URL-t tartalmazó oldalakkal. Az ezeken a programokon használt módszerek közvetlenül átvihetők nagy portálokra is: oldaltípus-szegmentáció, automatizálás, crawl-elemzés és skálázható QA (minőségbiztosítás). Minél nagyobb a webhely, annál fontosabb a manuális ellenőrzések kiváltása szabályokkal, dashboardokkal és kivételriportolással. A többnyelvű piacterek emellett megkövetelik a taxonómia-következetességet, a helyi szándékok pontos leképezését, valamint a duplikációk szigorú kezelését a regionális sablonok között. Pontosan itt tud a vállalati folyamatokhoz illeszkedő megközelítés felülmúlni a generikus ügynökségi SEO-t.
Általában igen, mert a piacterek „élő” rendszerek, nem pedig egyszerű, rögzített weboldalak. Új kategóriák, szűrők, sablonok, eladói viselkedések és termékfeltöltések folyamatosan hoznak létre új SEO kockázatokat és lehetőségeket. Az első audit megoldja a fő strukturális problémákat, de megfelelő irányítás (governance) nélkül a korábban megszűnt indexelési és feltérképezési gondok sokszor néhány hónapon belül visszatérnek. A folyamatos menedzsment különösen akkor hasznos, ha a platform gyakran frissül vagy új földrajzi piacokra terjeszkedik. Ilyenkor a havi monitorozás, QA és iteráció az [SEO curation & havi menedzsment](/services/seo-monthly-management/) keretében sokszor hatékonyabb, mint az ismételt, egyszeri auditok.

Következő lépések

Indítsa el portálját és a piactér SEO-projektet

Ha a portálod sokkal több oldalt generál, mint amennyit a Google jól tud hasznosítani, akkor nem a több publikálás a megoldás. A megoldás egy tisztább rendszer annak eldöntésére, mi létezzen, mi kerüljön felfedezésre, mi kerüljön indexelésre, és mi igényel erősebb sablonminőséget, mielőtt versenyképessé válna. Ezt a munkát végzem gyakorló szakemberként, 11+ év vállalati SEO tapasztalattal, nagy, többnyelvű környezetekben, Python automatizálással és AI-támogatott működési folyamatokkal. Ugyanazok a módszerek, amelyek domainenként 20M+ generált URL kezelésében segítenek, segítenek a közepes méretű piactereknek is elkerülni azokat a hibákat, amelyek később index-bloatot (indexkiszészt) okoznak. Ha a struktúra rendben van, a piacterek nagyobb láthatóságot kapnak, gyorsabban újrakúszik a friss készletet, és kevesebb manuális erőfeszítést kell fordítani az ismétlődő problémák javítására.

Az első lépés egy működő munkamenet, amely a lap-típusokra, a készletmodellre (inventory model), a forgalmi mintázatra és az aktuális keresési korlátokra fókuszál. Nincs szükség kifinomult briefre; elegendő egy hozzáférési vázlat a sitehoz, a Search Console adatai, mintának vett URL-ek, valamint egy rövid magyarázat arról, hogyan jönnek létre a találati elemek (listings). Ezt követően azonosítom a legnagyobb hatású kockázatokat, és meghatározom, mi legyen az első 30, 60 és 90 napban a teendő. Ha továbblépünk, az első kézbesíthető anyag általában egy lap-típus keretrendszer és egy rangsorolt akcióterv, ezt pedig implementációs specifikációk és a mérés beállításai követik. Így a folyamat praktikus, gyorsan elindítható, és egyértelmű az SEO, a termék (product) és a fejlesztő (engineering) csapatok számára is.

Kérd az ingyenes auditot

Gyors felmérés a weboldalad SEO állapotáról, technikai gondokról és növekedési lehetőségekről — kötelezettség nélkül.

30 perces stratégiai egyeztetés Technikai audit riport Növekedési roadmap
Ingyenes audit igénylése
Kapcsolódó

Lehet, hogy erre is szükséged lesz