Technical SEO

Teknisk SEO-audit for store og komplekse nettsteder

En teknisk SEO-audit avdekker de strukturelle problemene som hindrer Google i å crawle, rendere, indeksere og rangere sidene dine effektivt. Denne tjenesten er laget for bedrifter der SEO-utfordringer ikke er gjetting, men systemproblemer: store kataloger, flerspråklige oppsett, JavaScript-rendering, fasettert navigasjon, migreringer og indekssvulst. Jeg auditerer hele leveransekjeden for søk—fra serverrespons og internlenking til kanoniske tagger, logger, sitemaps, Core Web Vitals og indekseringsatferd. Med 11+ års erfaring innen enterprise eCommerce SEO, der jeg har håndtert 41 domener i 40+ språk og nettsteder som genererer omtrent 20M URL-er per domene, fokuserer jeg på tiltak ingeniørteam kan levere—og som forbedrer crawl-effektivitet, indeksering og inntekter.

500K+
URLs/day indexed after fixes
3x
Crawl efficiency improvement
42%
Faster indexation in recovery projects
41
Domains managed across 40+ languages

Rask SEO-vurdering

Svar på 4 spørsmål — få en personlig anbefaling

Hvor stor er nettstedet ditt?
Hva er din største SEO-utfordring akkurat nå?
Har du et dedikert SEO-team?
Hvor presserende er det å forbedre SEO-en din?

Lær mer

Hvorfor tekniske SEO-auditter er viktig i 2025–2026

En teknisk SEO-audit er viktigere nå enn før, fordi søkesynlighet i økende grad begrenses av nettstedkvalitet-signaler, crawl-allokering, gjengivelsespålitelighet og intern arkitektur – ikke bare av at man publiserer flere sider. På store nettsteder bruker Google ofte en betydelig del av crawl-budsjettet på parameter-URL-er, «soft duplicates», redirect-kjeder, tynne maler og sider som aldri hadde noe reelt rangeringspotensial i utgangspunktet. Samtidig skaper JavaScript-tunge bygg, fragmenterte CMS-stakker og ytelsesregresjoner skjulte feilpunkter som innholdsteamene ikke ser før trafikken faller. Core Web Vitals erstatter fortsatt ikke relevans, men dårlig ytelse kan forsterke svak gjengivelse og dårlig brukeropplevelse (UX), og derfor er optimalisering av lastetid ofte en del av samme diagnose. Jeg ser også flere tilfeller der indeksering ser stabil ut i Search Console, mens loggdata viser at Googlebot kaster bort forespørsler på lavverdifulle stier. En skikkelig teknisk SEO-audit avdekker hvor det finnes søkeetterspørsel, hvor crawing blir brukt, og hvilke implementasjonsdetaljer som hindrer verdifulle URL-er i å bli oppdaget eller stolt på. For nettsteder med 100 000 til 10M+ URL-er kan små tekniske feil multiplisere seg til omsetningstap som er usynlige i topplinjerapporter for trafikk.

Når selskaper utsetter en teknisk revisjon, viser kostnaden seg vanligvis på tre områder: langsommere oppdagelse av viktige sider, svakere konsolidering av rangeringssignaler og økende avhengighet av betalt trafikk for å dekke manglende organisk ytelse. Hvis kategorisidene dine blir duplisert av sorteringsvalg, hvis canonicals er inkonsistente, eller hvis paginering og fasetterte filtre skaper millioner av tynne varianter, bruker Google tid der du ikke tjener noe. Konkurrenter med renere arkitektur og sterkere maler kan slå deg selv med like gode backlink-profiler, og det er derfor jeg ofte kobler tekniske funn med konkurrent- og markedsanalyse i prioriteringsfasen. Jeg har sett eCommerce-team miste måneder med vekst fordi utviklere sendte noindex-regler til rendret output, bare for å la server-side HTML forbli indekserbar. Jeg har også sett markedsplasser der XML-sitemaps listet URL-er som returnerte 404, 302 og canonicaliserte destinasjoner, noe som sender blandede signaler hver eneste dag. Jeg har også sett store merkevarer skylde på innholdskvalitet når det egentlige problemet var crawl waste, dokumentert gjennom logganalyse. Konsekvensen av å ikke handle handler ikke bare om lavere rangeringer; det er ingeniørtid brukt på å fikse feil lag i problemet.

Det store poenget med å gjøre dette skikkelig er at teknisk SEO forbedrer effektiviteten til alt annet du publiserer og promoterer. I mitt eget arbeid håndterer jeg i dag 41 e-handelsdomener på 40+ språk, med omtrent 20M genererte URL-er per domene og 500K til 10M indekserte sider per domene, avhengig av marked og malstrategi. På store prosjekter har kombinasjonen av crawl budget opprydding, kontroll på canonical, renhold av sitemaps og sterkere interne lenker gitt resultater som +430% vekst i synlighet, 500K+ URL-er per dag indeksert i gjenopprettingsperioder, og 3x bedre crawl-effektivitet etter arkitekturendringer. Disse resultatene kommer ikke fra generelle auditer; de kommer av å kombinere nettstedsarkitektur & URL-struktur, schema & strukturert data, og en disiplinert valideringsprosess. En teknisk SEO-audit er punktet der antakelser slutter og evidens begynner. Den viser hvilke problemer som blokkerer vekst nå, hvilke som trygt kan utsettes, og hvilken rekkefølge av tiltak som vil gi målbare gevinster i løpet av de neste 30, 90 og 180 dagene.

Slik jobber vi med en teknisk SEO-audit for enterprise-nettsider

Min tilnærming til en teknisk SEO-audit starter med én regel: ikke behandle symptomer som rotårsaker. Et nettsted kan ha tusenvis av ekskluderte sider i Search Console, men det virkelige problemet kan være intern lenking, malduplisering, rendering eller feil crawl-allokering på lavverdige stier. Derfor kombinerer jeg standard audit-verktøy med tilpasset datainnhenting og Python SEO-automatisering i stedet for å stole på én enkelt crawler-eksport og en sjekkliste. Målet er ikke å produsere et langt dokument; målet er å produsere et beslutningssystem som forteller deg hva du bør fikse først, og hvorfor. Jeg jobber fra forretningskritiske sidemenyer ut: kategorimaler, produktsider, redaksjonelle hubs, filtre, sider med søkeresultater og internasjonale versjoner. For enterprise-nettsteder må hver anbefaling kunne testes, skaleres og være tydelig nok til at ingeniør-, produkt- og SEO-aktører kan bli enige om implementeringen. Forskjellen mellom en dekorativ audit og en nyttig en er om funnene overlever møte med faktiske plattformer, utgivelsessykluser og begrensninger i backloggen.

I praksis kombinerer revisjonen flere datalag: Screaming Frog eller en egendefinert crawler for struktur, Google Search Console API for indeksering og spørringsdata, serverlogger for bot-atferd, Chrome UX-data for ytelse, og målrettet manuell gjennomgang for gjengitt HTML og mal-/template-logikk. Jeg henter ofte dataset på URL-nivå inn i Python eller regneark for å klynge problemer etter mal, underkatalog, parametertype, språk eller mønster for statuskode. Dette betyr noe fordi et problem som påvirker 200 produktsider ikke bør prioriteres på samme måte som et mønster som påvirker 4,2M fasetterte URL-er. Jeg sammenligner også crawl-output med indeksering og trafikk for å avdekke falske positive, siden noen teknisk sett ikke helt perfekte URL-er ikke har noen reell forretningsmessig kostnad, mens andre stille og rolig undertrykker sidene dine med høyest verdi. For kunder som trenger løpende synlighet i rettinger, kan funnene mates direkte inn i SEO-rapportering & analyse dashbord slik at fremdrift spores per feil-/problemtype, ikke gjennom isolerte skjermbilder. Denne datastrukturen er spesielt nyttig når flere team eier ulike deler av stabelen. Den gjør at revisjonen blir en praktisk veikart-/roadmap som kan brukes, i stedet for en engangsdokumentasjon som en PDF.

AI er en del av arbeidsflyten, men ikke der nøyaktigheten kan gli. Jeg bruker Claude- og GPT-modeller for å gjøre klustring, merking, utkast til dokumentasjon, regex-forslag og gjennomgang av edge cases raskere, spesielt når jeg håndterer enorme URL-mengder eller repeterende mal-problemer. Denne arbeidsflyten ligger i en kontrollert prosess som ligner mine AI & LLM SEO workflows, der hvert forslag med hjelp fra modeller blir verifisert opp mot crawl-data, kildekode eller logger før det blir en anbefaling. For eksempel kan AI hjelpe med å oppsummere 50 000 dupliserte title-mønstre eller foreslå kategorier for parameterstøy, men den bestemmer ikke om en canonical-implementering er teknisk korrekt. Menneskelig gjennomgang er viktigst når signaler er i konflikt, for eksempel når gjengitte canonicals avviker fra rå HTML, eller når Search Console rapporterer forsinket i forhold til post-fix crawl-oppførsel. Brukt riktig reduserer AI manuelt arbeid med opptil 80 % i repeterende analyse- og dokumentasjonsoppgaver. Tidsbesparelsen brukes deretter på delene som faktisk endrer resultatene: arkitekturvalg, prioritering og kvalitetskontroll av implementeringen. Resultatet er raskere leveranse uten å gjøre revisjonen til generisk tekst.

Skalering endrer revisjonsdesignet. Et brosjyreside-nettsted på 20 000 sider kan ofte diagnostiseres med én eller to crawl-passes, men et nettsted med 5M indekserte sider, 20M genererte URL-er, flere ccTLD-er og maler per marked krever segmentering fra dag én. Jeg strukturerer enterprise-audits rundt side-typetaksonomier, kombinasjoner av språk og markeder, interne lenke-grafmønstre, canonical-klynger og crawl-logg-utsnitt, slik at vi kan identifisere hvor Googlebot bruker for mye eller for lite ressurser. Dette arbeidet overlapper ofte med sidearkitektur & URL-struktur, internasjonal & flerspråklig SEO og eCommerce SEO, fordi tekniske feil sjelden holder seg innenfor én SEO-kategori. På flerspråklige nettsteder kan feil i hreflang og canonical undertrykke de riktige markedssidene selv når innholdskvaliteten er høy. På store kataloger kan ett dårlig kontrollert filtersystem skape millioner av lavverdige URL-er som begraver oppdagelsen av kategorier og produkter. Jobben min er å redusere denne kompleksiteten til en implementeringsrekkefølge teamet deres faktisk kan levere, verifisere og vedlikeholde.

Avansert teknisk SEO-revisjon: Hva store nettsteddiagnoser faktisk krever

Standard tekniske revisjoner faller ofte sammen i enterprise-skala fordi de antar at én crawl tilsvarer én sannhet. På et nettsted med millioner av URL-er stemmer ikke den antakelsen. Den samme malen kan oppføre seg forskjellig avhengig av marked, enhet, parameterstatus, lagerstatus eller rendringsbane, og en crawler som ikke modellerer disse forskjellene vil gå glipp av mønstrene som faktisk betyr noe. Store organisasjoner har også legacy-redirects, delvise migreringer, flere innholdsansvarlige og CMS-regler som er lagd opp over flere år, slik at teknisk gjeld er fordelt snarere enn isolert. Derfor er ikke generiske antall problemer nok; du trenger problemklasser, grupper av berørte sider og prioritering som er vektet etter forretningsverdi. I enterprise-miljøer er dessuten samkjøring mellom interessenter en del av revisjonen, fordi ingen løsning overlever hvis produkt, engineering og SEO definerer problemet ulikt. En reell enterprise teknisk SEO-revisjon må ikke bare forklare hva som er ødelagt, men også hvor det er ødelagt, hvor ofte det skjer, og hvilken arbeidsrekkefølge som gir høyest avkastning med lavest utrullingsrisiko.

For å få til det bygger jeg tilpassede analyse-lag når ferdige verktøy ikke lenger er nyttige. Python-skript hjelper meg å gruppere millioner av URL-er etter normalisert sti, parameter-signatur, kanonisk mål, hreflang-returstien eller internlenkekilde, slik at vi kan se mønstre som et flatt eksportuttrekk skjuler. Jeg bygger også dashboards som sammenligner genererte, crawlede, indekserte og trafikk-bærende URL-er på tvers av sidetyper—ofte er det her skjult sløsing blir åpenbar. I ett stort katalogprosjekt reduserte opprydding av parametere og segmentering av sitemaps andelen lavverdig crawl så mye at det bidro til at mer enn 500K URL-er per dag kom inn i en sunnere indekseringssyklus. I et annet avdekket tilpassede sjekker av kanonisk-clustre «template drift» som var innført av separate regionale utrullinger. Denne typen løsninger overlapper med programmatic SEO for enterprise når logikken for sidgenerering er en del av problemet, og med semantic core development når malens intensjon ikke samsvarer med søkeområdet. Den tekniske audit’en blir mye mer kraftfull når den kan koble strukturelle problemer til synlighet og søkeetterspørsel—i stedet for å behandle hver URL som like viktig.

Gjennomføringen avhenger også av hvordan revisjonen integreres med interne team. Jeg jobber vanligvis med utviklere om implementeringslogikk, med product owners om utrullingsomfang, med innholdsteam om valg av maler, og med analyse-/trackingteam om validering av sporing. Anbefalingene dokumenteres på en måte som gjør at engineering kan bruke dem: problemstilling, berørte mønstre, reproduseringstrinn, forventet resultat, fallback-logikk, edge cases og test-URL-er. Hvis nettstedet bygges om eller refaktoreres kraftig, overlapper arbeidet ofte med webutvikling + SEO og SEO-migrering & replatforming fordi teknisk gjeld er enklest å rydde bort før det lanseres på nytt med en ny stack. For sider som trenger sterkere SERP-tolkning kan jeg også koble på anbefalinger om schema & strukturert data i samme arbeidsløp. Det viktige er at jeg ikke bare overleverer en rapport og forsvinner. En teknisk SEO-revisjon gir mest verdi når den støtter implementering, re-testing og kunnskapsoverføring, slik at de samme feilene ikke kommer tilbake i neste utgivelsessyklus.

Gevinstene fra teknisk arbeid bygger seg opp over tid, men de vises ikke alle i løpet av samme uke. I løpet av de første 30 dagene etter høyprioriterte feilrettinger ser du som regel renere crawl-stier, bedre dekning for oppdaterte sitemaps og raskere re-crawl av korrigerte maler. Mellom 60 og 90 dager begynner indekseringskvalitet, konsolidering av interne signaler og ytelse på kategorisider ofte å flytte på seg, spesielt hvis nettstedet allerede hadde sterk etterspørsel. Etter 6 måneder kommer de største avkastningene vanligvis fra opprydding i arkitektur, duplikatkontroll, bedre ytelse i maler og sterkere intern lenkedistribusjon til pengesider. Over 12 måneder blir teknisk SEO en forsterker for innhold, lenker og merking/merchandising, fordi Google bruker mer av sin crawl og tillit på de riktige URL-ene. Det er derfor mange kunder fortsetter med SEO curation & månedlig drift etter analysen (audit). Analysen setter taket; løpende drift sørger for at virksomheten fortsetter å vokse under det.


Leveranser

Dette får du

01 Fullstendige gjennomgangsdiagnoser som kartlegger statuskoder, kanoniske mål, dupliserte mønstre, redirect-kjeder, foreldreløse URL-er og intern lenkedybde, slik at teamet ditt ser hvor autoritet og crawl-budsjett går tapt.
02 Analyse av dekning i Search Console som sammenligner innsende-, oppdagede-, crawl-, indekserte- og ekskluderte tilstander for å skille indekseringssymptomer fra reelle tekniske årsaker.
03 Gjennomgang av serverlogger som viser hvordan Googlebot faktisk oppfører seg på nettstedet ditt, hvilke baner den besøker på nytt, og hvilke URL-mønstre med lav verdi som bruker opp forespørsler.
04 Rendering- og JavaScript SEO-kontroller som sammenligner rå HTML med gjengitt output for å avdekke blokkert ressursbruk, manglende lenker, hydratiseringsproblemer og usynlig innhold.
05 Validering av robots-direktiver på tvers av robots.txt, meta robots, x-robots-tag, kanoniske tagger og HTTP-headere for å fjerne motstridende signaler.
06 Revisjon av XML-sitemap som verifiserer aktualitet, samsvar med kanoniske adresser, gyldighet for statuskoder, hreflang-konsistens og segmentering etter sidetype eller marked.
07 Gjennomgang av Core Web Vitals og ytelse knyttet til SEO-effekt, inkludert problemer på mal-nivå, mobilsnarveier og bortkastet script-utførelse.
08 Analyse av intern lenking og crawl-dybde som identifiserer utilstrekkelig lenkede «money pages», overlenkede URL-er med lav verdi og svake hub-strukturer.
09 Gjennomgang av duplisert innhold og håndtering av parametere for fasettert navigasjon, sesjons-ID-er, sporingsparametere, printvisninger, sorteringsrekkefølger og nesten identiske maler.
10 En prioritert implementeringsroadmap med alvorlighetsgrad (severity scoring), forretningsmessig effekt, krav som er klare for utviklere, og kriterier for validering etter lansering.

Prosess

Slik fungerer det

Fase 01
Fase 1: Oppdagelse, tilgang og datakartlegging
Uke 1 starter med tilgang til Search Console, analyseverktøy, CMS-mønstre, sitemap-filer, robots-regler, CDN- eller serverlogger, og eventuelle eksisterende crawl-eksporter. Jeg identifiserer først de forretningskritiske sidgruppene, fordi revisjonen skal gjenspeile inntektsprioritet i stedet for teknisk nysgjerrighet. Hvis nettstedet er stort, definerer jeg crawl-segmenter etter mal, språk, marked og URL-mønster før noen analyse begynner. Resultatet av denne fasen er en måleplan, en dataproduksjon/oversikt over data, og et avklart omfang, slik at resten av revisjonen fokuserer på sidene som betyr mest.
Fase 02
Fase 2: Crawling, gjengivelse og indekseringsdiagnose
I løpet av uke 1 og 2 kjører jeg fullstendige eller segmenterte crawls, sammenligner rå versus gjengitt HTML, undersøker robots- og canonical-atferd, og kartlegger intern lenkedypde og duplikatklynger. Dekning i Google Search Console, crawl-statistikk og søkespørsmønstre sjekkes opp mot crawl-outputen for å se hvor ekskluderte eller underpresterende URL-er sammenfaller med tekniske årsaker. Når logger er tilgjengelige, analyserer jeg hvor ofte Googlebot henter sentrale sidegrupper sammenlignet med parameter- eller dead-end-paths. Leveransen her er et problemkart som skiller rotårsaker fra symptomer og kvantifiserer omfanget av hvert mønster.
Fase 03
Fase 3: Prioritering og tekniske spesifikasjoner
I uke 3 blir funn scoret etter alvorlighetsgrad, antall berørte URL-er, innvirkning på inntekter, avhengighetsnivå og implementeringskompleksitet. Deretter omdanner jeg revisjonen til spesifikasjoner som er klare for utviklere, med eksempel-URL-er, forventet atferd, edge cases, akseptkriterier og valideringstrinn. Det er her mange revisjoner feiler i markedet: de beskriver problemer, men omsetter dem ikke til leveranseklarte krav. Resultatet er en prioritert backlog som produkt-, ingeniør- og SEO-team kan planlegge med minimal tvetydighet.
Fase 04
Fase 4: Validering, retesting og forlengelse av veikart
Når rettelser er publisert, validerer jeg dem med re-crawl, sjekker av gjengitte sider, loggsammenligninger og overvåking av indeksering. Viktige endringer som canonical-omskriving, oppdateringer av sitemap, opprydding av noindex, håndtering av paginering og ytelsesfikser for maler anses ikke som fullført før dataene bekrefter forbedret atferd. Om nødvendig, utvides revisjonen til et 90-dagers veikart som dekker endringer i arkitektur, forbedringer av innholdsmaler og overvåkingsdashboards. Denne fasen lukker løkken slik at revisjonen gir verifiserte gevinster i stedet for uverifiserte anbefalinger.

Sammenligning

Teknisk SEO-auditering: standard vs. enterprise-auditprosess

Dimensjon
Standard tilnærming
Vår tilnærming
Datakilder
Ett crawler-eksport og en rask gjennomgang i Search Console
Crawlerdata, sjekker av gjengitt HTML, GSC-API, logger, sitemapper, ytelsesdata og manuell validering av maler
Håndtering av nettstedskala
Forutsetter at alle URL-er kan gjennomgås i én gjennomgang
Segmenterer etter sidetype, språk, marked, parameterklasse og forretningsverdi for miljøer med 100 000 til 10M+ URL-er
Prioritering
Listes dusinvis av problemer uten forretningsvekt
Skårer hvert problem basert på innvirkning på inntekter, antall berørte URL-er, avhengighetsnivå og implementeringskompleksitet
JavaScript og gjengivelse
Sjekker kildekoden overfladisk
Sammenligner rå og gjengitt utdata, blokkerte ressurser, hydratiseringsatferd og oppdagbarhet av gjengitte lenker
Implementeringsoutput
Høynivåanbefalinger i presentasjonsformat
Utviklerklare spesifikasjoner med eksempler, forventet atferd, kanttilfeller og valideringskriterier
Validering
Gjennomgang stopper ved leveranse
Gjennomgår på nytt, logger sjekkes, overvåking av indeksering og verifikasjon etter lansering for å bekrefte reell forbedring

Sjekkliste

Komplett sjekkliste for teknisk SEO-audit: Det vi dekker

  • Indekseringskontroller på tvers av robots.txt, meta robots, x-robots-tag, kanoniske URL-er og HTTP-statuskoder, fordi motstridende direktiver kan undertrykke innholdssider som driver inntekter eller la lavverdige sider bli indeksert i stor skala. KRITISK
  • Kanoniseringens mønstre etter mal og parametertype, ettersom svak kanonisk kontroll fører til dupliserte klynger, fragmenterte rangeringssignaler og ustabile landingssider i søkeresultater. KRITISK
  • Kontroller server-loggens crawl-atferd for å se hvor Googlebot faktisk bruker forespørsler, fordi crawl-sløsing på filtre, redirecter og ødelagte URL-er forsinker indekseringen av pengesidene. KRITISK
  • Intern lenkedybde, foreldreløse sider og ankerfordeling, fordi kategorier og produktsider som ikke er tilstrekkelig lenket ofte fortsatt er teknisk gyldige, men kommersielt usynlige.
  • Kvalitet, aktualitet, segmentering og samsvar med canonical-taggen i XML-sitemapen, fordi sitemapsstøy lærer søkemotorer å miste tillit til kilden over tid.
  • Omdirigeringskjeder, løkker, blandede protokollbaner og gamle videresendinger, fordi hvert unødvendige hopp svekker crawl-effektiviteten og øker implementeringsgjelden.
  • JavaScript-rendering og forskjeller mellom rått innhold og gjengitt innhold, fordi manglende lenker eller metadata i serverutdata kan stoppe indeksering og signalisere sammenslåing.
  • Core Web Vitals og ytelsesflaskehalser i maler, fordi treg mobilgjengivelse øker frafall og ofte henger sammen med svakere indekserings- og gjengivelsesrobusthet.
  • Paginering, fasettert navigasjon, søkeresider og regler for generering av tynne URL-er, fordi ukontrollerte kombinasjoner kan føre til millioner av sider med lav verdi.
  • Hreflang, regional duplisering og konsistens for canonicaler tilpasset markedet der det er relevant, fordi flerspråklige feil kan sende autoritet til feil markedsversjon.

Resultater

Reelle resultater fra tekniske SEO-audittprosjekter

Bedrifts-e-handel innen hjem og hage
+214 % ikke-merkevareklikk på 9 måneder
Nettstedet hadde sterk etterspørsel, men alvorlig crawl-waste forårsaket av fasetterte URL-er, dupliserte pagineringsstater og inkonsekvente canonicaler på kategorimaler. Revisjonen kombinerte gjennomgang av loggfiler, segmentering av crawl på malnivå og en oppryddingsplan knyttet til site architecture & URL structure. Etter at parameterkontroller, oppdateringer av internlenking og segmentering av sitemaps ble implementert, flyttet Google crawlen mot kjerne-kategorier og produkter, og ikke-merkevareklikk mer enn doblet seg i løpet av de neste tre kvartalene.
Flermarkeds moteforhandler
3,1x bedre crawl-effektivitet og 42 % raskere indeksering
Dette prosjektet omfattet flere språk-/markedsversjoner med hreflang-drift, delvise noindex-konflikter og uoverensstemmelser i metadata som renderes via JavaScript. Jeg kartla forskjeller mellom rå og rendret utdata, avstemte hreflang-returtagger, og jobbet tett med teamet som håndterer internasjonal og flerspråklig SEO. Når malene ble synkronisert og verdiløse crawl-stier ble redusert, oppnådde nettstedet en målbar raskere recrawling av prioriterte kolleksjoner, samt en vedvarende forbedring i gyldige indekserte URL-er.
B2B-deler-markedsplass
+37 % flere gyldige indekserte sider på 4 måneder
Markedsplassen genererte et stort antall kombinasjons-URL-er, hvor mange så unike ut for crawlere, men hadde liten verdi for søk. Jeg bygde klustringsskript for å gruppere normaliserte URL-mønstre, og brukte deretter analysen til å definere hvilke sidetyper som skulle være indekserbare, og hvilke som skulle forbli oppdagbare, men ikke indekseres. Dette var en arbeidsflyt knyttet til programmatic SEO for enterprise. Kombinert med konsolidering av interne lenker og renere sitemaps forbedret dette indekskvaliteten og økte trafikken til de kommersielle long-tail-sidene som faktisk konverterer.

Relaterte case-studier

4× Growth
SaaS
Cybersecurity SaaS internasjonalt
Fra 80 til 400 besøk/dag på 4 måneder. Internasjonal cybersecurity SaaS-plattform med SEO-strategi p...
0 → 2100/day
Marketplace
Bruktbil-markedsplass Polen
Fra null til 2100 daglige organiske besøk på 14 måneder. Full SEO-lansering for polsk bil-markedspla...
10× Growth
eCommerce
Nettbutikk for luksusmøbler Tyskland
Fra 30 til 370 besøk/dag på 14 måneder. Premium møbel-eCommerce i det tyske markedet....
Andrii Stanetskyi
Andrii Stanetskyi
Personen bak hvert prosjekt
11 år med å løse SEO-problemer på tvers av alle bransjer — eCommerce, SaaS, medisinsk, markedsplasser og tjenestebedrifter. Fra egne audits for startups til å styre enterprise-oppsett med flere domener. Jeg skriver Python, bygger dashboards og har eierskap til resultatet. Ingen mellomledd, ingen account managers — direkte tilgang til personen som gjør jobben.
200+
Leverte prosjekter
18
Bransjer
40+
Språk dekket
11+
År i SEO

Fit-sjekk

Er teknisk SEO-auditt riktig for virksomheten din?

Store e-handelsorganisasjoner med 50 000 til 10 M+ URL-er som vet at trafikken begrenses av krøllavfall (crawl waste), duplisert generering av sider eller svak kontroll på maler. Hvis katalogen deres vokser raskere enn deres tekniske styring, gir denne tjenesten dere en fiks-plan knyttet til forretningsverdi. Den er spesielt relevant i kombinasjon med enterprise eCommerce SEO eller eCommerce SEO.
Er denne tjenesten noe for deg? For flerspråklige eller multinasjonale virksomheter der samme mal fungerer forskjellig på tvers av land, språk eller undermapper. Hvis hreflang, kanoniske URL-er, markedsruting eller logikk for lokalisering skaper indekseringskonflikter, avdekker en teknisk revisjon hvor arkitekturen bryter sammen. Disse prosjektene overlapper ofte med internasjonal og flerspråklig SEO.
Selskaper som planlegger eller er i ferd med å komme seg etter en redesign, CMS-endring, plattformkonsolidering eller domeneflytting. En teknisk revisjon er en av de raskeste måtene å identifisere hva som må bevares før lansering, og hva som sannsynligvis forårsaket tap etter lansering. I slike tilfeller kobler den seg direkte til SEO-migrering & replatforming.
Markedsplasser, portaler, SaaS-dokumentasjonsnettsteder eller virksomheter med mye varelager og dynamisk sidetilpassing, samt mange lavverdikombinasjoner. Hvis indeksen din er større enn den faktiske muligheten din, hjelper denne tjenesten med å definere hva som bør finnes, hva som bør crawl’es, og hva som bør rangere. Slike situasjoner har ofte nytte av portal- og markedsplass-SEO eller SaaS SEO-strategi.
Ikke riktig match?
Svært små brosjyresider med noen få dusin sider og ingen tegn til crawl-, gjengivelses- eller indekseringsproblemer. I så fall er ofte flaskehalsen posisjonering, dekning av nøkkelord eller konverteringsrettet sideutvikling, så start med website SEO promotion eller content strategy & optimization.
Team som kun ser etter en overfladisk sjekkliste uten tilgang til å implementere forbedringer. En teknisk revisjon skaper verdi når noen kan levere endringer og verifisere dem. Hvis ditt hovedbehov er opplæring, intern kapasitet eller beslutningsstøtte før du forplikter deg til mer omfattende arbeid, kan SEO team training eller SEO mentoring & consulting være et bedre første steg.

FAQ

Ofte stilte spørsmål

En teknisk SEO-audit ser på hvordan søkemotorer crawler, gjengir, indekserer og forstår nettstedet ditt. I praksis betyr det ting som statuskoder, kanoniske URL-er, robots-regler, sitemaps, interne lenker, dupliserte mønstre, JavaScript-gjengivelse, Core Web Vitals og ofte serverlogger. Jeg sammenligner også de tekniske funnene med data fra Search Console og grupperer observasjoner etter sider som er viktige for virksomheten, siden ikke alle feil har samme prioritet. På større nettsteder segmenterer jeg gjerne per mal, marked og parameterklasse, slik at resultatet blir lett å bruke i implementasjon. Leveransen er en prioritert plan for tiltak – ikke bare en liste med feil.
Prisen avhenger i hovedsak av størrelsen på nettstedet, kompleksiteten og hvor enkelt det er å få tilgang til relevante data. Et nettsted med 10 000 til 50 000 URL-er og en relativt enkel teknisk oppbygning kan ofte ligge rundt EUR 2 500 til EUR 5 000. En stor e-handel eller flerspråklig løsning med 100 000 til 1 million URL-er, flere maler og mer omfattende validering havner gjerne i området EUR 5 000 til EUR 12 000. For større virksomheter med loggfiler, utfordringer knyttet til JavaScript-rendering, migreringsrisiko eller millioner av URL-er kan prisen overstige EUR 12 000, fordi både analyse og gjennomføring blir vesentlig mer krevende. Jeg tilpasser omfanget etter forventet arbeid, ikke en fast pakkeløsning, slik at du kun betaler for det nivået av diagnostikk nettstedet ditt faktisk trenger.
Et målrettet teknisk audit for et nettsted i mellomstørrelse tar ofte 2 til 4 uker, mens enterprise-nettsteder med 1M+ URL-er eller flere markeder gjerne trenger 4 til 6 uker. De første tekniske innsiktene merkes vanligvis i løpet av første uke når crawlingen er på plass, og når vi har tilgang til Search Console og loggdata. Tydelige SEO-resultater avhenger av hvor raskt feil og forbedringer blir implementert, samt hvor ofte Google re-crawler berørte maler. En del tiltak, som opprydding i sitemap eller redirect-fikser, kan gi effekt i løpet av få uker. Større endringer i arkitektur og tiltak for duplikatkontroll tar ofte 2 til 4 måneder før utslag på rangering og trafikk blir tydelig.
Ja. En generell SEO-audit dekker ofte tekniske forhold, innhold, søkeord, tilbakekoblinger og konkurransesituasjon på et overordnet nivå. En teknisk SEO-audit går derimot mye dypere i hvordan søkemotorer crawler og forstår siden, inkludert gjengivelse (rendering), indeksering, maler, kanonikal-logikk, interne lenkestrukturer og konkrete implementasjonsdetaljer. Hvis trafikkproblemet ditt skyldes arkitektur, indekseringsstøy (index bloat), JavaScript eller migrasjonsutfordringer, blir en generell audit ofte for bred til å gi tydelig verdi. Hvis du vil ha hele bildet, kan neste riktige steg være en [omfattende SEO-audit](/services/comprehensive-seo-audit/). Hvis du allerede vet at flaskehalsen er teknisk, er en dedikert teknisk audit ofte raskere og mer handlingsorientert.
Ja, og det er en av de vanligste grunnene til at kunder tar kontakt. Jeg sammenligner rå HTML med det som faktisk blir gjengitt i nettleseren, og sjekker om viktige lenker og metadata finnes før og etter rendering. I tillegg ser jeg etter blokkerte ressurser, samt hydrering- eller andre feil som kan svekke indeksering og synlighet. Når det gjelder filtrert navigasjon (faceted navigation), analyserer jeg hvilke kombinasjoner som gir reell søkeverdi, og hvilke som bare skaper unødvendig crawl-kapasitetsbruk. Dette omfatter kanoniske regler, interne lenker, noindex-mønstre, håndtering av parametere og hvilke sider som faktisk inkluderes i sitemap. På store e-handelsnettsteder kan slike detaljer avgjøre om Google bruker tiden sin på kategorier og produktsider—eller om den forsvinner inn i filtre.
Som regel, ja. Nettbutikker skaper ofte mer teknisk kompleksitet enn vanlige audits dekker: fasetterte filtre, endringer i lagerstatus, paginering, dupliserte produktvarianter, sesongmaler, interne søkesider, merkarfeeds og store mengder nesten like URL-er. En god teknisk audit for eCommerce må forstå kataloglogikk og kommersielle sidestillinger/hierarki, ikke bare SEO-teori. Det er også der min kompetanse er sterkest, med 11+ år innen enterprise eCommerce SEO og ansvaret for 41 domener i 40+ språk. Hvis katalogen din er stor, bør audit kobles direkte til strategi for kategori, produkt og crawl-budget – og ikke kun generelle «best practices».
Ja. Dette er miljøet jeg jobber i oftest. Porteføljen min inkluderer domener med omtrent 20M genererte URL-er per domene, og alt fra 500 000 til 10M indekserte sider avhengig av marked, maloppsett og kvalitetskontroller. Ved slike skalaer deles revisjonen inn fra start basert på sidetype, språk og mønsterkategori, og Python-basert analyse brukes for å behandle data som standardeksporter ofte ikke håndterer godt. Flerspråklige oppsett krever også kontroll av hreflang, kanoniske pekere på tvers av markeder, regional ruter og logikk for markeds-tilpassede sitemaps. Prosessen er bygget for kompleksitet – ikke tilpasset den i etterkant.
Etter levering trenger de fleste kunder én av tre ting: bistand til implementering, validering eller løpende overvåking. Jeg kan jobbe direkte med utviklere og produktansvarlige for å avklare krav, vurdere kanttilfeller og prioritere rekkefølgen for utrulling. Når rettelser er publisert, gjør jeg ny gjennomgang (re-crawl), sjekker gjengitt innhold, sammenligner logger der det er tilgjengelig, og følger med på indekseringssignaler for å bekrefte at endringene faktisk virker. Hvis nettstedet trenger fortsatt styring, flyttes dette vanligvis over i SEO curation & månedlig forvaltning eller et mer avgrenset konsulentoppsett. Det viktige er at auditen ikke må stoppe som et dokument; den kan fortsette gjennom utførelse og verifisering.

Neste steg

Start din tekniske SEO-audit i dag

En grundig teknisk SEO-audit fjerner de skjulte begrensningene som hindrer sidene dine i å få synligheten de fortjener. Når crawl-stiene er renere, canonical-tags er konsistente, gjengivelsen er pålitelig, og internlenking støtter de riktige malene, får alle andre SEO-investeringer jobbe hardere. Det er verdien av denne tjenesten: ikke en liste over problemer, men en praktisk vei fra teknisk gjeld til målbar vekst. Jeg har 11+ års erfaring innen enterprise eCommerce SEO, har nå ansvar for 41 domener på 40+ språk, har dyp spesialisering i 10M+ URL-arkitekturer, og en arbeidsflyt som er styrket gjennom Python-automatisering og AI-assistert analyse. Fra Tallinn i Estland jobber jeg som en som må løse disse utfordringene i stor skala – ikke bare beskrive dem.

Det enkleste første steget er en gratis 30-minutters konsultasjon der vi går gjennom din nåværende situasjon, størrelsen på nettsiden, plattformen, markeder og symptomene du ser i trafikk, indeksering eller crawl-atferd. Hvis du har det, send gjerne tilgang til Search Console, eksempeluttrekk fra crawl, sitemap-filer og nylige migrerings- eller utgivelsesnotater før samtalen; det reduserer tiden til diagnose betydelig. Etter samtalen kan jeg skissere omfang, forventet tidslinje, dataene jeg trenger, og hvordan første leveranse vil se ut. For de fleste prosjekter er første leveranse en avgrenset revisjonsplan eller et tidlig problemkart i løpet av den første uken. Hvis problemet ditt er bredere enn kun tekniske forhold, sier jeg fra om det og peker deg til riktig tjeneste, enten det er content strategy & optimization, keyword research & strategy, eller link building & digital PR.

Få gratis audit

Rask analyse av nettstedets SEO-helse, tekniske utfordringer og vekstmuligheter — uten forpliktelser.

30-min strategi-samtale Teknisk audit-rapport Vekst-rammeverk
Be om gratis audit
Relatert

Du kan også trenge