A technikai SEO egyik legfontosabb eleme a szervernapló elemzése. A szerver logból 100% pontossággal meg tudjuk határozni, hogy a kereső motorok hogyan böngészik fel az oldalunkat és a vizsgálatával olyan fontos hibákat vehetünk észre, amiket javítva komoly pozíciókat nyerhetünk a keresőben.
Mi az a szerver log
A szerverek, hálózati eszközök egy log fájlban naplóznak minden hálózati tevékenységet. Ilyen például, ha egy felhasználó, vagy robot egy oldalletöltést generál a szerveren. A log fájl egy általánosan elfogadott strukturájú text fájl. A log fájlban egy bejegyzés valahogy így néz ki:
remotehost logname authuser [date] request status bytes
Ahol
- remotehost: erről az IP címről érkezett a kérés
- logname, authuser: ez a kérést intéző user, logname (általában üres, kevésbé fontos)
- [date]: a kérés pontos ideje
- “request”: a távoli klienstől érkező pontos lekérdezés (GET vagy POST)
- status: ezzel a HTTP státusz kóddal válaszolt a szerverünk a lekérdezésre
- bytes: az átküldött tényleges adatmennyiség
Minden egyes alkalommal amikor egy felhasználó, – vagy akár a Googlebot – egy oldalt meglátogat, akkor egy ilyen sorral bővül a log fájl. Másodperenként akár több ezer sor is generálódhat, attól függően, hogy mekkora az oldal.
Mire jó a szerver log elemzés
A szerver napló elemzésével sokminden kiderülhet az oldaladról:
- hálózati hibák kiszűrése
- biztonsáig incidensek kivizsgálása
- milyen botok látogatják az oldalad (nem feltétlenül csak keresőbot lehet)
- technikai SEO elemzés:
- elemezd napi, heti és havi szinten az adatokat
- HTTP státusz kódok ellenőrzése: ha túl sok hibakódot dob az oldalad, a googlebot kevesebbszer fogja indexelni az oldalaidat vagy akár ronthat is a rankingodon
- ellenőrizheted milyen oldalaidat indexeli a bot és milyen gyakran (fontossági sorrend)
- milyen oldalakat hagy ki az indexből
- látjuk, hogy milyen könyvtárakat indexel a google és éppen melyik botjával (mobil, képek)
- átirányítások ellenőrzése
Hol található a szever log fájl?
Ahány szerver, annyi féle helyen tárolhatják ezeket a fájlokat. Általában egy jól látható “logs” könyvtárat kell keresni a szerveren. Ha nagyon nem találod, kérdezd meg a rendszergazdát vagy a tárhely szolgáltatód. Az én tárhelyemen cPanel fut és rögtön a gyökér könyvtárban megtalálható minden log.
Hogyan kezdj hozzá
Az már világos, hogy egy ilyen logfájl bazi nagy lehet. Ha van 10.000 felhasználód naponta, akik 10 oldalt néznek meg minden nap, akkor a log fájlod egy nap alatt 100.000 sort fog tartalmazni. A log fájlok olvasására több lehetőségünk is van. Egyszerűen betöltheted egy excelbe is, vagy használhatsz kimondottan erre a célra készült fizetős vagy ingyenes szoftvereket. Én azt javaslom, hogy ha csak egy rövid időszakot szeretnél elemezni, akkor töltsd be excelbe, de ha már egy nagyobb időszakot vizsgálnál, elemeznél ahol szeretnéd látni az összefüggéseket is, akkor inkább töltsd be Google Datastudioba.
Technikai SEO elemzés
A szerver logból rengeteg fontos információt tudsz kiszedni, ami SEO szempontból fontos lehet.
Robotok indexelési volumene
Milyen gyakran indexelik robotok az oldalt
Egy meghatározott időszakra szépen össze tudod hasonlítani a különböző kereső robotok indexelési volumenét. Ha valamelyik robottal gond lenne, akkor az hamar ki tud itt bukni. Ha Dashboardot használsz, akkor itt egy jó minta a KPI-k meghatározására:
Szerver log datastudio dashboard kpi
HTTP státusz kód hibák szűrése
Szerver log: http státusz kód hibák megjelenítése dashboardon
Egy a fentihez hasonló dashboarddal könnyen összehasonlíthatod a szerveren található HTTP státuszokat. Itt akár riasztásokat is be lehet állítani, amik jeleznek neked minden 4xx, 5xx státuszkód esetén!
Ideiglenes átirányítások szűrése
Szerver log: 302 ideiglenes átirányítások
Az ideiglenes (302) átirányítások nem továbbítanak linkerőt, ezért ezeket ajánlott kerülni. A log fájlból könnyedén kinyerhetők az ilyen átirányítások.
Index büdzsé pazarlása
Szerver log: indexelési büdzsé pazarlása
A google nem szereti pazarolni az indexelésre szánt erőforrásait. Ezért minden weboldalhoz egy indexelési büdzsét rendel. Több szempontot is figyelembe véve, meghatározza, hogy szerinte mik a fontos oldalak és naponta mondjuk mennyi oldaladat indexeli újra. Ha olyan felesleges oldalakat hagyunk indexelni, amiből nekünk semmi hasznunk, akkor ezzel pazaroljuk az indexelhető oldalmennyiségünket. A szerver log fájlból könnyedén kiszűrhetjük azokat az elemeket, amik számunkra feleslegesek. A fenti példa azt mutatja, hogy ilyen felesleges elem lehet a wordpress sablonunk css fájlja, de a duplikált URL-ek is ilyenek.
Duplikált URL indexelés
Gyakori probléma, hogy ugyanahhoz a tartalomhoz gyakran több URL-t használunk. Tipikusan ilyen eset amikor URL paramétereket használunk. Ne feledjük el, hogy a robot számára ez a két URL két különböző URL lekérdezést jelent, holott ugyanarról az oldalról beszélünk:
https://www.ad-ops.hu/
https://www.ad-ops.hu/?utm_source=facebook &utm_medium=cpc &utm_campaign= &google_debug_tool &utm_term=debug &utm_content=textlink
Indexelési gyakoriság
Szerver log: indexelési gyakoriság
A szerver log fájlból válasszunk egy időszakot és nézzük meg, hogy a GoogleBot mely oldalainkat indexeli a leggyakrabban. Ezzel meg is határoztuk, hogy a Google szerint mik a legfontosabb tartalmaink. Minden fontos oldalad megtalálható a listában? Ha hiányzik a listából fontos oldalad, akkor változtatnod kell a belső link strukturádon, de magasabb prioritást is adhatsz az oldalnak a sitemapban.
[…] 4xx, 5xx státuszkódok kerülése […]
[…] havi egyszer érdemes ránézni a szerver log-ra! A következő mintákat […]