Helyes válasz minden SEO-kérdésre
Tele van az internet a keresőoptimalizálásról szóló információval... cikkek, blogok, videók, hírlevelek, e-bookok, fórumok, és közösségi csoportok ontják magukból a tudást. Ennek ellenére mégis nap, mint nap tapasztaljuk, hogy még a legegyszerűbb, legalapvetőbb tudnivalókkal kapcsolatban is rengeteg a félreértés. Az alábbi listában igyekszünk a laikusok számára is érthetően megfogalmazott, valóban helyes és hiteles válaszokat adni minden olyan kérdésre, amely tapasztalatunk szerint felmerülhet a keresőoptimalizálás kapcsán.
Általános SEO kérdések
Minden weboldalnak fontos a keresőoptimalizálás?
Az üzleti célú weboldalak esetében mindig fontos a keresőoptimalizálás, ha az elérni kívánt felhasználók aktívan keresnek a kínált termékekre, szolgáltatásokra, vagy magára a vállalkozásra. Tapasztalatunk szerint egy jól optimalizált weboldalak túlnyomó többségénél stabilan az organikus csatorna hozza a legtöbb látogatót és vásárlót. A Shoprenter évente végzett kutatása, a Nagy Webáruház Felmérés is évről évre megerősíti, hogy a SEO a legeredményesebb marketingcsatorna.
Milyen weboldalakat nem érdemes keresőoptimalizálni?
Személyes, vagy hobbicélú weblapokat csak akkor érdemes optimalizálni, ha egyrészt cél az új látogatók szerzése a keresőből, másrészt ha ez nem igényel túlzott mértékű anyagi, vagy egyéb ráfordítást, hiszen ilyen weblapoknál megtérülés nem várható. Passzív (hirdetés, affiliate, stb.) jövedelemszerző célú weblapoknál ugyan fontos a keresőből történő forgalomszerzés, azt azonban ilyen esetben nagyon fontos előre reálisan felmérni, hogy valóban megtérülhet-e a keresőoptimalizálásra fordított idő és pénz. A nagyon speciális réspiacokat célzó üzleti weboldalakat addig nem igazán érdemes keresőoptimalizálni, amíg a felhasználói célcsoport nem ismeri a kínált terméket/szolgáltatást, így nem is érdeklődik iránta a keresőben. Ilyen esetben többnyire más marketingcsatornákat érdemes igénybe venni a termékek ismertségének növeléséhez, vagy a szolgáltatások népszerűsítéséhez. Azonban amint megnő a releváns keresések száma, érdemes a keresőoptimalizálással is foglalkozni, lehetőleg még mielőtt a piacra belépő új versenytársak teszik ezt meg!
Hogyan ellenőrizhetem, hogy jól teljesít-e a weblapom a keresőben?
A leghasznosabb az organikus forgalom, valamint a fontos kulcsszavak/keresési kifejezések keresőpozícióinak vizsgálata. Az organikus látogatottság legegyszerűbben valamilyen népszerű webanalitikai eszköz, például a Google Analytics használatával végezhető el. Fontos tudni, hogy az általuk jelzett adatok kizárólag a weboldalak megtekintésekor sikeresen lefutott követőkód által beküldött információkat tartalmazzák, ezért konfigurációs hiba, vagy egyéb technikai probléma esetén a valósnál alacsonyabb mennyiségű, vagy egyéb módon fals adatokat fognak jelezni. A keresőforgalom mennyiségi elemzése a webszerver látogatottsági logfájlokon keresztül is elvégezhető, ám ez rendszerint meghaladja az átlagfelhasználó szakmai felkészültségét. Az organikus forgalom elemzésének másik legnépszerűbb eszköze a Google Search Console, mely a weblap keresőben való megjelenéséről megjelenési, kattintási, és elhelyezkedési (pozíció) információkkal szolgál. Az eltérő adatokon túl a legfőbb különbség az Analyticshez képest, hogy a Search Console kizárólag a találati listákról gyűjtött adatokat jeleníti meg, a webhelyről nem gyűjt ilyen adatot. Ha tehát egy felhasználó a találati listán a webhelyükre kattint, az a Search Console statisztikáiban kattintásként jelenik meg, akkor is, ha bármilyen okból nem töltődött be neki a weboldalunk, és nem vált ténylegesen látogatóvá. Azt is fontos tudni, hogy a Search Console teljesítményjelentése mintavételezett adatokra épül (bizonyos esetekben a Google Analytics is alkalmaz mintavételezést), tehát a két eszköz által kijelzett adatok az eltérő adatgyűjtés, és feldolgozás miatt soha nem fognak pontosan egyezni egymással.
Hogyan ellenőrizhetem a kulcsszavaim keresőpozícióit?
Bár a legegyszerűbben tűnhet egyszerűen rákeresni a keresőben, ez gyakran nagyon félrevezető eredményt fog adni, mert a Google a rangsorolásnál figyelembe veheti a felhasználó keresési előzményeit, valamint egyéb fontos jellemzőit. Tehát hiába látjuk mi a saját böngészőnkben egy adott pozícióban a weboldalunkat, ez nem garantálja, hogy valódi célközönségünk is ugyanezt tapasztalja. A legnépszerűbb ingyenes pozícióellenőrző eszköz a Google Search Console teljesítményjelentése. Bár alkalmas rá, hogy konkrétan egy kulcsszó-URL páros keresőpozícióját vizsgáljuk egy adott időszakra, a megjelenített érték egy mintavételezett adathalmazon történő átlagolás eredménye lesz. Trendek vizsgálatára természetesen remek eszköz, de egy konkrét pillanatnyi pozíció kimutatására nem alkalmas, nem is ez a célja. Léteznek kifejezetten kulcsszópozíció-ellenőrző szoftverek is, pl. a Website Auditor csomagban található Rank Tracker. A jobb minőségű eredményt biztosító eszközök jellemzően fizetősek, és saját tapasztalatunk szerint a hazai piacon esetenként tökéletlen eredményt biztosítanak, pl. a találati listák külföldről történő lekérdezése, vagy tényleges napi pozíciók lekérdezése helyett a napi eredmények alkalmankénti lekérdezések alapján történő "beblöffölése"". Figyelmet igényel az adatok helyes értelmezése, mert előfordulhat, hogy pl. a fő kulcsszavunk mellett virító "1. pozíció" adat valójában csak képtalálatként történő megjelenésre vonatkozik, miközben a tényleges organikus találatok között csak a harmadik oldalon jelenik meg a weboldal. Mi munkánkhoz saját fejlesztésű pozíciólekérdező rendszerünket használjuk, melynek működését folyamatosan az aktuális találati listaszerkezethez adaptáljuk. A hazai piacra nem találtunk még ennél hitelesebb rank tracker szoftvert. Sikerdíjas SEO-ügyfeleink számára díjmentesen hozzáférést biztosítunk az optimalizált kulcsszavak valódi napi pozícióit megjelenítő felületünkhöz.
Fontos, hogy 1. helyen jelenjek meg a keresőben?
Általánosságban elmondható, hogy minél jobb pozícióban jelenik meg egy weboldal a keresőben, annál magasabb az átkattintási aránya, azaz adott számú keresésből annál több látogatót tud megszerezni. A pozíción túl azonban a tényleges keresési szándék, a márkaismertség, valamint egyéb tényezők is befolyásolják, hogy a felhasználó mely találat(ok)ra fog kattintani a listán.
Például ha egy termékre irányuló keresés esetén a találati lista felépítése a következő:
- Wikipédia cikk a termékről
- Árösszehasonlító oldal
- Nagy nemzetközi marketplace oldal
- Blogcikk a termék használatáról
- Hazai KKV webáruház termékoldala
...akkor például a vásárlási céllal kereső felhasználók nem fognak sem a Wikipédiára, sem a blogcikkre kattintani.
A vásárlási céllal keresők között is lesznek olyanok, akik a marketplace oldallal szemben negatív tapasztalatokkal, vagy előítéletekkel rendelkeznek, és jó esetben olyanok is, akik már ismerik/kedvelik a hazai webáruházat.
Ilyen esetekben a hazai KKV webáruház potenciális vásárlói számára az 5. pozíció egyenértékű az 1. pozícióval, hiszen számukra valójában ez az első értékes találat a listán.
Meg lehet előzni a nagy weboldalakat?
A nemzetközileg ismert brandek, vagy az adott témában vezető régi, a találati listák élére "bebetonozott" weboldalak valóban nem könnyű ellenfelek. Különösen, ha az Ön weblapjánál sokszorosan több termék és tartalom található rajtuk! Ezek olyan, website szintű pozitív rangsorolási szignálokkal rendelkeznek, amelyekkel, egy tipikus hazai kisvállalkozás jó esetben átlagos látogatottságú weblapja nem versenyezhet. A fő kérdés az, hogy milyen keresésekre lehet és érdemes "megelőzni" őket? A saját márkanevükre biztosan nem, de ennek nem is lenne értelme. A legáltalánosabb kulcsszavakra és gyűjtőkifejezésekre is nehéz velük versenyre kelni, ha mondjuk az adott termékkategóriában ötvenszer annyi, jó minőségű terméket kínál a nagy vetélytárs, mint az Ön weboldala. Viszont az Ön termékeire, speciálisabb termékkategóriáira, és egyéb, vásárlói számára fontos kifejezésekre már egyértelműen jó esély van akár a legerősebb konkurensek előtt is megjelenni! helyesen megválasztott célokkal és kulcsszavakkal tehát nem kell félni a "nagyoktól", minden weboldal képes érezhető hasznot termelni organikus keresőforgalomból.
Milyen kulcsszavakra optimalizáljam a weboldalam?
Ezt minden esetben egy alapos kulcsszókutatás, és az elérni kívánt célok alapján kell meghatározni. Általánosságban a weboldala által kínált termékekhez/szolgáltatásokhoz kapcsolódó keresőkifejezések listájából érdemes kiindulni, majd ezeket leszűkíteni azokra, amelyek valóban az Ön számára értékes látogatókat, potenciális ügyfeleket fognak szállítani. Ezt követően a várható keresési mennyiségeket és a sikeres optimalizálás realitását kell megvizsgálni. Hiába tűzi ki célul ugyanis a legnagyobb forgalmú kulcsszavakra való optimalizálást célként, ha az erős verseny, és weblapjának aktuális állapota miatt az eredmények eléréséhez rengeteg erőforrásra, és akár évekre lesz szükség! Az ideális induló kulcsszóportfolióba mindenképp érdemes olyan kifejezéseket is választani, amelyek belátható időn belül eredményt és megtérülést hoznak. Ha hosszabb távon nehezebb kulcsszavakra is szeretnénk az élmezőnybe kerülni, akkor javasolt ezek témájához kapcsolódó, kevésbé nehéz kulcsszavakra is optimalizálni és tartalmat gyártani, mert idővel az ezek révén elért tematikus relevancia lehet a nehéz, általános kulcsszó sikerének egyik titka.
Google indexelés
Hogyan térképezi fel a Google a weboldalakat?
Keresőrobotnak, vagy röviden botnak nevezett program segítségével rendszeresen beolvassák a rendszerük által már ismert weboldalak tartalmát, és az ezeken a weboldalakon felfedezett újabb weboldalak címét is hozzáadják a feltérképezendő weboldalak listájához. Ez leegyszerűsítve azt jelenti tehát, hogy ha egy új aloldal linkje megjelenik a Google által már ismert bármely weboldalon, akkor az új weboldalt is fel fogja fedezni a Google, minden egyéb speciális teendő nélkül.
Mi a különbség a feltérképezés és az indexelés között?
A feltérképezés során a Googlebot beolvassa a feltérképezendő weboldal tartalmát. Az indexelés azt jelenti, hogy a feltérképezést és feldolgozást követően le is tárolja a weblap tartalmát, és a keresőben való megjelenítéshez szükséges adatokat. Az úgynevezett Google-index a valóságban a világ számos pontján, szerverközpontokban üzemelő számítógépek elképesztő sokasága, melyek weblapok milliárdjainak tartalmát tárolják, hogy egy adott pillanatban megfelelő találati listát szolgáltathassanak egy Google-keresésre. Ha egy URL-t a Google soha nem térképez(het) fel, akkor annak tartalma soha nem kerül(het) az indexbe. A felfedezhetőségen túl azonban több szempontnak is meg kell felelnie a weboldalnak ahhoz, hogy a Google ténylegesen be is indexelje. És önmagában az indexelés még nem garantálja, hogy a weboldal valaha is jó pozícióban jelenjen meg bármely keresésre.
Mi az oka, ha a Google nem indexeli a weboldalamat?
Elsősorban azt kell megvizsgálni, hogy egyáltalán felfedezte-e már a Google az indexeltetni kívánt URL-t. Ennek vizsgálata a Search Console URL-ellenőrzés eszközével a legegyszerűbb. Ha technikai beállítás (pl. noindex utasítás) akadályozza az indexelést, az itt rögtön ki is derül. Amennyiben látszólag minden rendben van az URL-lel, a Google fel is fedezte, ám nem indexeli, annak az esetek többségében minőségi, elsősorban tartalmi oka lehet. Ilyen esetben érdemes felülvizsgálni a weboldal tartalmát, hogy valóban szerepel rajta a felhasználók számára értékes, egyedi információ. John Mueller, a Google egyik SEO-szóvivője egyértelműen kijelentette, hogy szándékosan nem indexelnek olyan weboldalakat, amelyek tartalma nem hordoz érdemi plusz információt a már indexelt weboldalakhoz képest. Egy másik beszédében úgy fogalmazott, hogy ha nem egyértelmű, az új weboldalt miért lenne érdemesebb megjeleníteniük egy adott keresésre a már meglévő weboldalaknál, akkor nincs értelme indexelniük.
Hogyan gyorsíthatom fel egy weboldal indexelését?
A sikeres indexelés alapfeltétele a felfedezés, tehát elsősorban azt kell biztosítani, hogy legalább egy, a Google által már indexelt és rendszeresen feltérképezett weboldalon szerepeljen az új oldalra mutató hivatkozás (HTML link). A feltérképezés és indexelés meggyorsítható, ha a Search Console URL-ellenőrzés eszközében rákattint az "Indexelési kérelem" hivatkozásra. Fontos tudni, hogy egy már feltérképezett, de indexelésre alkalmatlannak tartott oldal esetén az indexelési kérelem küldése nem jár semmilyen előnnyel, felesleges újra és újra visszatérni, és beküldözgetni, amíg nem végezzük el azokat a módosításokat, amelyek révén az oldal eleget fog tenni az indexelés feltételeinek. Ha a tartalmat indexelésre alkalmasnak tartjuk, linkekkel jelezhetjük a Google számára az oldal fontosságát, ezzel elősegíthetjük az indexelést - érdemes tehát a jól teljesítő aloldalaink tartalmában, vagy akár a kezdőoldalon az új oldalra mutató hivatkozásokat elhelyezni. A sitemapben való szerepeltetés is elősegítheti az indexelést, bár nem feltétele annak, és nem is teszi kötelező érvényűvé az indexelést - mindössze egy viszonylag gyenge szignált ad a Google számára, hogy számunkra fontos az adott aloldal. Érdemes megemlíteni a Google Indexing API szolgáltatását is. Ez az eszköz alapvetően a gyorsan változó, korlátozott időtartamra megjelenítendő tartalmak gyors indexeltetésére, majd az indexből való gyors eltávolítására lett létrehozva. Hivatalosan jelenleg csak állásajánlatok, és élő videoközvetítések indexeltetésére használható. Az eszköz megjelenésével tömeges visszaélések kezdődtek, jónéhány nyílt forráskódú CMS-rendszerbe bekerült a funkció, valamint SEO-szolgáltatást kínáló weboldalak is elérhetővé tették a szolgáltatást, tartalomtípustól függetlenül. A gyakorlatban egyébként jó ideig működött is az azonnali indexeltetés, szinte tetszőleges tartalomra, azonban nem árt tudni, hogy ez a módszer sérti az eszköz felhasználási feltételeit.
Mit tegyek, ha egy weboldalamat szeretném eltávolíttatni a találati listáról?
A meta robots HTML-tagben, vagy az X-Robots_tag HTTP-válaszfejlécben állítson be "noindex" attribútumot. Az URL következő feltérképezésekor a Google az utasításnak megfelelően eltávolítja az oldalt a Google-indexből, és az nem jelenik meg a további keresésekre. Ha a lehető leggyorsabban szeretné eltávolíttatni az URL-t, a folyamat meggyorsítható a Search Console-on keresztül beküldött átmeneti eltávolítási kérelemmel (Indexelés -> Eltávolítások menüpont). Fontos, hogy ez a kérelem csak kb. 6 hónapra távolítja el az oldalt a találati listáról, ha tehát végleg, vagy ennél hosszabb időtartamra szükséges az eltávolítás, akkor mindenképp szükséges a noindex attribútum beállítása is, az eltávolítási kérelemtől függetlenül. Gyakori hiba a robots.txt Disallow direktívájának használata erre a célra, ez azonban nem az indexelést, hanem a feltérképezést tiltja. Ha tehát már be lett indexelve a nem kívánt URL, majd a robots.txt-ből letiltja a feltérképezést, akkor még az esetleg szintén beállított noindex attribútumot sem fogja észlelni a Google, és továbbra is indexelve marad az oldal, tehát nem kerül eltávolításra a találati listáról!
Mire való a noindex attribútum?
A meta robots HTML-tagben, vagy az X-Robots_tag HTTP-válaszfejlécben beállított "noindex" attribútum megtiltja az adott URL-en található tartalom indexelését, és a találati listán történő megjelenítését.
Mire való a nofollow attribútum?
A meta robots HTML-tagben, vagy az X-Robots_tag HTTP-válaszfejlécben beállított "nofollow" attributum megtiltja a weboldal tartalmában található hivatkozások (linkek) "követését". Ez azt jelenti, hogy az oldalon található linkek nem adnak át "linkerőt" a hivatkozott oldalaknak, illetve az itt szereplő, a Google számára korábban ismeretlen URL-ek nem kerülnek hozzáadásra a felfedezési listához - tehát ha máshonnan nem kapnak linket, és a Google egyéb módon sem szerez róluk tudomást, akkor sem feltérképezve, sem indexelve nem lesznek. Gyakran találkozni azzal a téves nézettel, hogy ha egy oldalra be van állítva a noindex attribútum, akkor szükségtelen a nofollow használata, hiszen a tartalmat emiatt nem olvashatja be a Googlebot, a linkeket nem találhatja meg bennük. Ez azonban nem igaz. A nofollow attributum nem blokkolja a tartalom beolvasását, csak a tárolását és kiszolgálását. Tehát a Google noindex attribútum esetén is beolvassa az oldal tartalmát, és feldolgozza a benne talált linkeket, ha a nofollow attribútum nem kerül beállításra.
Mi a sitemap?
A sitemap magyarul oldaltérképet jelent. Háromféle megvalósítása létezik: - HTML oldaltérkép: önálló aloldal a websiteon, amely böngészőben megtekinthető. Ez elsősorban a valós felhasználók számára lehet hasznos, ha megkönnyíti a website komplex struktúrájának áttekintését. A Google technikai értelemben nem tekinti sitemapnek, ám a többi weboldallal megegyező módon felfedezi és követi az itt megjelenített hivatkozásokat. Ez a gyakorlatban többnyire nem jár rangsorolási előnnyel, de a máshonnan nem hivatkozott URL-ek felfedezését lehetővé teszi. - XML sitemap: strukturált adatformátumban tartalmazza a websitehoz tartozó URL-ek listáját. Az URL-eken túl extra információval is szolgálhat a Google számára a helyes indexelés elősegítésére. Ez a formátum a legelterjedtebb és leghasznosabb az oldaltérképek között. - RSS/Atom sitemap: szintén strukturált formátumban tartalmazza az URL-ek listáját, ám az XML-sitemapeknél kevesebb információval, korlátozottabb funkcionalitással használható. - plaintext sitemap: egyszerű szöveges fájl, amely kizárólag az URL-ek listáját tartalmazza, járulékos információk nélkül. Mikor ajánlott az XML/RSS sitemap létrehozása? A Google elsősorban nagyobb webhelyeknél (500+ indexeltetni kívánt aloldal), vagy olyan URL-ek esetén ajánlja, amelyek más weboldalakon elhelyezett hivatkozásokon keresztül nem fedezhetőek fel.
Hová kell feltölteni a sitemapet?
A legelterjedtebb hely a webhely gyökerében a /sitemap.xml elérési út, de ettől eltérő, tetszőleges útvonal és fájlnév is alkalmazható. Különösen utóbbi esetben érdemes a robots.txt fájlban, vagy a Search Console Webhelytérképek eszközén keresztül a Googlebot tudomására hozni az oldaltérkép elérhetőségét. A Search Console-on történő beküldés hiányában a sitemap csak a szülőkönyvtárban elhelyezett oldalakra van hatással, már csak ezért is érdemes tehát a webhely gyökerében elhelyezni, hiszen így automatikusan a teljes webhely összes aloldalára érvényes lesz.
Mire kell ügyelni a sitemap esetén?
A legfontosabb, hogy ha használunk sitemapet, az folyamatosan frissítve tartalmazza a webhely összes, indexeltetni kívánt URL-ét, és ne tartalmazzon olyan URL-eket, amelyek indexelése szükségtelen, vagy káros lehet. Karakterkódolásként minden esetben UTF-8 kódolást kell használni, még akkor is, ha a weblap oldalai egyébként más kódolással jelennek meg a böngészőkben. Ha az URL-ek száma meghaladja az 50.000-et, vagy a sitemap fájl tömörítetlen mérete az 50MB-ot, akkor több, kisebb, különálló sitemapben kell szerepeltetni az URL-eket, és ezeket egy közös, sitemap index fájlban listázni.
Milyen extra információkat vesz figyelembe a Google az XML-sitemapből?
A legfontosabb, hogy a sitemapben szerepeltetett URL-eket a webhely tulajdonosa által preferált kanonikus URL-nek tekinti. Ez különösen akkor segíti elő a találati listán a megfelelő URL-ek megjelenítését, ha egyes tartalmak több, hasonló URL alatt is elérhetőek (pl. eltérően rendezett termékkategória oldalak). A Google figyelembe veszi továbbá a tartalom frissességére vonatkozó
Milyen információkat nem vesz figyelembe a Google az XML-sitemapből?
A Google a feldolgozás során figyelmen kívül hagyja a hivatalos sitemap protokoll szerint egyes URL-ek fontosságára utaló
Milyen esetben érdemes több sitemapet beküldeni a Search Consoleba?
Különösen nagyméretű webhelyek esetén természetes jelenség, hogy az URL-ek egy része csak igen ritkán, vagy egyáltalán nem kerül feldolgozásra, még akkor sem, ha ezek egyébként szerepelnek az oldaltérképben. Ilyen esetben érdemes lehet kisebb, az URL-ek valamilyen szempont alapján elkülönített csoportját külön sitemapben szerepeltetni, és ezt a fő sitemap mellett külön beküldeni a Search Console oldaltérkép eszközében. Ezáltal elkülönítetten elemzhetővé válnak a Search Console Webhelytérképek eszközében az adott URL-csoportra vonatkozó indexelési adatok.
Mire való a robots.txt fájl?
Ezen a szöveges fájlon keresztül szabályozható, hogy a weboldal mely tartalmaihoz férhetnek hozzá a különböző feltérképező robotok, és melyek tiltottak számukra. A Googlebot naponta legalább 1 alkalommal beolvassa a robots.txt fájl tartalmát, és a szabályokat alkalmazza a további feltérképezés során. Fontos tudni, hogy a robots.txt szabályok betartása nem kötelező érvényű, ezért a kéretlen/rosszindulatú botok jellemzően nem veszik figyelembe, az ellenük történő védekezésre nem alkalmas!
Hová kell feltölteni a robots.txt fájlt?
A robots.txt fájlt minden esetben a webhely gyökerében kell létrehozni: /robots.txt Más könyvtárba, vagy más néven feltöltve semelyik bot nem veszi figyelembe. Ha egy domainhez aldomainek is tartoznak, úgy minden egyes aldomainhez külön robots.txt fájl hozható létre az egyes aldomainek gyökérkönyvtáraiban, tetszőlegesen eltérő szabályrendszerrel.
Hiba a nem létező robots.txt fájl?
Ha a webhely semelyik részén nem kívánjuk korlátozni a botok általi feltérképezést, nem szükséges robots.txt fájlt feltölteni. A robots.txt fájl hiánya nem okoz semmilyen indexelési, vagy rangsorolási problémát, amennyiben szabályos 404 HTTP-választ ad a szerver az URL-kérelemre.
Milyen szabályok adhatóak meg a robots.txt fájlban?
Konkrét URL-ekre, könyvtárakra, vagy speciális szabályok megadásával URL-csoportokra engedélyezhetjük, vagy tilthatjuk a feltérképezést. Speciális szabályként a * wildcard használata szabványos, ezzel tetszőleges karaktersorozatot helyettesíthetünk. Pl. a /valami-* szabály minden /valami karaktersorozatot tartalmazó URL-re érvényes. A robots.txt specifikáció hivatalosan nem támogatja a reguláris kifejezések használatát, ám a Googlebot a végződést jelentő $ wildcardot is figyelembe veszi. Pl. a *-valami$ szabály csak a -valami végződésű URL-ekre érvényesül, míg a *-valami szabály minden olyan URL-re, amely bárhol tartalmazza a -valami karaktersorozatot. Az Allow: direktívában megadott szabályokkal engedélyezhetjük a feltérképezést, a Disallow: direktívában megadott szabályokkal pedig tilthatjuk. Az egyes szabálycsoportok előtt megadott User-Agent: direktívával szabálycsoportonként szabályozhatjuk, hogy azok mely robotokra vonatkoznak. Végül a Sitemap: direktívában megadhatjuk az oldaltérkép teljes elérési útvonalát. Ez különösen akkor fontos, ha az oldaltérkép nem a standard /sitemap.xml útvonalon érhető el, és nem is küldtük be azt a Search Console eszközbe feldolgozásra.
Fontos: a robots.txt feldolgozásakor több, azonos URL-re vonatkozó szabály esetén mindig a legpontosabban egyező szabály érvényesül, függetlenül a fájlban szereplő utasítások sorrendjétől!
Tehát pl. ha
Allow: /tilos/szabad.html
Disallow: /tilos/
szerepel a robots.txt fájlunkban, akkor a /tilos/szabad.html URL feltérképezése engedélyezett, hiába tiltottuk egyébként a teljes /tilos/ könyvtár tartalmának feltérképezését, és az sem akadályozza ezt meg, hogy a tiltó szabály az engedélyező után került megadásra!
Milyen hibákat okozhat a helytelen robots.txt fájl?
Nem hiba ugyan, de a leggyakoribb probléma, ha a nemkívánatos URL-ek feltérképezése nincs letiltva. Ez duplikált tartalmak, vagy gyenge minőségű oldalak indexelése révén hátrányos optimalizálási szempontból. Ennek az ellentéte, amikor a kellő szakértelem hiányával párosuló túlbuzgóságból, vagy figyelmetlenül felírt szabályokkal fontos tartalmak feltérképezése kerül tiltásra. Az is tipikus probléma, amikor a weblap megjelenéséhez szükséges css, js fájlokat tartalmazó könyvtárakat tilt a robots.txt fájl. Mivel a Google a feldolgozás során lerendereli az oldal tényleges megjelenését, az ezekhez szükséges fájlokhoz való hozzáférés hiánya miatt hibás, szétesett oldalképet generál, majd ez alapján rossz mobilos használhatóságot és oldalélményt társít a weboldalhoz, amely jelentős hátrányt jelent a rangsorolásban. A tartalomban megjelenített képek és egyéb médiaelemek tiltása szintén rontja az oldal rangsorolását, hiszen elvész az ezek feltérképezéséből származó előny - és a képek így természetesen a Google Képkeresőben sem fognak megjelenni, ami témakörtől függően jelentős látogatottságvesztést okozhat. A legsúlyosabb hiba, amivel már többször találkoztunk pályafutásunk során, ha hibás szerverkonfiguráció, vagy programhiba miatt a szerver 5xx válaszkódot ad a robots.txt megnyitásakor. Ez ahhoz vezet, hogy a Google leállítja a teljes website feltérképezését, és idővel a már korábban esetleg indexelt tartalmak rangsorolására is negatívan hat!
Tehát pontosan mi a különbség a robots.txt és a noindex tiltás között?
A meta robots tagben, vagy a X-Robots-Tag HTTP-fejlécben beállított noindex attribútum a weboldal indexelését tiltja meg. Már indexelt oldal esetén a noindex beállítása eltávolítja az oldalt a Google-indexből. A noindex nem tiltja az oldal feltérképezését, sőt, a felfedezése és betartása csak abban az esetben történhet meg, ha a engedélyezve van a feltérképezés. A robots.txt-ben beállított tiltás a feltérképezést tiltja meg. A korábban már indexelt tartalmak a feltérképezés tiltása után is az indexben maradnak, a legutolsó feltérképezés során beolvasott tartalommal. A tiltás után frissített tartalom már nem fog indexelésre kerülni, és az ekkor beállított noindex attribútum sem kerül felfedezésre, így alkalmazásra sem.
Google rangsorolás
Mi a Google-algoritmus?
Az a rendkívül komplex program, amely meghatározza, hogy egy adott keresésre mely weblapok, és milyen sorrendben jelenjenek meg a találati listán. Pontos működése nem nyilvános. A SEO-szakértők egyrészt a Google hivatalos útmutatóin és egyéb kapcsolódó információin, valamint a Google által bejegyzett szabadalmak megismerésén, másrészt saját, vagy mások által megosztott tapasztalatok révén igyekeznek minél jobban megérteni a működését.
Hogyan rangsorolja a Google a weboldalakat a találati listán?
A keresőmotor által indexelt tartalmakról, valamint a keresést végző felhasználóról tárolt információk alapján több száz - egyesek szerint ma már több ezer - rangsorolási szignál figyelembevételével határozza meg a megjelenített weblapok találati sorrendjét. A keresőalgoritmus normál működése, hogy nincs "fix", állandó találati sorrend, hanem ez számos tényezőtől függően akár keresésről keresésre változhat, még ha egy emberi felhasználó számára ez nem is tűnik fel.
Mik a rangsorolás legfontosabb szempontjai 2024-ben?
Bár az eredeti algoritmus legfőbb eleme az akkor forradalmi újdonságnak számító, linkek alapján rangsoroló PageRank rendszer volt, ez a könnyű manipulálhatóság miatt folyamatosan változott, ma már jórészt háttérbe szorult. Gary Illyes, a Google Search csapat analitikusa és szóvivője 2024-ben nyilvánosan bejelentette, hogy a linkek ugyan továbbra is fontosak, de már nem tartoznak a top 3 rangsorolási tényező közé. Bár a top 3 tényezőt nem nevezte meg, ezeket a Google jelenlegi információi alapján nagy valószínűséggel a hasznos/hiteles tartalom, az oldalélmény, és a felhasználói viselkedés jelentik.
Mik az algoritmusfrissítés fajtái?
A Google célja a lehető legjobb minőségű találatok kiszolgálása, emiatt folyamatosan ellenőrzik a találataik minőségét, és kisebb-nagyobb mértékben finomítják az azokat kiszolgáló algoritmust. - kisebb, akár tesztjellegű, akár végleges módosításokat naponta több alkalommal is végeznek az algoritmus egyes alrendszerein. Ezek hatása többnyire nem feltűnő sem az átlagfelhasználók, sem a szakértők számára. - időszakos frissítéseket évente több alkalommal, előre nem tudható időpontokban végeznek. Ezek célja gyakran az épp népszerű manipulatív SEO-technikák elleni védekezés (ilyenek voltak korábban a hírhedt Panda és Pingvin algoritmusfrissítések, de ebbe a csoportba sorolható a 2022-2024 között 3 alkalommal lefutott időszakos HCU (Helpful Content Update) algoritmusfrissítés is, mely 2024 márciusában vált az alapalgoritmus részévé. Az ilyen algoritmusfrissítések sajátossága, hogy futtatásuk során az általuk nemkívánatosnak talált aloldalakat, vagy webhelyeket "megcímkézik". A megcímkézett oldalak minden egyéb tényezőtől függetlenül, jelentősen hátrébb rangsorolódnak, vagy akár teljes egészében eltávolításra is kerülhetnek a találati listákról. Ezek a frissítések többnyire jól láthatóan átrendezik a találati listákat, hatásuk ráadásul az adott algoritmus következő időszakos frissítéséig (vagy alapalgoritmusba integrálásáig) fennmarad, ezalatt semmit nem lehet tenni ellene. Az időszakos frissítések másik csoportja nem ennyire drasztikus, ezek vagy egy meglévő rangsorolási koncepció újragondolt változatának az alapalgoritmusba integrálása előtti tesztként funkcionálnak, vagy speciális jellegű keresések, pl. egészségügyi, vagy pénzügyi témakörben tapasztalható anomáliákat igyekeznek megoldani. - a legátfogóbb frissítések az úgynevezett Core (alapalgoritmus) frissítések, melyek során a teljes rangsoroló rendszert újraépítik. Ilyenkor kerülnek az alaprendszerbe a korábban időszakos frissítésekben futtatott algoritmusok végleges változatai, valamint finomítják és javítják az egyes alrendszerek hatékonyságát. Bár a core frissítések a legösszetettebbek, néhány kivételtől eltekintve jellemzően nem okoznak jelentős felfordulást a találatok sorrendjében.
Honnan lehet tájékozódni az algoritmusfrissítésekről?
A hivatalos forrás a Google Search Status oldalán érhető el: https://status.search.google.com/products/rGHU1u87FJnkP6W2GwMi/history Ez ugyan elég szűkszavúnak tekinthető, ám egyértelműen hiteles. Természetesen számtalan SEO-portál is vezet listát az algoritmusfrissítésekről, mint például a Search Engine Journal: https://www.searchenginejournal.com/google-algorithm-history/ A szakértői listák igyekeznek informatívabbak lenni, ám extra infóik nagyrésze spekuláció, így érdemes némi fenntartással kezelni őket. A független frissítés-listákon gyakran megjelenik a "meg nem erősített algoritmusfrissítés" fogalma is. Ezek időpontját a különböző rank tracker szoftverek által a találati listák sorrendjében észlelt, az átlagosnál nagyobb mértékű fluktuációhoz kötik, ha ilyen esetekben a Google egyébként nem tesz közzé hivatalos információt.
Mi a teendő, ha egy algoritmusfrissítés után visszaesik az organikus forgalom?
Először is meg kell bizonyosodni róla, hogy valóban visszaesett-e a forgalom, nem csak mérési hibáról van szó (pl. Google Analytics). Erre legcélszerűbb a Search Console teljesítményjelentését használni. Amennyiben valóban történt visszaesés, akkor azt kell vizsgálni, hogy konkrétan mely aloldalakat és kulcsszavakat érintett a változás, és zajlott-e a visszaesés időpontjában algoritmusfrissítés. Ha zajlott, akkor érdemes minél több hitelesnek tekinthető forrásból tájékozódni, milyen változásokkal járt az algoritmusfrissítés, és ezek melyike érinthette negatívan weboldalunkat. Első körben a fejvesztett kapkodás helyett mindig érdemes néhány napot, akár 1-2 hetet várni, mert gyakran előfordul, hogy maguktól helyreállnak az eredmények. Ha azonban komoly a probléma, és vélhetően sikerült is azonosítani az okokat, akkor ennek függvényében kell megtenni a szükséges lépéseket. Alapalgoritmus frissítéskor a Google jellemzően azt a tanácsot adja, hogy nincs különösebb, konkrét teendő a weboldallal - ha mégis változtatni szeretnénk bármin, akkor tegyük azt a felhasználóink számára hasznosabbá, ne az algoritmus technikai elemeire fókuszáljunk. Ez ugyan általánosságban jó tanács, ha azonban van konkrét sejtésünk, hogy az új algoritmusnak pontosan miben nem felel meg a weboldalunk, akkor érdemes arra fókuszálni. Ha jó irányba indultunk, ilyen esetben a megfelelő rangsorolási szignálok frissülése után megtörténik a pozíciójavulás. Időszakos algoritmusfrissítések esetén rosszabb lehet a helyzet, hiszen ilyenkor hiába hárítjuk el a problémát, előfordulhat, hogy a helyezések a címkézésből adódóan a következő releváns algoritmusfrissítésig nem fognak javulni. Speciális eset, amikor egy spam elleni algoritmusfrissítés eredményeként a weblapunkra mutató linkek egy része értékét veszti. Ez esetben nincs mit helyreállítani, az ezekből adódó rangsorolási előny végérvényesen elveszik, hibaelhárítás helyett tehát más, jó minőségű módszerekkel kell az eredmények visszaszerzéséről gondoskodni.
Hogyan hat a mesterséges intelligencia a rangsorolásra?
Az elmúlt években az AI rohamos fejlődése alaposan a feje tetejére állította a keresőoptimalizálást. Egyrészt ma már a Google algoritmus legtöbb eleme is AI-alapú modellekre épül, emiatt a korábbi, viszonylag egyszerűnek tekinthető rangsorolási tényezők egyre inkább kiszorulnak a rengeteg adatpontra épülő, komplex folyamatból. Másrészt az AI által elérhetővé tett automatizált tartalomgyártás alaposan feladta a leckét a Googlenek, hiszen a tömegesen generált, értékes információt nem hordozó tartalmak olyan mennyiségben jelentek meg, amelyek feldolgozása még a Google elképesztő kapacitású erőforrásait is túlterhelte, ráadásul a találati listák minőségét is rombolta. Válaszlépésként a Google bevezette a "hasznos tartalom" (helpful content) algoritmust, mely jelentősen csökkenti az indexelésre jóváhagyott tartalmak listáját, az értéktelennek minősített indexelt tartalmakat, vagy akár komplett webhelyeket pedig hátrasorolja. Ez az algoritmus jelenleg a legjobb SEO-szakértők számára is komoly fejtörést tud okozni, hiszen sok esetben nem egyszerű eldönteni, hogy egy adott tartalom mi miatt minősül haszontalannak a Google-algoritmus számára, vagy egyáltalán a helpful content algoritmus áll-e egy organikus látogatottságcsökkenés hátterében. Egy biztos: a keresőoptimalizálásban az AI térhódításával egyre több, hagyományosan fontosnak tartott mutató válik elavulttá, vagy kontextusból kiragadva haszontalanná. A sikeres optimalizálásban ma a releváns gyakorlati tapasztalat többet ér az elméleti tudásnál, és az elemzéshez használt szoftverek adathalmazánál.
Technikai SEO
Mit jelent egyáltalán a technikai SEO?
Mikre kell ügyelni a weblap szerkezeti kialakításánál?
Milyen a jó weblap sablon?
Mik a HTTP-válaszkódok?
Mi a HTTP-válaszkódok hatása az indexelésre?
Milyen a SEO-szempontból helyes átirányítás?
Mik a 301 és 302 átirányítások közti legfőbb különbségek?
Milyen 301 átirányításra van szüksége minden webhelynek?
Mire való a canonical tag?
Mi az önhivatkozó canonical?
Mikor fontos a canonical tag használata?
Hogyan ne használjuk a canonical taget?
Mi a közös a canonical tagben és a 301 átirányításban?
Fontos, hogy a weboldal mobilbarát kialakítású legyen?
Probléma, ha mobilon és asztali számítógépen eltérő tartalom jelenik meg a weblapon?
Fontos az oldalbetöltési sebesség?
Hogyan javítható az oldalbetöltési sebesség?
Melyek a PageSpeed legkönnyebben javítható elemei?
- Kezdeti szerverválaszidő: gondoskodjon róla, hogy webhelye megfelelően gyors tárhelyen üzemel. Ha ez önmagában nem elég, gyorsítótárazással (cache) többnyire jelentősen javítható ez az érték.
- Méretezze megfelelően a képeket: fontos, hogy a weblapon megjelenő képek akkora méretben legyenek feltöltve, amekkorában ténylegesen meg fognak jelenni. Gyakori hiba a telefonról/fényképezőgépről letöltött kép leméretezés nélküli feltöltése a weblapra - ez ugyan az esetek többségében a kívánt méretben jelenik meg a weblapon, ám hatalmas mérete jelentősen rontja a betöltési sebességet!
- Kódolja hatékonyan a képeket: a weblapon megjelenő képek a megfelelő minőséghez elegendő legerősebb tömörítéssel legyenek elmentve, ez jelentősen csökkenti a fájlméretet és a betöltési időt.
- Jelenítse meg a képeket következő generációs formátumokban: a webp képformátumot minden elterjedt böngésző aktuális verziója támogatja már. Használata jelentősen javíthatja a PageSpeed értéket. Amennyiben a webhelyet régebbi, inkompatibilis böngészőkkel is látogatják a felhasználók, a legjobb gyakorlat továbbra is a jpeg képek használata, és webp-konverter segítségével a kompatibilis böngészők részére webp kódolású kép kiszolgálása - a Googlebot ez esetben a webp képet fogja feldolgozni.
-
Engedélyezze a szövegtömörítést: A tartalom tömörített kiszolgálása jelentősen csökkenti a sávszélesség-használatot, ezáltal gyorsítja az oldalbetöltést. Legegyszerűbb megvalósítása az alábbi kódrészlet elhelyezése a .htaccess fájlban:
SetOutputFilter DEFLATE AddOutputFilterByType DEFLATE text/html text/css text/plain text/xml application/x-javascript application/x-httpd-php BrowserMatch ^Mozilla/4 gzip-only-text/html BrowserMatch ^Mozilla/4\.0[678] no-gzip BrowserMatch \bMSIE !no-gzip !gzip-only-text/html BrowserMatch \bMSI[E] !no-gzip !gzip-only-text/html SetEnvIfNoCase Request_URI \.(?:gif|jpe?g|png)$ no-gzip Header append Vary User-Agent env=!dont-vary
-
Jelenítse meg a statikus eszközöket hatékony gyorsítótár-házirend használatával: a ritkán módosuló képek, videók, fontok, js-, és css fájlok böngészőoldali gyorsítótárazása megelőzi ezen fájlok indokolatlan többszöri letöltését, így csökkenti a sávszélesség-használatot, és javítja a betöltési sebességet. A gyorsítótárazás javasolt időtartama 1 év. Legegyszerűbb megvalósítása az alábbi kódrészlet elhelyezése a .htaccess fájlban:
Header set Cache-Control "max-age=31536000" - Csökkentse a harmadik felek kódjai által kiváltott hatást: a külső szolgáltatóktól beolvasott fájlok jelentősen lassíthatják az oldal betöltődését. Érdemes például a webfontokat lokálisan, a saját szerverről kiszolgálva megjeleníteni.
- Késleltesse a képernyőn kívüli képek betöltését: a tartalom görgetés nélkül nem látható, alsóbb régióiban megjelenő képek alapértelmezetten az oldala megnyitásakor azonnal letöltésre kerülnek, ez azonban lassítja az oldal betöltődését. Érdemes ezen képeknél az img tagen a loading="lazy" HTML-attributumot használni, melynek hatására csak akkor töltődnek le a képek a böngészőbe, ha a felhasználó ténylegesen odagörget.
-
Csatlakozzon előre a szükséges forrásokhoz: ha külső szolgáltatóktól származó betűkészletek, követőkódok, videók, vagy egyéb, az oldalbetöltést lassító elemeket használ a weboldal, ezek betöltése némileg gyorsítható a kiszolgálójukhoz történő korai csaatlakozással. Ehhez a HTML headben, még az elem beolvasása előtt helyezzünk el preconnect, vagy dns-prefetch attribútumú link taget, pl. az alábbi módon:
<link rel="preconnect" href="https://www.google-analytics.com">
-
A legnagyobb vizuális tartalomválasz képének előtöltése: az LCP (Largest Contentful Paint) a Core Web Vitals egyik fontos mutatója, és a képernyőn a betöltést követően, görgetén nélkül megjelenő legnagyobb méretű tartalomblokk megjelenítési idején alapul. Ez a modern megjelenésű weboldalaknál gyakran egy nagyméretű képet jelent, melynek letöltése pusztán a viszonylag nagy fájlméret miatt lassú lehet. A HTML headben elhelyezett előtöltő kóddal már a betöltés elején megkezdhető a képfájl letöltése, mely jótékonyan hathat az LCP-értékre, ezáltal pedig a PageSpeed pontszámra is - és ezen felül természetesen a tényleges felhasználói élményt is javítja a gyorsabb képmegjelenítés. Példakód:
<link rel="preload" fetchpriority="high" as="image" href="/kepkonyvtar/nagymeretu-fejleckep.jpg" type="image/jpeg">
Mit jelent a jó oldalélmény?
Mik a strukturált adatok?
Fontos a strukturált adatok használata?
Fontos a tárhely minősége?
Számít, hogy hazai, vagy külföldi tárhelyszolgáltatónál üzemel a weboldalam?
Milyen a jó belső linkstruktúra?
Milyen hatással van a breadcrumb (morzsamenü) a belső linkstruktúrára?
Fontosak a tartalomba ágyazott belső linkek?
Mire ügyeljek egy URL módosításakor?
Mire ügyeljek tömeges URL-módosításkor?
Domainek, aldomainek
Számít a domainnév a rangsorolásban?
Milyen a jó domainnév?
Fontos, hogy kulcsszavas domaint használjak?
Mi a TLD, és mi a hatása a keresőoptimalizálásra?
Tartalomoptimalizálás
Mennyire fontos a tartalom a keresőoptimalizálásban?
Milyen a jó tartalom?
Mi az E-E-A-T?
Mit jelent a Google szerint a hasznos tartalom?
A keresőmotornak, vagy a felhasználónak gyártsak tartalmat?
Érdemes ChatGPT-t, vagy más AI-eszközt használni a tartalomgyártáshoz?
Milyen tartalmi elemeket nem indexel a Google?
Mit jelent a duplikált tartalom?
Mik a tartalomduplikáció leggyakoribb formái?
Okoz duplikációs problémát, ha a weblapomon ismétlődő tartalmak is szerepelnek?
Hogyan válasszak megfelelő céloldalt a kulcsszavakhoz?
Mit jelent a kulcsszó-kannibalizáció?
Milyen esetben okozhat valóban problémát a kulcsszó-kannibalizáció?
Fontos a kulcsszósűrűség?
Érdemes SEO-céllal blogolni?
A saját domainen, vagy külső domainen érdemes a blogot elhelyezni?
A szövegen kívül milyen fontos elemei lehetnek a tartalomnak?
Mik azok a kép altok és hogyan érdemes őket használni?
Többnyelvű weboldalak
Mikor érdemes a tartalmat több nyelven megjeleníteni?
Hogyan érdemes az idegen nyelvű tartalmat lefordítani?
Több domain alatt, aldomainek alatt, vagy alkönyvtár alatt érdemes az eltérő nyelvű tartalmakat megjeleníteni?
Érdemes eltérő nyelvű oldalakat létrehozni, amíg nem áll rendelkezésre a teljes tartalom az adott nyelven?
Mi a hreflang attributum?
Mi történik egy hreflanggal összekapcsolt URL törlésekor, vagy noindexre állításakor?
Szeretné valóban tapasztalt szakértőkre bízni weblapja teljeskörű keresőoptimalizálását?