2019.06.11. in marketing és pr

Mi az a technikai SEO? – 8 dolog, amit mindenkinek tudni kell

Mi az a technikai SEO? – 8 dolog, amit mindenkinek tudni kell. Olvassa el blogbejegyzésünket!

A technikai SEO-ra vonatkozó SEO alapismeretek álláspontja ellentmondásosnak tűnhet. Mindazonáltal néhány alapvető, technikai oldalról nézett SEO-tudás jelenti a különbséget egy magas rangú webhely és egy egyáltalán nem rangsorolt webhely között.

A technikai SEO nem könnyű, de most megpróbáljuk megmagyarázni, mely szempontokra érdemes ügyelni a webhely műszaki alapjaival kapcsolatosan.

Mi a technikai SEO?

Ez a SEO-tevékenység a weboldal technikai paramétereinek javítására vonatkozik annak érdekében, hogy növeljük a keresőmotorok oldalain történő rangsorolásunkat. A weboldal gyorsabbá, könnyebben feltérképezhetővé és a keresőmotorok számára érthetővé tétele a műszaki optimalizálás alappilléreit jelenti. A technikai SEO része az általánosan ismert tartalmi SEO-nak (on-page SEO vagy akár on-site SEO), amely a webhelyen található elemek (tartalom, szövegírás) javítására összpontosít, a kereső rangsorban elért magasabb hely érdekében. Ezután következhet ennek ellenkezője az off-page SEO, ami a webhelyre irányuló, más csatornákon keresztül történő expozíció létrehozásáról szól. Azaz arról, hogy hány egyéb weboldal hivatkozik a weboldalra, annak tartalmára mint hiteles forrás?

Miért kell technikailag optimalizálnia a webhelyet?

A Google és más keresőmotorok a lehető legjobb eredményeket szeretnék tálalni a felhasználóknak a lekérdezésükhöz. Ebből adódóan a Google robotjai számos tényezőt, faktort vesznek figyelembe, amikor feltérképezik és értékelik a weboldalakat. Néhány tényező a felhasználó élményein alapul, mint például az oldalak gyors betöltése. Egyéb tényezők segítenek a keresőmotorok robotjainak megértésében. Ezek többek között a strukturált adatok. Tehát a technikai szempontok javításával a keresőmotorok feltérképezhetik és megérthetik az adott webhelyet. Ha jól csináljuk, akkor előkelőbb Google-kereső helyezéssel vagy akár jóval több látogatóval jutalmaznak.

De fordítva is működik. Ha komoly technikai hibákat hagyunk a webhelyen, akkor annak költsége is lehet. A nem megfelelő hozzáértés eredménye lehet, hogy ha valaki teljes mértékben blokkolja a keresőmotorokat a webhelyének feltérképezésekor, mert véletlenszerűen hozzáad egy hibás utasítást a robots.txt fájljában.

Téves elképzelés, hogy csak a keresőmotorok miatt kell a weboldalak technikai adataira összpontosítania. Egy weboldalnak alapból jól kell működnie – gyors, világos és könnyen használhatónak kell lennie – elsősorban a felhasználók számára.

Mik a technikai szempontból optimalizált weboldal jellemzői?

Egy technikailag megbízható webhely a felhasználók számára gyors és könnyen feltérképezhető a keresőmotorok számára. A megfelelő műszaki beállítás segít megérteni a keresőmotorok számára a site lényegét, továbbá megakadályozza például a kettős tartalom által okozott zavart. Ezen kívül nem küldi a látogatókat és a keresőmotorokat sem „zsákutcákba” egy-egy nem működő link révén.

Mik a technikai szempontból optimalizált weboldal jellemzői? Olvassa el blogbejegyzésünket!

1. Gyorsaság

Manapság a weboldalaknak gyorsan be kell tölteniük. Az emberek türelmetlenek és nem akarják megvárni, amíg egy lassú oldal megnyílik. Már a 2016-os a kutatások is azt mutatták, hogy a mobilos weboldal-látogatók 53%-a hagyja el a site-ot, ha a weblap három másodpercen belül nem nyílik meg. Tehát, ha a webhely lassú, az emberek csalódnak, és egy másik webhelyre lépnek és bukjuk az összes forgalmat.

A Google úgy gondolja, hogy a lassú weboldalak az optimálisnál kevesebb élményt kínálnak. Ezért inkább a gyorsabban töltődő weboldalakat részesítik előnyben. Kíváncsi, hogy a webhelye elég gyors? Ellenőrizze!

2. Feltérképezhetőség a keresőmotorok számára

A keresőmotorok robotokat vagy kereső pókokat (nagy keresőmotorok által használt szoftverek) használnak a webhelyek feltérképezéséhez. A robotok követik a linkeket a webhely tartalmának felfedezéséhez. A nagy belső összekötő szerkezet biztosítja, hogy megértsék, mi a webhelyé legfontosabb tartalma.

Viszont van lehetőség a robotok irányítására. Például blokkolhatjuk őket bizonyos tartalmak feltérképezésétől, ha nem akarjuk, hogy odamenjenek.

Robot txt. file

A robots.txt fájl tájékoztatja a keresőmotorok feltérképező robotjait, hogy melyek azok az oldalak és fájlok, amelyeket lekérhetnek webhelyéről, vagy melyek azok, amelyeket nem. Ez leginkább a kérések okozta túlterhelés elkerülésére szolgál; nem így kell megakadályoznia, hogy bizonyos weboldalak megjelenjenek a Google rendszerében. Ha nem szeretné, hogy valamely weboldal megjelenjen a Google rendszerében, használjon noindex címkéket vagy direktívákat, esetleg védje jelszóval az oldalt.

A robots.txt fájl nem kényszerítheti adott viselkedésre a feltérképező robotokat a webhelyen, a benne szereplőutasítások inkább irányelvekként szolgálnak a webhelyhez hozzáférő robotok számára.

Meta tag robots

A meta tag robots metacímkével kereső robotoknak adhatunk utasításokat a webtartalom indexelésére vonatkozóan. A kereső robot a weboldalra érkezéskor a <head> szakaszban megnézi, milyen utasításokat adtak meg neki az adott aloldalra vonatkozóan. A leírás és a kulcsszó metacímke jellemzően minden aloldalon egyedi, de a robots metacímke lehet ugyanaz, hiszen nem fog minden egyes tartalomnak változni az indexelési beállítása.

A legfontosabb meta tag robots metacímkék az alábbiak:

<meta name=”robots” content=”index, follow”>
Ez arra utasítja a robotokat, hogy az oldal tartalmát indexelje. Az oldalon levő hivatkozásokat kövesse, azaz az indexelési folyamatban menjen tovább az oldalon levő linkekre is. Ez a leggyakoribb utasítás, melyet minden oldalon célszerű elhelyezni, amelyiket szeretnék a keresők számára elérhetővé tenni. Alapbeállításként megadhatjuk a fenti utasítást, majd a kivételeket (azokat az oldalakat, melyeket nem szeretnénk a keresőben látni) külön szabályozzuk.

<meta name=”robots” content=”index, nofollow”>
A fenti meta tag arra ad utasítást a robotoknak, hogy az oldal tartalmát indexelje, de az oldalon levő linkekre ne lépjen tovább, azok tartalmát ne indexelje. Ekkor az oldalon levő linkek nem lesznek a keresőben.

<meta name=”robots” content=”noindex, follow”>
Ezzel a meta tag utasítással azt jelezzük a robotok felé, hogy az oldal tartalmát ne indexeljék, de a rajta elhelyezett linkeket kövessék.

3. Ne legyen sok halott link!

Ami még a lassú oldalnál is bosszantóbb lehet a látogatók számára, az olyan link, amely 404-es oldalra visz. A keresőmotorok hajlamosabbak hamarabb megtalálni a „döglött oldalakat”, mint a látogatók. Mert ők követik az összes kapcsolatot és még azt is látják, amik rejtve vannak.

Sajnos a legtöbb webhelynek van (legalább) néhány elhalt kapcsolata, mert egy weboldalon folyamatos a munka. Születnek és esetlegesen tűnnek el tartalmak. Szerencsére vannak olyan eszközök, amelyek segítenek a 404-es linkek ellenőrzésében és hozzájárulnak a technikai SEO-hoz.

4. Duplikált tartalom

Ha ugyanazon a tartalom van a webhely több oldalán, vagy akár más webhelyeken is megtalálható a tartalom, akkor ez a keresőprogramok számára összetéveszthető. Mert, ha ezek az oldalak ugyanazt a tartalmat mutatják, akkor melyik legyen a legmagasabb rangú? Ez olyan, mintha két útjelző tábla két irányba, de ugyanazt a helyet mutatná. Ez pedig felesleges kulcsszó-konkurenciát jelent.

Sajnos lehet, hogy anélkül, hogy tudnánk, vannak duplikált tartalmak. Technikai okok miatt például a különböző URL-ek ugyanazt a tartalmat jeleníthetik meg. Egy látogató számára ez nem jelent különbséget, de egy keresőmotor számára igen. Szerencsére van egy technikai megoldás erre a kérdésre. A kanonikus címkék azt jelzik a – legtöbb – keresőmotornak, hogy melyik oldalt kell előnyben részesíteniük, abban az esetben, ha két URL azonos, vagy egymás másolatai. Fontos, hogy a weboldal reszponzív legyen, így a mobilos tartalom nem duplikációként jelenik meg. A megfelelő tecnikai SEO érdekében minimum azt oldjuk meg, hogy a www és anélküli honlapváltozat közül csak az egyik jelenjen meg, a másik legyen átirányítva.

5. Biztonság

A technikailag optimalizált weboldal biztonságos webhely. Napjainkban alapvető követelmény, hogy a webhely biztonságos legyen a felhasználók számára, hogy garantálják a magánélet védelmét. A WordPress weboldal biztonságossá tételének, és az egyik legfontosabb rész a https megvalósítása.

A https gondoskodik arról, hogy ha az emberek bejelentkeznek a webhelyre, akkor a hitelesítő adatok biztonságosak. Szükség lesz egy úgynevezett ssl-tanúsítványra a https webhelyen történő megvalósításához. A Google elismeri a biztonság fontosságát, ezért https biztonságos webhelyek magasabb rendűek, mint a nem biztonságosak.

Könnyen ellenőrizhető, hogy a böngésző keresősávjának bal oldalán látható egy zár, ha biztonságos. Ha a „nem biztonságos” szavakat látja, akkor Önnek (vagy a fejlesztőjének) van még munkája!

6. Strukturált adatok

A strukturált adatok segítenek abban, hogy a technikai SEO magasabb szintre kerüljön és a keresőmotorok jobban megértsék webhelyét. Annak tartalmát vagy akár üzleti tevékenységét. A strukturált adatokkal meg lehet mondani a keresőmotoroknak, milyen termékeket értékesít, vagy milyen leírásokat tartalmaz a webhelye. Ezen kívül lehetőséget ad arra, hogy mindenféle részletet megadjon ezekről a termékekről vagy a kínált dolgokkal, szolgáltatásokkal, tartalmakkal kapcsolatban.

Mivel van egy kód, azaz egy rögzített formátum (amelyet a Schema.org-ban ír le), ahol ezt az információt meg kell adni, az alapján a keresőmotorok könnyen megtalálhatják és megérthetik. Segít nekik, hogy nagyobb képet helyezzenek el tartalomban.

  A strukturált adatok segítenek abban, hogy a keresőmotorok jobban megértsék webhely működését

7. XML-webhelytérkép

Egyszerűen fogalmazva, az XML sitemap egy honlaptérkép, egy webhely összes oldalának listája. A webhelyre érkező keresőmotorok számára útitervként szolgál. Az XML sitemap-et gyakran posztok, oldalak, címkék vagy más egyéni bejegyzés típusokba sorolják, és tartalmazza a képek számát és az utolsó módosított dátumot minden oldalon. Tehát tartalmazhat a bejárandó linkeken kívül módosítási dátumot is, amivel rávehetjük a pókjainkat, hogy ismételten belessenek egy tartalomba, amit módosítottunk.

Ideális esetben egy webhelynek nem kell XML sitemap. Ha van egy belső összekötő szerkezete, amely szépen összeköti az összes tartalmat, akkor a robotoknak nincs szüksége rá. Azonban nem minden webhely rendelkezik nagyszerű szerkezettel, és az XML-webhelytérkép használata nem okoz kárt. Ezért mindig azt tanácsoljuk, hogy a webhelyén legyen XML-webhelytérkép.

8. hreflang használata

Ha egy webhely egynél több országot céloz meg, ahol ugyanazt a nyelvet beszélik, akkor a keresőmotoroknak kis segítségre van szükségük ahhoz, hogy megértsék, mely országokat vagy nyelveket próbálják elérni.

A hreflang-címkék segítenek ebben. Az oldalhoz megadhatjuk, hogy melyik országot és nyelvet kívánjuk használni. Ez megoldja a lehetséges tartalmi problémákat is: még akkor is, ha az Egyesült Államok és az Egyesült Királyság webhelye ugyanazt a tartalmat jeleníti meg, a Google tudni fogja, hogy egy másik régióra íródott.

Ez a technikai SEO dióhéjban. Meglehetősen sokat írtunk, pedig még csak a felületet karcoltuk. Ha még mindig nem világos a technikai SEO, vagy segítségre van szüksége, akkor keressen meg minket!




Vélemény, hozzászólás?

Az e-mail címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük

20 + három =