SEO boszorkánykonyha: a Google algoritmus fejlesztés története röviden

A SEO munka szempontrendszere nem egyik napról a másikra alakult ki, egy lassan húsz éves megfeszített fejlesztési projekt aktuális állapotát tükrözik. Keresőoptimalizálás A Google kereső egy olyan összetett rendszer, amely arra hivatott, hogy a keresési indexe alapján a lehető legjobb eredményeket szolgáltassa, amikor valamilyen kifejezésre „ráguglizunk”. A keresőmotor algoritmusok (olvasó programok) és számos más rangsorolási szempont kombinációja alapján határozza meg a weboldalak relevancia szerinti rangsorát a keresőmotor találati oldalain (SERP). Alapvetően bizalmatlanok vagyunk, ezért sokak számára ez a rangsorolási rendszer boszorkánykonyhának tűnhet, ugyanakkor látni kell, hogy a mai működés egy több tízéves fejlesztési folyamat eredménye, egészen pontosan aktuális állomása. Maga az aranytojást tojó tyúk, amire gazdája nagyon vigyáz. SEO szeizmográf Mivel a Google az idők során valódi médiabirodalommá nőtte ki magát, és a találati oldalain való karrier (SERP) meghatározó erővel bír az üzleti életben, számos SEO cég, szakmai blog feladatának tekinti, hogy szondázza a Google kereső mátrix változásait. Ez egyébként így is történik, a legnagyobb SEO szolgáltató cégek szoftveresen mérik a kulcsszavak és a találati listákon szereplő honlapok helyezésének változását és a változásokat (fluxus) hőfokmérővel, diagramokkal ábrázolják. Ha egy kicsit elmélyedünk a közel 20 éves Google fejlesztési sztoriba, nagyon sok fejlesztési lépést valóban homály fed. Vannak fejlesztések, amiket (valamilyen fantázianév alatt) bejelent vagy utólag elismer a cég, de nagyon sok algoritmusváltozás tartalma ismeretlen marad. Emiatt sokan egyfajta boszorkánykonyhaként tekintenek a cég óriásra, és a találati eredmények manipulálását feltételezik. A valóságban azonban azt kell megérteni, hogy a Google keresőmotor számos, különböző megközelítésű algoritmus szimbiózisa, illetve ezek az algoritmusok kiegészülnek más értékmérőkkel is. A Google hangyavár Eric Schmidt, a Google akkori vezetője egy sajtótájékoztatón elmondta, 2010-ben a cég összesen 13 000 algoritmusfrissítést tesztelt, amiből mindössze 516 került bele az éles algoritmusokba. Ilyen mennyiségű fejlesztési projektet nyilvánvalóan lehetetlen kommunikálni, illetve az algoritmusok működése továbbra is üzleti titoknak minősül. Az algoritmus konkrét működését, aktuális beállításait tehát nem ismerjük, viszont tudjuk azt, milyen céllal és milyen eredménnyel működik a Google keresőmotorja. A most következőkben bemutatjuk, hogy az egyes fejlesztések hogyan alakították ki azt a tartalmi és technikai paradigmákat, alapszabályokat, amik szerint a SEO működik napjainkban. Mindenki itt van? Az ezredforduló táján az a kérdése izgatott mindenkit, hogy vajon tényleg lehetséges-e az összes internetes oldalt összekapcsolni a Google szoftverével, illetve megfordítva, hány oldalt indexel (olvas és osztályoz) az algoritmus? 2003-ban ez a szám kb. 3,3 milliárd volt, ennyi weboldalt kezelt a Google olvasó program. 2009 óta a Google kereső rendelkezik olyan algoritmussal, amely már nem előre olvasott adatokból dolgozik, hanem valós időben indexálja az oldalakat. A keresőmotor fejlesztéseknek alapvetően két kihívással kellett megküzdeniük az idők során: minél pontosabb SEO szempontrendszer alapján megtalálni a releváns tartalmakat (a tűt a szénakazalban), illetve kiszűrni és visszaminősíteni a trükkös, értéktelen szájtokat. Ne linkeskedj! Az egyik legnagyobb manipulatív eszköz a link volt. Ez az egyszerű és hatásos technológia biztosítja, hogy az interneten lévő oldalak összekapcsolódjanak, egymásra épüljenek tartalmilag vagy akár működésükben. Az, hogy egy oldalra hány külső link mutat, azaz hány oldal hivatkozik rá, a relevancia szempontjából a kezdetektől fogva meghatározó SEO audit szempont volt. Már a kezdetek kezdetén elindult a linkekkel való visszaélés elleni harc, hiszen sokan csak azért hoztak létre értéktelen oldalakat, hogy linkeket helyezzenek el rajtuk, amik egy értékesebb, üzleti célra használt oldalra mutattak. 2003-ban a Google már szűrte a társtulajdonban lévő oldalak linkjeit. Később, a WEB 2.0 előretörésével egy másik linkelési szokás, SEO trükk is elterjedt a neten. Nagyon sok spam oldal azt a taktikát követte, hogy blogtartalmak, közösségi médiabejegyzések alatt kommentben elhelyeztek egy saját oldalukra mutató linket. Például erotikus oldalak linkjét egy kertépítő fórumban. Akár ipari méretekben is működött ez a játék, aminek révén számos irreleváns oldal tudott megkapaszkodni a SERP elején. Annak érdekében, hogy ezt a kártékony eljárást kiszorítsák, a Google, a Yahoo és a Microsoft 2005-ben közösen bevezette a "nofollow" attribútumot. Ha bármely linkhez hozzáadják ezt a jelzőt, akkor az algoritmus tudja, hogy a linket a webhely tulajdonosa az nem hagyta jóvá, így nem számítja be a relevancia értékek közé. A linkek továbbra is fókuszban maradtak, a Google frissítések arra törekednek, hogy tovább gyengítsék a gyanús linkek, az egymásra mutató hivatkozások, a linkfarmok SEO torzító jelentőségét. 2012 óta használja a Google az „anchor text scoring” elvet. Ez azt vizsgálja, hogy a honlapunkon található linkek hogyan kerültek kialakításra. Pusztán az URL-t tartalmazzák, vagy ami jobban értékelt megoldás, értelmes, informatív szövegen találhatók. Amikor még a rendszergazdák voltak a SEO tanácsadók Az ezredforduló környéke a SEO vadnyugati korszaka volt, a leleményes szájtfejlesztők, rendszergazdák számos olyan trükköt ismertek, amivel az akkori algoritmusok működését a maguk javára tudták fordítani. Az egyik ilyen módszer az úgynevezett keyword stuffing, irodalmi fordításban a „kulcsszó elárasztás” volt. Ennek során egy weboldalt a kulcsszókutatás alapján kiválasztott kulcsszavakkal vagy számokkal töltöttek fel minden kontextus nélkül, azért, hogy manipulálják a webhely rangsorolását a Google keresési eredményei között. Például, ha egy kenyérsütöde a „pék” kulcsszóra SEO-zott, akkor keyword stuffingnak számított az a megoldás, ha Pék előnevű emberek nevét és telefonszámát vitte fel tömegesen az oldalra. Ugyanúgy kulcsszó elárasztásnak számított, ha valaki minden kontextus nélkül szerepeltette a kulcsszavakat, vagy természetellenes módon ismételgette azokat. 2003-ban egy Florida névre keresztelt frissítés nagyon odavert ennek a technikának, ami által sok oldal az első találati helyekről visszaesett a vert mezőnybe. A másik trükk a felhasználók számára láthatatlan felületek szöveges elárasztása volt. A metaszövegek a honlap kódjaiban találhatók és az algoritmus számára tartalmaznak fontos üzeneteket, leírásokat. A Meta-címkék kulcsszavakkal történő teletömése a 2004-es Austin frissítés óta minden SEO tanácsadás alapján kontraproduktív SEO módszer, a Google kifejezetten bünteti. Ugyanez a frissítés leszámolt a „láthatatlan szöveg” jelenségével. A láthatatlan szöveg célja az volt, hogy egy oldalon a felhasználók számára nem látható, általában az adott kulcsszót papagájszerűen ismétlő szövegeket publikáltak, ezzel növelve a kulcsszósűrűséget. Vedd és olvasd! A visszaélések és torzítások háttérbeszorítása mellett természetesen nagyon fontos feladat volt az indexelt oldalak értelmezése, az olvasási hatékonyság és sebesség növelése. A Google fejlesztési energiáinak döntő része a tartalmak jobb olvasására, értelmezésére lett fordítva, nem meglepő, hogy a mostani SEO munka egyik legfontosabb eleme a tartalmi stratégia kidolgozása. 2004-ben debütált a Google Látens Szemantikai Elemzés (Latent Semantic Analysis, LSA), amely a természetes nyelvfeldolgozás módszerével kezdte elemezni a dokumentumok és a bennük található kifejezések közötti kapcsolatokat a dokumentumokhoz és kifejezésekhez kapcsolódó fogalmak segítségével. Az LSA folyamatos fejlesztése mellett a Google igyekszik a legújabb innovációkat beépíteni szövegértő, analitikai rendszerébe. 2015 óta az algoritmus machine learning, azaz a gépi tanulás révén önfejlesztő elemekkel lett felfegyverezve. 2019-ben startolt a BERT (Bidirectional Encoder Representations from Transformers) természetes nyelvfeldolgozási (NLP) modell, amely segít a Google-nek jobban értelmezni a kereséseket és jobban érteni a kulcsszavak és az őket tartalmazó szövegek kontextusát, immáron 70 nyelven. Legendák, botrányok, hőstettek Voltak legendásan híres, illetve hírhedt frissítések is a Google keresőalgoritmus fejlesztés történetében. Az egyik legnagyobb ugrás az 2010. júniusában, a Koffein fantázianevű frissítés után következett be. A koffein nemcsak növelte a Google alapsebességét, hanem sokkal szorosabban integrálta rendszerbe a feltérképezést és az indexelést, ami (a Google szerint) 50%-kal frissebb, naprakészebb indexet eredményezett. A Koffein után a Google még több hangsúlyt adott a tartalomnak, engedélyezte, hogy ugyanaz a domain egy kulcsszóra többször is megjelenjen egy SERP-n. 2011-ben debütált a Panda, amely egy hírhedt frissítés volt: a Google keresőből érkező forgalom 12%-át érintette. Az algoritmus az értéktelen tartalmakat, az ezekből felépített reklámközpontú tartalomfarmokat szűrte ki. Ez először az angol nyelvű oldalakra, majd nemzetközi szinten is kiterjesztésre került (kivéve a kínai, japán és koreai nyelvet), és számos oldal és ezzel együtt vállalkozás csődjét jelentette a világon. 2014-ben a szerzői jogok, illetve értelemszerűen a lemezkiadók, filmforgalmazók és az állami szervek nyomására a Google rátámadt a netes kalózoldalakra, torrent szájtokra, ahonnan addig a felhasználók ingyen tölthettek le tartalmakat. A támadás ereje brutális volt, a korábbi találatok 98%-a eltűnt a SERP oldalairól. Legyél technikás játékos! A SEO egyik fontos munkaterülete a honlap technikai fejlesztése, átláthatóságának, transzparenciájának növelése. A Google algoritmus fejlesztés során az XML-oldaltérkép (sitemap.xml) szerepeltetése már 2005-ben elvárás lett a honlapoktól. Ennek segítségével a kereső könnyen és gyorsan megismerhette az adott oldal tartalmát. 2009-ben került bevezetésre a kanonikál linkek, gyűjtő URL-ek használata, amelynek segítségével egyrészt kiszűrhetők az azonos linkek, illetve a honlapok egyértelműen megadhatják a keresők számára, mely linkeket vegyenek azok figyelembe. A webshopok, állásközvetítő oldalakon rengeteg adat található. Azért, hogy ezek az adatok könnyen értelmezhetők legyenek a keresőmotor számára bevezették az úgynevezett sémákat, strukturált adatokat, amik révén a találati oldalon a Google már adatokat tud közölni az indexált honlap alapján. 2017-től a Google a nem biztonságos webhelyek látogatóit figyelmeztetni kezdte, később pedig a Chrome 68 már az összes nem HTTPS webhelyet (igazoltan biztonságos weboldalt) "nem biztonságosnak" jelölt. A Mobile first abszolút SEO szempont lesz A Google már 2015-ben felhívta a piac figyelmet a mobiltelefonos internetezést támogató weboldalak fejlesztésre azzal, hogy a mobilbarát (reszponzív) oldalakat előbbre vette az rangsorban. 2018-ban pedig létrejött a mobil index: a mobilra optimalizált, a telefonon gyorsabban betöltő oldalak egyértelmű előnyt kaptak a keresések között a keresőoptimalizálás versenyben.

SEO boszorkánykonyha: a Google algoritmus fejlesztés története röviden