Ważne algorytmy Google dla pozycjonerów

algorytmy google
Opublikowano: 01.02.2018 < Powrót do wpisów Ocena artykułu: Kategoria: SEM/SEO

Branża pozycjonerska pozostawiała w swoich powijakach (czyli nie dalej jak dekadę temu) spore pole do nadużyć, na czym chętnie korzystali nieuczciwi SEOwcy poprzez wykorzystywanie wielu nieetycznych metod osiągania wyższych pozycji. Na szczęście Google wyszło temu procederowi naprzeciw i znacząco usprawniło kwestie związane z egzekwowaniem prób omijania powszechnie przyjętych i akceptowanych zasad, wdrażając kilka prostych algorytmów.

Panda

W lutym 2011 roku Google wprowadziło algorytm Panda (od nazwiska inżyniera pracującego w Google i twórcy tej aktualizacji, Navneeta Pandy), który docelowo miał za zadanie nałożyć kary na strony o niskiej jakości, które nie przedstawiały większej wartości dla użytkowników. Dotyczy to przede wszystkim stron spamerskich, o sztucznie (np. automatycznie) wygenerowanej zawartości. Najbardziej dotkliwe spadki pozycji odczuwają witryny, zawierające sporo duplikowanych i nieprzydatnych treści. Panda wciela się w czytelnika, który wnikliwym okiem poszukuje błędów i skupia się na działaniach on-site, a więc podejmowanych wyłącznie na stronie. Jednocześnie służy do zwiększenia widoczności witryn z jakościowym contentem, co stanowi pretekst do doskonalenia umiejętności i większego profesjonalizmu webmasterów, grafików i copywriterów. Przed jej wprowadzeniem serwisy swobodnie prześcigały się w lokatach, nierzadko stosując metody z kategorii Black Hat SEO.

Pingwin (Penguin)

Nieco ponad rok później, w kwietniu roku 2012 do Pandy dołączył kolejny zwierzak – Pingwin, który obniżał pozycje stron stosujących metody ewidentnie uznawane za nieetyczne lub nawet prawnie nielegalne, jak:

  • Posługiwanie się nienaturalnymi linkami przychodzącymi z podejrzanych źródeł lub będących wynikiem transakcji handlowych w ramach systemu wymiany (SWL) i popularnych katalogów stron, z których korzysta wiele większych firm konkurencyjnych,
  • Nadmierna optymalizacja i spam,
  • Niewidoczny, ukryty poza obszarem strony, lub zapisywany niewielkim rozmiarem czcionki tekst,
  • Ukryte przekierowania do zewnętrznych witryn
  • Keyword stuffing (nadmierne upychanie słów kluczowych w treści i kodzie strony).

Zwraca on szczególną uwagę na nadużycia sprzeczne z wytycznymi dla webmasterów, a przede wszystkim webspam i zaplecza z linkami prowadzącymi z i do naszej domeny, weryfikując je pod względem jakościowym i bez problemu wychwytując te, które pochodzą z nieuczciwych wymian.

Pirat (Pirate)

W sierpniu tego samego roku pojawił się Pirat, chroniący witryny przed zjawiskiem piractwa, czyli naruszeniami praw autorskich do treści i oczyszczający indeks wyszukiwarki z elementów nielegalnych w świetle ustawy DMCA (Digital Millennium Copyright Act) np. zduplikowanego contentu po weryfikacji każdej z podstron. Google w następstwie otrzymanych zgłoszeń obniżyło również pozycje stron oferujących opcje pobrania pirackich plików np. popularnych torrentów.

ważne algorytmy google dla pozycjonerów

Koliber (Hummingbird)

Wrzesień roku 2013 był nie mniej przełomowy dla branży SEO, która powitać mogła algorytm Koliber, który został znacznie udoskonalony w stosunku do swoich poprzedników. Po odpowiednich aktualizacjach zaprogramowano go tak, by jak najlepiej rozumiał kontekst wyszukiwania i synonimy, wykorzystywane przez użytkowników w celu zwrotu jak najtrafniejszych wyników nawet w przypadku fraz ogólnikowych i rozbudowanych typu long tail (ang. długi ogon). Zamiast rozumieć je dosłownie, przetwarza i wczytuje się w dokładny sens zdań.

Gołąb (Pigeon)

W lipcu roku 2014 premierę miał algorytm Gołąb. Jest on nastawiony na skuteczniejsze wyświetlanie lokalnych wyników wyszukiwania, wynosząc je na wyższe pozycje. Zmiana ta precyzyjnie interpretuje wskazówki lokalizacyjne, korzystając z Map Google i zwracając wyniki dopasowane do naszego miejsca zamieszkania, nawet jeżeli opatrzone jest ono nazwą własną lub figuruje przede wszystkim jako termin w lokalnej gwarze albo wpisana fraza nie odnosi się do niego precyzyjnie, wskazując np. na miejscowy lokal gastronomiczny, bądź odpowiedni urząd.

Mobilegeddon

W kwietniu 2015 roku mogliśmy przywitać kolejny mechanizm giganta z kalifornijskiego Mountain View, polegający na zapewnieniu priorytetowego statusu stronom poprawnie wyświetlającym się na urządzeniach mobilnych, co wiązało się rzecz jasna z błyskawicznym tempem wzrostu ich popularności. Te zaś, które nie posiadały wersji responsywnej zostały drastycznie zepchnięte w serp’ach. Co ciekawe, zmiana ta nie wpłynęła na wyniki wyszukiwania z urządzeń stacjonarnych, a właściciele tych stron, które do tej pory cieszyły się sporym prestiżem nie zarejestrowali znaczących spadków.

Opos (Possum)

Kącik zoologiczny Google sukcesywnie się rozszerza, dlatego już we wrześniu roku 2016 premierę miał sympatyczny Opos, który dokonał zupełnego przetasowania fraz lokalnych, dzięki czemu podobnie jak w przypadku Gołębia po raz kolejny faworyzowane zostały słowa kluczowe odnoszące się do konkretnego regionu lub fizycznej lokalizacji, a nawet powiązań własnościowych i siedzib konkretnych biznesów.

page rank

Page Rank

Algorytm Page Rank (od nazwiska jednego z założycieli Google, Larry’ego Page’a) wprowadzony w roku 1998, stanowił niegdyś jeden z fundamentów wyszukiwania, jako mechanizm przyporządkowujący liczbowe oceny wartości strony na podstawie ilości i jakości linków zewnętrznych, jakie do niej prowadziły. Im częściej dana strona była wspominana lub cytowana, tym wyższym wskaźnikiem w statystykach mogła się poszczycić. Wynik ten był niegdyś ukazywany w pasku narzędzi Google, jako jedna z podstawowych opcji do wyboru. Z czasem jednak stał się niewystarczający i został wcielony do szerzej rozbudowanego algorytmu centralnego, biorącego pod uwagę znacznie więcej czynników. W 2009 roku informacja na jego temat została usunięta z narzędzi dla webmasterów, natomiast już w 2016, Google zupełnie wycofało to narzędzie ze swojej wyszukiwarki i zastąpiło wskaźnikiem zaufania – Trust Rank.

Top Heavy (Page Layout Algorithm)

Wprowadzony w styczniu roku 2012 algorytm Top Heavy, odpowiada za analizę układu strony pod względem obecności i rozmieszczenia reklam w jej górnej części (ang. above the fold), włącznie ze stopniem ich natarczywości dla internautów, badając przykładowo czy rozpraszają ich uwagę w trakcie użytkowania i zmuszają do długiego przewijania w celu dotarcia do pożądanej zawartości. Serwisom, zawierającym ich nadmierne zagęszczenie w stosunku do właściwej treści grozi sankcja w postaci odpowiedniej degradacji w wynikach wyszukiwania.

algorytm top heavy

Kolejno wprowadzane algorytmy Google znacząco wpłynęły na poprawę jakości treści w sieci i zabezpieczyły użytkowników przed poczynaniami oszustów, umożliwiając zdrową konkurencję. Każdego roku pojawia się szereg aktualizacji, skutecznie przeciwdziałających przejawom nieuczciwości i wspomagających optymalne pozycjonowanie treści, dlatego powyższa lista powinna być regularnie uzupełniana. W Artixen.net doskonale wiemy w jaki sposób postępować, by zachowywać pełną zgodność z wytycznymi Google i nie narazić się na nieprzyjemne konsekwencje.

3 komentarze

Dodaj komentarz

Twój adres email nie zostanie opublikowany.

  • Niestety w branży SEO nic nie jest pewne na sto procent i stałe. Zmiany zachodzą permanentnie, dlatego warto być na nie przygotowanym i śledzić najnowsze trendy.

    Odpowiedz
  • Dobrze wiedzieć na jakiej zasadzie one funkcjonują i jak ewoluowały na przestrzeni kolejnych lat. Dla większości użytkowników to niestety wydaje się nadal czarną magią.

    Odpowiedz
  • Dzięki za tę listę, warto mieć ją zawsze pod ręką. Niektórych pozycji, a zwłaszcza tych starszych zupełnie nie kojarzyłem. Częste aktualizacje mają niestety duży wpływ na nagłe wahania pozycji i nigdy nie wiadomo kiedy nastąpią, co niekiedy oznacza konieczność tłumaczenia się przed Klientami.

    Odpowiedz

Bądź na biężąco, dołącz do nas

Zapisz się na Newsletter!

Czy chcesz być na  bieżąco z  nowinkami branżowymi i  otrzymywać od  Artixen.net  powiadomienia o  najnowszych wpisach na  blogu oraz  aktualnościach za  pośrednictwem wiadomości mailowych?

Nasza witryna wykorzystuje pliki cookies. Więcej informacji, dotyczących sposobu przetwarzania Twoich danych osobowych znajdziesz w naszej polityce prywatności.

Polityka Prywatności Zrozumiałem/am

Wyrażam zgodę na otrzymywanie drogą elektroniczną na wskazany przeze mnie adres e-mail informacji handlowej poprzez newsletter.

FreshMail.pl