Algorytm Google dokonuje oceny stron internetowych na podstawie bardzo wielu czynników. Ich analiza decyduje o pozycji witryny w wynikach wyszukiwania, dlatego warto zapoznać się z ich opisem zawartym w poniższym artykule.

Oprogramowanie wyszukiwarki Google podlega bezustannym zmianom. Jej algorytm aktualizowany jest w ciągu roku kilkaset razy, stąd publikowana poniżej lista czynników rankingowych będzie ulegać zmianie. Nieustanna ewolucja kodu zmusza osoby odpowiedzialne za pozycjonowanie, do ustawicznego śledzenia zmian algorytmu i dostosowywania witryn do wymogów jakie stawia przed nimi Google. Rozsądnym zdaje się subskrybowanie oficjalnego bloga najpopularniejszej wyszukiwarki – Google Webmaster Central Blog, publikującego informacje o nowościach i zmianach w skrypcie.

Badania ekspertów MOZ

Zajrzeć należy także do materiałów edukacyjnych ekspertów z moz.com. Specjaliści publikują w nich wyniki analiz stron z najwyższych i niżej położonych w rankingu pozycji. Kolejne tego typu opracowanie powinno ukazać się w tym roku. Na tą chwilę jednak można skorzystać z raportu przedstawionego przez moz w 2013 r., który nie stracił wiele ze swojej aktualności. Według niego najważniejsze czynniki

charakteryzujące najwyżej notowane strony to: wysoki autorytet podstrony, liczba otrzymanych +1 (Google Plus), liczba unikalnych linków z adresów IP różniących się co najmniej na pozycji C, liczba domen jakie linkują do strony.
Z kolei cechami związanymi ze stronami o niskich pozycjach są: zbytnia długość całkowita domeny, zbyt duża liczba znaków w adresie url, długi czas ładowania się strony, przepełnienie strony reklamami, nazwy domen zawierające cyfry.

Lista Google’s 200 Ranking Factors

Specjalista ds. SEO, twórca bloga backlinko.com Brian Dean opracował listę 200 czynników wpływających na pozycjonowanie. Stanowi ona z pewnością rozwinięcie i uszeregowanie wyników badań zamieszczonych na moz, które są zdecydowanie mniej czytelne.
Lista kategoryzuje czynniki w następujący sposób:

1. Związane z domeną
2. Sprawdzające jakość kodowania strony
3. Odnoszące się do zawartości merytorycznej strony
4. Powiązane z linkowaniem strony
5. Wynikające z aktywności użytkowników na stronie
6. Związane ze specjalnymi zasadami wprowadzanymi przez algorytm
7. Zależne od aktywności w Social Media
8. Biorące pod uwagę zaangażowanie marketerów w budowę zaufania i jakości danej marki
9. Sprawdzające stosowanie technik spamujących w witrynie
10.Odnoszące się do technik spamujących, ale związanych z witryną pośrednio

Czynniki związane z domeną
domena

Domena jest wciąż jednym z kluczowych elementów wpływających na pozycjonowanie. Wiek domeny, jej historia, obecność słów kluczowych w nazwie, adekwatność jej nazwy do treści (algorytm EMD), a nawet zawartość WHOIS jest brana pod uwagę w ocenie witryny internetowej.

Jakość kodowania strony
jakość kodu

Sprawdzeniu przez algorytm podlega kodowanie podstawowych znaczników strony. Rozmieszczenie w nich słów kluczowych, a także analiza semantyczna ich trafności (algorytm LSI). Weryfikowane są także tytuł strony, metatag – description, nagłówek H1, a w następnej kolejności H2, H3. Sprawdzana jest optymalizacja obrazów, dodanie do znacznika <img> tytułu, tekstu alternatywnego, opisu. Tak samo jak sprawdzana jest jakość tekstów zawartych na stronie pod względem gramatyki i ortografii, tak samo na podstawie walidacji W3C, błędy w kodowaniu wpływają na niższą pozycję witryny. Ocenie podlega także składnia url, jej złożoność, długość, zawartość słów kluczowych.

Zawartość merytoryczna strony
zawartość merytoryczna

Treści na stronie internetowej powinny być oryginalne, wartościowe dla użytkownika, często aktualizowane. Bardzo ważne z punktu widzenia wyszukiwarki zdaje się być umieszczenie na stronie danych kontaktowych, regulaminu, polityki prywatności. Pozwala to ocenić wiarygodność i jej autentyczność. Dodatkowo wzmocnić ten efekt może wdrożenie na witrynie certyfikatu SSL.

Linkowanie zewnętrzne i wewnętrzne
linkowanie

Choć linkowanie nieco straciło na swojej wartości, jeśli chodzi o pozycjonowanie, na rzecz zawartości witryny, dalej jest bardzo ważnym aspektem do zdobycia wysokiej pozycji w rankingu. Pozytywnie oceniane są serwisy z dużą ilością linków prowadzących do nich z różnorodnych domen o długiej historii i pozytywnym autorytecie. Analizowane są anchor teksty linków, ich otoczenie.

Aktywność użytkowników na stronie
liczba użytkowników na stronie

Google korzystając z analityki witryny ocenia zaangażowanie użytkowników ją przeglądających. Wysoki CTR sugeruje, że strona jest wartościowa dla odbiorcy i powinna być eksponowana w wynikach wyszukiwania. Sprawdzany jest także współczynnik odrzuceń, powtarzalność wejść, liczba komentarzy, a nawet czas przeglądania witryny. Użytkownicy kont gmail mogli zwrócić uwagę, że logując się na swoim koncie, mogą dla tej samej wyszukiwanej frazy uzyskać inne wyniki SERP, niż przy wyszukiwaniu w trybie incognito wyszukiwarki (gdy są wylogowani). Google personalizuje wyniki biorąc pod uwagę historię wcześniejszych działań usera.

Social Media
media społecznościowe

Obecność profili strony w mediach społecznościowych jest sporym atutem. Specjaliści SEO przypuszczają, że oceniana jest nie tylko obecność na portalach typu Twitter, Facebook, Pinterest, Linkedin, Google +, ale także ilość postów na profilach w tych serwisach, liczba osób ich śledzących, a także zaangażowanie użytkowników na nich.

Wyodrębnione algorytmy Google – Panda, Pingwin, Koliber, Mobilegeddon
google update

Na straży rankingów wyszukiwarki Google stoi kilka dużych algorytmów dbających o jakość jej wyników. W Polskiej wersji jak do tej pory mieliśmy do czynienia z 4 dużymi algorytmami. Są to Panda, Pingwin, Koliber i Mobilegeddon. W amerykańskiej wersji wyszukiwarki wdrożony został także algorytm Gołąb, który jak dotąd nie dotarł nad Wisłę. Każdy z wymienionych algorytmów ma swoją specyfiką i jego wprowadzenie miało na celu podniesienie jakości danych dostarczanych do użytkownika według innego aspektu.

Panda kontroluje treści zamieszczone na stronie
google panda

W chwili publikacji tego artykułu (czerwiec 2015) spodziewany jest kolejny update Pandy. Ma ona za zadanie niwelować z wyników wyszukiwania witryny, które w swoich zasobach posiadały zduplikowane treści, teksty generowane automatycznie. Promowane z kolei są dzięki niej witryny o oryginalnej treści, będące źródłem cennych i szczegółowych informacji z zakresu danej tematyki, poprawne językowo. Filtr algorytmiczny nakładany przez Pandę dotyczy nie tylko podejrzanej wg. niego podstrony, ale całej witryny.

Pingwin walczy z płatnymi linkami
google pingwin

Spamerska działalność właścicieli witryn przed wprowadzeniem Pingwina, pozwalała im podnieść ranking swojej strony z wykorzystaniem płatnych, nienaturalnych linków. Algorytm ma za zadanie wykryć tego typu działania i wykluczyć takie witryny z wyników SERP. W tej chwili każdy link prowadzący do strony jest poddawany weryfikacji. Pingwin analizuje także kod strony w poszukiwaniu ukrytych dla odbiorców treści i nadmiernego, nienaturalnego upakowania fraz kluczowych w kodzie strony.

Koliber umożliwia lepsze wyszukiwanie
google koliber

Koliber to jedyny algorytm, który nie wymaga od administratorów działań na witrynach internetowych. Jego wprowadzenie miało na celu zapewnienie lepszej jakości wyników wyszukiwania. Dzięki niemu wyszukiwarka Google zyskała na “inteligencji” lepiej interpretując zapytania jej użytkowników i eksponując trafniejsze wyniki.

Mobilegeddon dba o dopasowanie strony dla użytkowników urządzeń mobilnych
google mobilegeddon

Z nadejściem wiosny 2015 Google uruchomił zapowiedzianą kilka tygodni wcześniej aktualizację algorytmu wyszukiwarki, która miała na celu promować w mobilnych wynikach wyszukiwania serwisy przystosowane do urządzeń przenośnych. W tej chwili korzystając z Google np. na smartfonie na pierwszych pozycjach wyników zobaczyć można witryny oznaczone frazą “Na komórki”. Jest to jasny sygnał dla użytkownika, iż strona jest przystosowana do wyświetlania na urządzeniach mobilnych i pomyślnie przeszła weryfikację Mobilegeddonu.

Wszystkie czynniki mające wpływ na pozycję strony w wynikach wyszukiwarki Google, mają za zadanie weryfikować dane i chronić internautę przed uzyskiwaniem w SERP-ach spamu. Według polityki Google informacja jaką zwracać ma wyszukiwarka powinna być wysokiej jakości i stanowić odpowiedź na zapytanie usera. Dlatego administratorzy witryn, którzy dbają o ich zawartość merytoryczną i funkcjonalną, mogą być spokojni o swoje pozycje. Pojawienie się jednak strony w TOP3 wymaga coraz

większego nakładu pracy i dbałości o coraz drobniejsze niuanse sztuki pozycjonowania.