Dokładna weryfikacja aktualnego stanu witryny internetowej pozwoli wykryć jej mankamenty i ją udoskonalić. Otworzy drogę do jej skoku w wynikach wyszukiwania. W działaniu takim pomoże lektura poniższego artykułu.
Sposoby analizy strony internetowej pod kątem jej pozycjonowania, różnić się będą znacznie w zależności od tego jak szeroką wiedzę na jej temat posiada pozycjoner. Oczywiście wykonywanie optymalizacji strony przez jej twórcę i właściciela domeny, ułatwia mu pracę ze względu na ogromną wiedzę jaką na temat strony osoba ta posiada. Specjalista, któremu zostaje zlecona analiza witryny, ma znacznie trudniejsze zadanie. Musi on postarać się rozszyfrować historię strony, wywnioskować czy nie była wcześniej pozycjonowana metodami Black Hat SEO. Czy był wcześniej nałożony na nią filtr algorytmiczny lub ręczna blokada? Czy też może jest ona w niedalekiej przyszłości zagrożona tego typu działaniami.
Pozyskanie ogólnych danych na temat witryny
• wiek strony, historia domeny – Autorytet domeny jest ważnym czynnikiem rankingowym jak twierdzą specjaliści z MOZ. Stąd analiza historii domeny, jej wieku, daty rejestracji, daty wygaśnięcia może sugerować czy czynnik ten może działać na korzyść pozycjonowania. Dane tego typy można w prosty sposób pozyskać z baz WHOIS. Ciekawym sposobem analizy historii witryny jest skorzystanie ze strony http://web.archive.org/. Zgromadzone w tej bazie archiwum pozwoli na zapoznanie się ze starszymi wersjami optymalizowanego serwisu.
• page rank – Oceniając Page Rank trzeba pamiętać, że odkąd Google przestał prezentować PR, jego algorytm mocno się zmienił, a jego wartości podawane przez skrypty tworzone z myślą o pozycjonerach, obarczone są większym lub mniejszym błędem. Narzędzia takie jak Ahrefs lub Majestic stworzyły własne parametry określające wartość witryny, które są bardziej miarodajne w ocenie strony internetowej, niż intuicyjne próby wyliczenia aktualnego PR. Expert SEO Łukasz Trześniewski w jednym ze swoich artykułów promuje pojęcie WebRanku, który ma stanowić dobrą alternatywę dla PR i być wskazówką dla osób pozycjonujących strony. Na wartość WebRank ma składać się kilka aspektów: “Czołowym i najważniejszym z nich jest ruch organiczny. Drugim natomiast jest widoczność określona poprzez ilość słów kluczowych dla których dana witryna pojawia się na rozsądnych miejscach w wynikach wyszukiwania.” Łukasz Trześniewski mocno podkreśla, że z racji łatwości “nabicia” PR za pomocą linków, Google ocenia teraz wartość strony także na podstawie sygnałów otrzymywanych od ich użytkowników.
• ilość linków przychodzących i linkujących domen – Z wykorzystaniem wspomnianych już wcześniej narzędzi typu Ahrefs lub Majestic, sprawdzamy jak wygląda liczba i profil linków prowadzących na analizowaną stronę. Badając to zagadnienie warto pamiętać o algorytmie Pingwin, który w przypadku wykrycia nienaturalnych linków, zagrozi witrynie filtrem. Warto także skorzystać z rad specjalisty MOZ Rand’iego Fishkin, który jawnie podkreśla, że za ilością linków prowadzących do witryny nie idzie ich jakość. Według niego by pozyskane linki wpłynęły pozytywnie na ranking strony, muszą prowadzić one także z zaufanych źródeł, które zawierają wartościowe treści. Zwyczajowo interesująca treść generuje także ruch ze strony użytkowników co jest pozytywnym sygnałem dla Google. Randy Fishkin sugeruje także, że o wartości linku z danej domeny decyduje dopasowanie domeny z której on prowadzi do tematu i kontekstu

analizowanej witryny.
• ocena aktualnych pozycji witryny na kluczowych frazach w Google
Optymalizacja kodu strony
W trakcie wykonywania audytu strony należy przypomnieć sobie jakie elementy witryn internetowych wpływają na ranking Google. Nie obejdzie się bez wizyty i przejrzenia jednego z podstawowych
narzędzi, każdego pozycjonera Google Search Console (dawniej Google Webmaster Tools). Po dodaniu do tej aplikacji badanej witryny i przejściu do jej panelu nawigacyjnego, należy wejść do działu: “Status w wyszukiwarce”. Z wyświetlonego poniżej podmenu należy następnie wybrać “Udoskonalenia
HTML”.
search console html

 

Jeśli na stronie Google wykrył błędy, jej administrator widzi komunikat następującej treści: “Rozwiązanie poniższych problemów może poprawić wydajność witryny i wrażenia użytkowników.” Błędy opublikowane niżej są rozmieszczone w trzech grupach: metaopis, tag title, zawartość niemożliwa do zaindeksowania. Następnie dzielą się one na podkategorie. Wśród błędów kategoryzowanych jako metaopisowe wyróżnia się: podwójne meta-opisy, długie meta-opisy, krótkie meta-opisy. W tag title zamieszczone zostały zaś: brak tagów tytułowych, podwójne tagi tytułowe, długie tagi tytułowe, krótkie tagi tytułowe, nieinformacyjne tagi tytułowe. Administratorowi pozostaje przeklikać wymienione pozycje i poprawić wszystkie usterki, które zostały wyszczególnione.
Po uporaniu się z błędami ujawnionymi w Search Console, warto uruchomić program Screaming Frog SEO Spider. Z jego pomocą analizujemy nagłówki H1, H2 i tekst alternatywny obrazków. Google traktuje zawartość ALT jako fragment strony,. Takie działanie algorytmu wyszukiwarki opisuje na swoim blogu specjalistka SEO Marta Gryszko, po “wpisaniu opisu alternatywnego obrazka w Google, wyświetli się nam zarówno strona, na której wyświetla się graficzny link zawierający ten obrazek, jak i podlinkowana strona.”

screaming frog

Treść opisowa na stronie powinna być zoptymalizowana pod kątem użyteczności dla odbiorcy. Oznacza to, że najważniejsze jej fragmenty powinny być wyróżnione, treść podzielona na akapity. W treści powinny znajdować się wyselekcjonowane słowa kluczowe, w tych miejscach gdzie to możliwe opis, powinien być zastąpiony znacznie czytelniejszymi listami punktowanymi lub numerowanymi.

Optymalizacja pod kątem urządzeń mobilnych

Od 21 kwietnia 2015 roku bardzo ważnym czynnikiem rankingowym w SERP-ach mobilnych jest przystosowanie strony do prawidłowego wyświetlania jej na urządzeniach przenośnych. Oznacza to, że jeśli analizowana witryna nie jest dostosowana do tego typu urządzeń znajdzie się ona niżej w wynikach wyszukiwania wyświetlanych np. na smartfonie, niż witryna zoptymalizowana pod tym kątem. To czy dana strona jest przygotowana do wyświetlania na sprzęcie mobilnym można sprawdzić korzystając z testu przygotowanego przez Google – Test zgodności z urządzeniami przenośnymi. Dokładniejszą analizę strony w szczególności jej szybkości ładowania dokonuje aplikacja – PageSpeed Insights. Wyniki przez nią prezentowane sugerują zmiany jakie należy wprowadzić, by usprawnić działanie witryny na urządzeniach przenośnych i komputerach.
Zoptymalizowana strona w mobilnych wynikach wyszukiwania oznaczona jest symbolem: “na komórki”. Panel Search Console w dziale “Ruch związany z wyszukiwaniem – Obsługa na urządzeniach mobilnych” także prezentuje błędy związane z tym tematem o ile takie występują w witrynie.

Prawidłowy dobór tytułów i nagłówków

Prawidłowy dobór tytułów i nagłówków jest jedną z najistotniejszych elementów jeśli chodzi o optymalizację strony pod kątem SEO. Przed administratorem stoi zadanie zamieszczenia wcześniej zdefiniowanych słów kluczowych i zawarcia ich w znacznikach <title>, <h1> lub <h2>. By zrobić to dobrze należy trzymać się następujących zasad:

  • każdy tytuł, nagłówek powinien być oryginalny i dobierany indywidualnie do danej strony
  • fraza kluczowa dla danej strony powinna znajdować się jak najbliżej początku tytułu, nagłówka
  • wielowyrazowe słowa kluczowe np. “pozycjonowanie stron” nie powinny być rozdzielane i w

tytule powinny występować w identycznej formie.
• nie należy zmieniać kolejności słów w frazie wielowyrazowej zamieszczając ją w tytule i

nagłówkach.

Analiza kodów odpowiedzi HTTP

Pełną listę kodów odpowiedzi HTTP można znaleźć na stronie Wikipedii, jednak do celów optymalizacji należy skupić się tylko na wybranych z nich.
Oto kody, które należy przeanalizować np. za pomocą programu Screaming Frog SEO Spider:

  • kod 200 (OK) – taki wyniki zwracany jest w przypadku gdy dana strona została odnaleziona i działa w sposób prawidłowy
  • kod 301 (Moved permanently) – bardzo ważny kod dla pozycjonowania, oznacza dla wyszukiwarki, że dana strona została przeniesiona pod inny adres, a zatem poprzedni adres powinien zostać usunięty z indeksu i zastąpiony nowym. Wykorzystywanie tego przekierowania pozwala na przeniesienie mocy linków prowadzących do danej strony na nową.
  • kod 302 (Found) – wyszukiwarka odczyta ten kod jako tymczasowe umieszczenie danej strony pod nowym adresem, jednak stary adres powinien pozostać w indeksie i nie będzie zastępowany przez nowy jak to miało miejsce w przekierowaniu 301. W praktyce istnieje bardzo niewiele przypadków, w którym pozycjoner będzie korzystał z kodu 302. Zasoby przeniesione powinny być przekierowane za pomocą kod 301.
  • kod 404 (Not found) – wyszukiwarka interpretuje kod jako nieprawidłowy url, pod adresem który miał prowadzić do strony, nigdy nie istniały żadne treści.
  • kod 410 (Gone) – informuje wyszukiwarkę, że dana strona kiedyś istniała pod danym adresem jednak została teraz usunięta. Kod 410 powinien skutkować szybszym usunięciem danego adresu z indeksu Google niż kod 404.
  • kod 503 (Service Unavailable) – kod stosowany jest w przypadku przerw technicznych w dostępności strony. Dla wyszukiwarki oznacza on tymczasową niedostępność witryny.Z kodów korzystamy np. w momencie gdy nasz sklep internetowy zmienia asortyment i stary produkt zastępowany jest nowym. Wówczas adres starego produktu powinien być przekierowany kodem 301 na adres nowego produktu. Pozwoli to zachować moc linków prowadzących do poprzedniej wersji strony.W przypadku wycofania danego produktu, czy też usunięcia danej strony, najlepszą metodą by zachować korzyści płynące z linków do niej prowadzących jest przekierowanie jej za pomocą kodu 301 na nowy produkt lub stronę związaną tematycznie z poprzednim. Jeśli taki produkt/strona nie istnieje należy skorzystać z kodu 410.Plik robots.txtAlgorytm Google dba o eliminowanie z indeksu stron z zdublowaną treścią, zatem należy zadbać o to by witryna, nie prezentowała robotom z różnych adresów takiej samej treści. Niestety może się tak dziać gdy zaindeksowane np. zostaną wyniki wyszukiwania na rozpatrywanej stronie danej treści lub produktu. Wówczas widoczna jest ona dla Google pod dwoma adresami: bezpośrednim i z wyników wyszukiwania. By tego uniknąć należy zadbać o prawidłową konfigurację pliku robot.txt.

    W pliku tym należy umieścić kod:

Disallow: /search

Dobrą praktyką dla właścicieli sklepów internetowych jest blokowanie dostępu robota do stron z regulaminem, koszykiem, logowaniem, rejestracją oraz podstron z wynikami sortowania produktów.

W pracy nad poprawnością indeksacji przychodzi nam także Search Console. Specjaliści z Mountain View przygotowali kilka narzędzi związanych z tym tematem. Konsola wyświetla błędy indeksowania, które szczegółowo możemy prześwietlić. Następnie pokazywane są statystyki indeksowania, dostępne jest narzędzie pozwalające sprawdzić jak wyszukiwarka renderuje daną stronę – “Pobierz jako Google”, także “Tester pliku robots.txt”, “Mapa witryny” i “Parametry w URL-ach”.

Aplikacja “Parametry w URL-ach” jest w stanie zastąpić konieczność edytowania pliku robots.txt poprzez definicję odpowiednich parametrów, które będą w zadany przez administratora strony rozpatrywane lub też blokowane. Stąd blokowanie indeksacji można przeprowadzić także z wykorzystaniem tego narzędzia, wprowadzić wtedy należy np. parametr “search” i wybrać brak indeksacji adresów URL związanych z tym parametrem.

search console indeksowanie

 

Zduplikowana treść a rel=canonical

Jednak są sytuacje w których identyczna treść posiada dwa adresy i oba powinny być indeksowane. Przykładem tego może być podstrona produktu sklepu internetowego, które posiada url “prowadzący” przez kategorie produktową i ogólną kategorię jaką są “bestsellery”.
Wtedy rozwiązaniem jest zastosowanie w METATAG-ach definicji:

<link rel=”canonical” href=”http://www.sklep.pl/kategoria/produkt.html” />

Taki zapis jest wskazówką dla robota, że oryginalna strona znajduje się pod adresem podanym w parametrze tagu kanonicznego i tylko ona powinna znaleźć się w indeksie Google.

Wypracowanie najlepszego systemu URLi w witrynie

Nie istnieje jednolite uniwersalne rozwiązanie dotyczące nomenklatury adresowania na stronie. Adresy powinny być możliwie krótkie, jednak muszą jednoznacznie określać przynależność danej podstrony do nadrzędnej kategorii. Chyba, że dany produkt jest na tyle unikalny, że użytkownik nie będzie miał problemu z jego zidentyfikowaniem, wtedy można w adresie pominąć nazwę kategorii, czy też podkategorii i pozostać przy składni typu:

http://www.domena.pl/produkt.htm

Jeżeli jednak nazwa danego produktu, może być związana z kilkoma kategoriami np. Wiedźmin. Plik wiedzmin.htm może oznaczać książkę, grę lub film, dlatego adres url tego produktu powinien zawierać w nazwie kategorię, której dotyczy.
Umieszczanie fraz kluczowych w adresie dla pozycjonowania jest wskazane, jednak nie należy ich w adresie zwielokrotniać. Adresy powinny być jak najbardziej intuicyjne i przyjazne dla użytkownika.

W adresie do rozdzielania słów, powinno się używać “-” zamiast “_”, dzięki czemu wyszukiwarka potraktuje go jako ciąg wielowyrazowy, a nie jedną całość.

Linkowanie wewnętrzne

Linkowanie wewnętrzne należy opierać na wyważonej liczbie linków. Za równo zbyt mała jak i zbyt duża liczba linków może zaszkodzić stronie. Dodatkowo warto przyjąć zasadę, że menu witryny powinno mieć charakter tekstowy. Jeżeli już koniecznie musi być oparte na obrazach, niech będą one opisane za pomocą tekstów alternatywnych ALT. Należy monitorować i wyłapywać niedziałające linki. Szczególnie po przebudowach strony, czy dużych aktualizacjach. W uzasadnionych przypadkach należy zastosować przekierowania.

Linki przychodzące

Koniecznością poprzedzającą działania w link buildingu, jest audyt dotychczasowo posiadanych linków. Z pomocą w ich analizie przychodzą Majestic, Ahrefs lub SEMrush. Oferują one przegląd linków prowadzących do optymalizowanej witryny. Na ich podstawie należy ocenić ilość backlinków, liczbę referencyjnych domen, anchory. Pozwoli to określić kierunek działań w pozycjonowaniu i ewentualne zagrożenia ze strony algorytmów Google.