LOADING

Pozycjonowanie – optymalizacja strony – na co zwrócić uwagę

Tak naprawdę na skuteczne pozycjonowanie składają się czynniki jak optymalizacja, treści i linki. W tym wpisie przybliżamy bliżej czym jest optymalizacja i co najczęściej jest poddawane poprawkom podczas procesu optymalizacji.

Czym jest optymalizacja strony?

To zmiany zarówno w kodzie serwisu jak i treściach na stronach, które mają na celu poprawę oceny strony przez Google i wyższe pozycje w rankingu.

Google dba o to, by pomagać webmasterom i właścicielom witryn w dobrym przygotowaniu strony. Mają rozbudowany dział porad dla webmasterów. To często pierwsze źródło informacji o najlepszych praktykach. Drugie to już własne doświadczenia pozycjonerów, którzy metodą testów wypracowali własne sposoby optymalizacji.


Title

Title to najważniejsza część optymalizacji strony. Od jego zawartości zależy na które zapytania będzie się pojawiała nasza strona.

W większości przypadków title jest ułożony na podstawie tytułu podstrony. Przykładowo jeśli w WordPressie dodajemy nowy wpis to z automatu tytuł wpisu pojawi się w title. Dla większości podstron to będzie wystarczało. Są jednak przypadki, gdy dana podstrona może być szukana za pomoca bardzo różnych zapytań i wtedy chcemy zoptymalizować title tak by uwzględniał te słowa.

Ważne jest by nie przyspamować title. Pamietajmy – title to nie tylko informacja dla bota. Na podstawie title użytkownik decyduje czy kliknąć w wynik czy też nie. Trzeba znaleźć tu złoty środek tak by title wyglądał przyjaźnie dla użytkownika (był informacyjny, zachęcał do kliknięcia) oraz by zwierał najważniejsze frazy.

Skąd dobrać frazy, które powinny znaleźć się w title? Narzędzie Keyword Planner (opisywane szczegółowo dalej) pomoże nam zdecydować, które to frazy są najważniejsze:

frazy-do-title-dobor

Przykład

Chcemy stronę o atrakcjach turystycznych Krakowa wypromować na frazy:

  • zabytki krakowa
  • kraków atrakcje
  • kraków zabytki
  • kraków ciekawe miejsca

Forma zbyt przesycona słowami kluczowymi miałaby formę:

Kraków atrakcje, Kraków zabytki, ciekawe miejsca

czyli często bezpośrednio przeklejone frazy do title.

Bardziej przyjazne title miałyby formę:

Kraków – atrakcje i zabytki Krakowa – mini przewodnik

Zwiedzanie Krakowa – zabytki, atrakcje, ciekawe miejsca

Jak widać, można stosować odmiany fraz, nie muszą one też występować bezpośrednio koło siebie.

Czasem trzeba trochę się nasilić, by ułożyć dobry title, zawierający najważniejsze frazy. Z doświadczeniem przychodzi to łatwiej i takie rzeczy najczęściej zmienia czy sugeruje zmiany pozycjoner.

Długość w title

Title może być bardzo długi, ale pamiętajmy, że zawsze w wynikach wyszukiwania będzie prezentowana tylko jego część a potem będzie wstawiony trzykropek. Przykładowo taki długi title:

title-w-kodzie

Będzie tak skrócony:

title-skrocony-przez-google

Kiedyś zawsze title był ucinany po danej liczbie znaków. To jednak się zmieniło i teraz jest ucinany po określonej długości pikseli.
Jaka zatem jest długość, która mieści się w wynikach wyszukiwania? Obecnie jest to około 600 pikseli co przekłada się na około 70 znaków.

Zmiany w title

Warto wspomnieć, że nie zawsze w wynikach wyszukiwania musi się pojawić dokładnie taki sam title jak ustalaliśmy. Google często eksperymentuje ze sposobem prezentacji wyników i nie omija to również title’i. Co jakiś czas można np. spotkać wyniki, gdzie na początek title przenoszona jest marka strony.

Podkreślmy jeszcze raz. Title jest ważny nie tylko dlatego, że zawiera słowa kluczowe. Pamiętajmy, że to on jest prezentowany w wynikach wyszukiwania i może mieć wpływ na to, czy użytkownik kliknie wynik lub nie. Trzeba znaleźć kompromis pomiędzy umieszczeniem słów kluczowych w title, a jego czytelnością.


Description

Tag description nie jest brany pod uwagę przy układaniu rankingu, co nie znaczy, że przy pozycjonowaniu można go pomijać.

Ale po kolei. Czym jest tag description? Jest to opis danej podstrony, który pojawia się w wynikach wyszukiwania:

description-w-wynikach-wyszukiwania

Definiuje się go w kodzie (oczywiście najczęściej CMSy pozwalają to zdefiniować w panelu, ale docelowo będzie umieszczony jak niżej):

I tu ważna uwaga. Użytkownik może sam zdefiniować treść description dla danej podstrony, ale bot może, nie musi wyświetlić nasz lub inny opis. Jeśli uzna, że inny fragment zawartości danej podstrony lepiej pasuje do danego zapytania to przedstawi ten fragment zamiast naszego opisu description.

Jeśli natomiast nie zdefiniujemy tagu description (będzie pusty albo zabraknie go w kodzie) to wtedy bot sam sobie wybierze fragment z treści strony.

Już jasne jest jak się definiuje description i jak się wyświetla. Czemu jednak jest ważny w pozycjonowaniu, skoro nie brany jest pod uwagę przy układaniu rankingu?

Bo wpływa na klikalność wyników.

W pozycjonowaniu chodzi oczywiście o uzyskanie jak najlepszych pozycji. Ale te pozycje powinny generować kliknięcia i ruch na naszej stronie a description jest z tym bezpośrednio związany. To on przekonuje użytkownika, że warto kliknąć dany wynik. Warto zwrócić uwagę, że szukana fraza także jest podkreślana w samym description. W przykładzie niżej szukana była fraza atrakcje Krakowa i wyróżnione w opisie zostały nazwa miasta oraz słowo atrakcje:


Keywords

Kyewordsy to tagi, które znajdują się w sekcji head. Nadal można je często spotkać na stronach, ale dla samego pozycjonowania i pozycji w rankingu nie mają znacznia (tzn. nie są czynnikiem rankingowym). Kiedyś było inaczej i rzeczywiście odpowiednio dobrane keywordsy pomagały stronie pojawić się wyżej w wynikach, ale to czasy początków działania wyszukiwarek.

Warto tu o nich jednak wspomnieć, żeby była jasność co do ich znaczenia.


Wersje www i non www

Dość częsty problem ze stronami. Dla wielu właścicieli strona po prostu jest pod danym adresem http://przyklad.pl. Jest jedna, więc jak pozycjoner tłumaczy, że jest problem z kopiami strony, to pojawia się zdziwienie o jakie kopie chodzi.

O tym, czy strona ma mieć www przed adresem czy nie, decyduje właściciel strony ustalając odpowiednie przekierowania. Czyli może zdecydować, że chce mieć adres z www:

http://www.przyklad.pl

lub bez www:

http://przyklad.pl

Nie ma to wpływu na wyniki, obie wersje są w porządku. Są to jednak dwie różne wersje. Jeśli webmaster czy właściciel witryny zapomni zdefiniować, jaka jest preferowana wersja to może zdarzyć się, że będą one współistnieć obok siebie, czyli będziemy mieli kopie.

Jak sprawdzić czy strona ma kopie www/bez www?

Najprościej wpisać obie wersje w pasku adresu w przeglądarce. Załóżmy, że preferowana wersja jest z www. Wtedy po wpisaniu http://przyklad.pl powinniśmy zostać przekierowani na http://www.przyklad.pl. Jeśli nie ma ustalonej preferowanej wersji, to nie będziemy przekierowani i będziemy mogli otworzyć oba adresy.

Drugi sposób to sprawdzenie site’a. W pasku szukania wpisujemy site:adres.pl i sprawdzamy, jakie rodzaje adresów są w indeksie. Niżej po sprawdzeniu widać, że wszystkie adresy mają www (patrzymy na zielone adresy URL):

sprawdzanie-kopii-wersji-www

Gdyby był tu problem to zobaczylibyśmy wersje adresów bez www oraz z www.

Można też skorzystać z narzędzi do sprawdzenia przekierowań typu http://www.redirect-checker.org/. Wklejamy dwie wersje adresu strony głównej (z i bez www) i sprawdzamy czy jest przekierowanie 301. Na jednej z wersji powinno być ustawione przekierowanie 301 na pożądaną wersję.

Jak usunąć problem z kopiami www?

Za pomocą odpowiedniej reguły przekierowań, którą robi się po stronie serwera. W przypadku popularnego Apache edytuje się plik htaccess i dodaje kilka linijek kodu, które załatwiają sprawę.

Niektóre skrypty jak np. WordPress od razu po instalacji jest już prawidłowo skonfigurowanych i nie ma tego problemu. Jednak wiele innych CMSów, szczególnie autorskich, ma ten problem.


Http i https

Podobna sytuacja jak z opisywanym wcześniej problemem www i możliwymi kopiami. Rzadko, ale zdarza się, że przez błędne ustawienie strona pojawia się zarówno w wersji http i https, co tworzy kopie. Można to sprawdzić przeglądając site strony. Jeśli dla zapytań ‚site:http://www.strona.pl‚ oraz ‚site:https://www.strona.pl‚ dostaniemy podobne wyniki, gdzie ta sama podstrona będzie występowała w dwóch wersjach, to prawdopodobnie mamy do czynienia z kopią.

Mała uwaga – czasem zdarza się, że strona jest na http:// ale niektóre części (logowanie, koszyk itp.) są już na https://. W tym przypadku te dwie wersje występują koło siebie, ale nie tworzą kopii.

Która wersja powinna być używana? Pamiętajmy, jakie jest przeznaczenie https – szyfrowanie przesyłanych danych. Zatem jeśli na stronie prosimy użytkowników o podanie wrażliwych danych, to jak najbardziej wskazane jest używanie https. W przypadku stron informacyjnych, gdzie nie ma logowania, zakupów i przesyłania innych wrażliwych danych można spokojnie stosować http.

Google oficjalnie potwierdziło, że https jest preferowaną wersją i jest to czynnik rankingujący. Jednak dotychczasowe testy pokazały, że ma to znikomy wpływ na końcową pozycję strony. Stąd też przy decyzji o przejściu bądź nie na https trzeba się kierować względami bezpieczeństwa – jeśli na stronie są przesyłane dane wrażliwe to tak, warto, a przy okazji będzie to zgodne z wytycznymi Google.


Nagłówki

Nagłówki pojawiają się w tekście. Zawsze porównujemy je, dla lepszego zrozumienia ich funkcji, do nagłówków w gazecie. W każdym artykule mamy tytuł (h1) oraz nagłówki śródtekstowe (h2, h3…).

Są też wytyczne co do ich stosowania w tekstach.

Nagłówek h1 powinien zawierać tytuł podstrony, a co za tym idzie powinien występować na danej podstronie tylko jeden raz. Czy jak pojawi się więcej razy, to będzie duży błąd? W przeszłości Google uspokajało że nie. Natomiast pamiętajmy o przejrzystości. Jeśli na podstronę zajrzy bot, znajdzie jeden nagłówek h1, to będzie to miało większą wartość (jako tytuł artykułu) niż jak znajdzie kilka nagłówków h1 (co jest wtedy tytułem?). Dlatego dobra praktyka mówi, by starać się stosować tylko jeden nagłówek h1 dla tytułu podstrony.

Dalsze nagłówki mogą być już stosowane wielokrotnie, bo są to po prostu nagłówki śródtekstowe. Służą do tego, by podzielić dłuższy tekst na logiczne części i by ułatwić czytanie.

Czyli struktura podstrony powinna być następująca:

naglowki-w-optymalizacji-strony

Jeśli hierarchia trochę się zaburzy, przykładowo użyty będzie h1 do tytułu a po nim h3, z pominięciem h2 to nie stanie się nic złego. Najważniejsze o czym trzeba pamiętać to stosowanie h1 jeden raz.

Zawartość nagłówków

Nagłówki powinny zawierać ważne dla danej strony słowa kluczowe. Wspomnieliśmy, że to między innymi z ich pomocą bot definiuje do jakich zapytań będzie pasować dana podstrona. Jednak nie warto tu przesadzać z optymalizacją tylko pod bota. Nagłówki powinny być czytelne dla odwiedzającego. Ponownie – trzeba znaleźć złoty środek.

Najczęstsze błędy

Najczęstszy błąd to używanie pogrubienia dla nagłówków śródtekstowych zamiast samych nagłówków. Problem bierze się często stąd, że do pisania tekstu używany jest wizualny edytor. Autor podczas pisania pogrubia nagłówek. Prawidłowo powinien wybrać odpowiedni nagłówek z listy. W przypadku WP i wielu innych frameworków można go znaleźć w lewym rogu:

wybor-naglowkow-w-wordpressie

Czyli tu po wybraniu pozycji np. Nagłówek 2 w kodzie będzie to przedstawione jako nagłówek w h2.


Nawigacja

Kluczowy element dla wygodnego użytkowania strony. Dobrze rozwiązana nawigacja pomaga też botom odnaleźć wszystkie podstrony i jest pomocna w rankingu dla najważniejszych podstron.

W przypadku nawigacji należy pamiętać o urządzeniach mobilnych. Tu najczęściej pokazywana jest osobna nawigacja mobilna, rozwijana przyciskiem hamburgera.

Niby szczegół, ale jednak bardzo często można spotkać strony, które są bardzo trudne w nawigacji na urządzeniach mobilnych, właśnie przez źle wykonaną nawigację.


Obrazki – optymalizacja grafik

Obrazki to często niedoceniony temat w przypadku optymalizacji serwisu i przy samym pozycjonowaniu. Wynika to stąd, że dla wielu osób pozycjonowanie to tylko wyniki organiczne i ich celem jest pojawienie się w wynikach 1-10. Tymczasem ruch można ściągać też z mapek (które pokazywane są ponad wynikami) czy właśnie z obrazków. Często są one prezentowane w ten sposób (wmieszane w pozostałe wyniki):

znaczenie-grafik-w-pozycjonowaniu

Pamiętajmy też, że jest grupa fraz, które są szukane przez wyszukiwarkę obrazów:

google-wyniki-wyszukiwan-grafik

Oczywiście będą strony o takiej tematyce, że obrazki nie ściągną za wiele ruchu. Jednak widzieliśmy bardzo dużo przykładów stron, gdzie dzięki dobrze zoptymalizowanym grafikom ściągany był znaczący ruch.

Co w takim razie trzeba zrobić, żeby dobrze zoptymalizować obrazki tak by pomagały one przy pozycjonowaniu strony i ściąganiu ruchu?

Nazewnictwo plików

Ważne jest nazewnictwo plików. Jest ono pomocne zarówno dla botów jak i użytkowników. Nazwy powinny być krótkie, powinny oddawać zawartość zdjęcia a poszczególne słowa w nazwie należy oddzielać myślnikami.

Złe nazwy plików:

  • 1245824_DS_12042016.jpg
  • zdjecie.jpg
  • to_ja.png

Dobre nazwy plików:

  • plaza-wejherowo-12.jpg
  • skoda-octavia-wnetrze.jpg
  • rozowy-storczyk-5.jpg

Od razu widać, że przy właściwym nadawaniu nazw plików można powiedzieć, co przedstawiają zdjęcia. Pamiętajmy, że dziennie dodawanych są miliony zdjęć i jeśli nie zadbamy o ich prawidłową optymalizację, to nie będą prawidłowo rozpoznane.

Znacznik ALT

Drugi, bardzo ważny element, który należy wypełniać. Znajduje się on w kodzie, przy wskazywaniu lokalizacji obrazka:

znacznik-alt-w-pozycjonowaniu

Pełni on dwie funkcje. Jeśli jest problem z załadowaniem zdjęcia (np. z powodu wolnego łącza, złej ścieżki do pliku) to wyświetlona zostanie zawartość znacznika ALT. Dzięki temu, nawet bez zdjęcia, użytkownik będzie wiedział, co powinno być w tym miejscu. Przykład niżej pokazuje sytuację, gdy dwa zdjęcia się nie załadowały, ale nawet wtedy widać, co powinno być w danym miejscu dzięki wyświetleniu ALTa:

znacznik-alt-w-praktyce

Druga ważna funkcja to pomoc w zrozumieniu zawartości dla robota. Pokazywane wcześniej wyniki wyszukiwania obrazków według danej frazy muszą być dopasowane do danego zapytania. Zawartość alt pomaga dopasować robotowi zdjęcie do danego zapytania. Dlatego ważne jest odpowiednie uzupełnianie altów przy obrazkach. Warto się kierować następującymi zasadami:

  • opisy powinny być zwięzłe
  • powinny zawierać słowa kluczowe związane z danym obrazkiem

Rozmiar plików i rozszerzenia

Warto zapisywać zdjęcia w formatach, które zapewniają odpowiednią kompresję, czyli np. jpg, png. Należy unikać formatów jak bmp czy innych, które generują zdjęcia w bardzo dużych rozmiarach.

Rozdzielczość zdjęć

Dobrze jest zamieszczać zdjęcia w na tyle dużych rozdzielczościach, aby dobrze prezentowały się na różnych urządzeniach, w tym na dużych monitorach. Nie ma co jednak przesadzać i publikować zdjęć w bardzo dużych rozmiarach, gdyż będą miały one duże rozmiary i będą długo się ładowały.

Sitemapa dla obrazków

Jeśli na stronie publikowanych jest dużo obrazków, to warto dodać sitemapę obrazków. Jest to plik, w którym wskazuje się robotowi wszystkie lokalizacje zdjeć. Dzięki temu mamy pewność, że robot uzyska listę wszystkich zdjęć na stronie i nie będziemy musieli czekać, aż sam je odnajdzie i zaindeksuje.


Przyjazne URLe

Format adresów URL ma znaczenie. Adresy podstron można podzielić na dwie kategorie:

a) nieprzyjazne URLe, przykład:

strona.com/section/9/article-id-99
strona.com/section/9/article-id-99/bardzodlugiurl,ciezkidoprzeklejenia,192.html

b) przyjazne URLe, przykład:

strona.com/motoryzacja/uzywane-samochody-do-10-tys

Na szczęście teraz wiele CMSów ma już wbudowane moduły do generowania przyjaznych URLi. Nadal jednak trafiają się strony, gdzie się o tym zapomina i warto to poprawić.

Dlaczego ważne jest, by na stronie były przyjazne URLe?

1. Opisowe, przyjazne URLe ułatwiają robotom poruszanie się i indeksację podstron serwisu.

2. Gdy na stronie są krótkie, przyjazne URL to zachęca odwiedzających do przekopiowania adresu i np. podzielenia się nim na forum lub innym miejscu. Wbrew temu co mówią niektórzy, istnieje nadal coś takiego jak naturalne linki i ludzie udostępniają je dalej – czy to publicznie na forum, blogu czy też prywatnie w mailu czy przez social media. Dlatego dobrze jest im to ułatwić.

3. URLe podstron są prezentowane w wynikach wyszukiwania i jeśli zawierają szukane słowo kluczowe to również ono jest wyróżnione. Przykładowo na szukaną frazę Toruń widzimy jak nazwa miasta podkreślana jest w wynikach w pasku z adresem:

adres-url-podswietlenie-slow-kluczowych

Należy dopilnować, by w adresach podstron poszczególne słowa oddzielone były myślnikami a nie podkreśleniem, tzn.:

nieprawidłowo: strona.com/adres_podstrony
prawidłowo: strona.com/adres-podstrony

Adresy nie powinny zawierać spacji oraz znaków specjalnych (procenty, gwiazdki itp.). To kilka podstawowych rzeczy, które mogą mieć zauważalny wpływ na strukturę i i wyniki pozycjonowania serwisu.


Szybkość ładowania strony

Nie ma specjalnie dużego znaczenia przy ostatecznej ocenie strony i pozycji w rankingu, ale to ważna rzecz do sprawdzenia. Powód jest prosty – każda sekunda dłużej przy ładowaniu strony to większa liczba użytkowników, którzy się zniecierpliwią i porzucą stronę. Przeprowadzono wiele testów i analiz tego zagadnienia. Najciekawsze dotyczą badań nad sklepami internetowymi. Tam najlepiej widać, jak dłuższy czas ładowania strony obniża konwersję. Zależność jest więc prosta – dłuższy czas ładowania strony = mniejsza sprzedaż.

No dobrze, ale jak sprawdzić czas ładowania strony?

Jest wiele darmowych narzędzi do pomiaru czasu ładowania strony. Na tyle, że ciężko polecić konkretne.

Skąd wziąć listę rzeczy do poprawy?

Google przyszedł z pomocą webmasterom i stworzył narzędzie PageSpeed Insights. To bardzo dobre narzędzie, które ocenia szybkość ładowania strony zarówno na komórki jak i komputery w skali od 0 do 100. Niżej znajdziemy listę rzeczy do poprawy, z podziałem na kategorie ważności:

szybkosc-ladowania-w-pozycjonowaniu-pageinsight

Gdy klikniemy link Pokaż jak to naprawić pojawi się szczegółowy opis z propozycją rozwiązania problemu:

optymalizacja-lista-z-pageinsight

Często są tu zalecenia do technicznej strony serwisu, które musi wdrożyć webmaster. Czasem mogę wymagać większych nakładów pracy. Bardzo pomocne są jednak szczegółowe podpowiedzi i jasny podział listy na rzeczy ważne i mniej pilne, co pozwala szybko usunąć problemy w kluczowych miejscach.


Walidacja

Ponownie czynnik jak szybkość ładowania stron – nie tak istotny przy pozycjonowaniu, ale dobre praktyki nakazują zwrócić na niego uwagę. O co chodzi z walidacją? O to, by kod strony był prawidłowo napisany. Opracowywaniem standardów webowych zajmuje się organizacja The World Wide Web Consortium (W3C) – https://www.w3.org – i to na jej stronie udostępniony jest walidator https://validator.w3.org. Po podaniu adresu przedstawiona jest lista błędów i sugestie poprawek:

walidacja-w3-wyniki

Jak podejść do tej listy? Jeśli mamy małą stronę i błędów jest kilka to warto je usunąć zgodnie z wytycznymi walidatora. Jeśli jednak strona jest bardzo duża i pojawia się spora liczba błędów to raczej warto skupić się tylko na tych najważniejszych. Po prostu środki poświęcone na naprawdę dużej liczby błędów nie przełożą się specjalnie na aż tak duże korzyści.


Robots.txt a meta tag robots

Pomimo podobnych nazw są to dwie różne rzeczy, aczkolwiek o zbliżonej funkcji. Każda strona jest odwiedzana przez roboty – nie tylko Google, ale też innych wyszukiwarek czy stron (np. crawlery Majestic, Ahrefs). Właściciel strony ma możliwość wpływu na to, co robią roboty na jego stronie i z jego stroną.

Meta tag robots

Służy głównie do informowania bota, czy chcemy by dana strona była włączona do indeksu. W kodzie ma on postać jak niżej, znajduje się w sekcji head:

metatag-robots

Domyślna wartość dla niego to follow. Jeśli jednak nie chcemy, by strona pojawiała się np. w wynikach wyszukiwania Google to mamy możliwość ustalenia tagu robots na nofollow dla całej strony lub pojedynczej strony i wtedy robot potraktuje to jako informację, żeby strony nie indeksować.

Robots.txt

To plik robots.txt który zawsze znajduje się bezpośrednio w folderze root tzn. znajdziemy go pod adresem http://www.strona.pl/robtos.txt. Najczęściej będzie on miał postać:

robots-txt-przyklad

Oczywiście pliki robots.txt mogą być dużo dłuższe niż przykład wyżej.

Do czego służy robots.txt? Wyobraźmy sobie sytuację, że prowadzimy bardzo duży portal – setki tysięcy podstron, obrazków itp. Jak wspomnieliśmy, stronę odwiedzają nie tylko roboty Google ale także inne roboty, które przeglądają całą naszą stronę. Generują przy tym duże obciążenia serwera. Wbrew pozorom to częsty problem dużych serwisów, gdy boty potrafią zauważalnie obciążyć serwer. Dzięki robots.txt możemy tak pokierować ruch robotów, by niektóre np. w ogóle nie wpuszczać lub wpuszczać je tylko do określonych części strony.

Należy pamiętać, że instrukcje w robots.txt to polecenie, które niektóre roboty mogą zignorować. Najczęściej jednak stosują się do poleceń i daje to możliwość webmasterom pewnej kontroli nad robotami.

Więcej o robots.txt:
https://support.google.com/webmasters/answer/6062608?hl=pl


Canonicale

Bardzo przydatna funkcja. Pozwala ona wskazać robotowi, gdzie znajduje się oryginał treści. Wyobraźmy sobie scenariusz, gdzie zarządzamy mocno rozbudowanym sklepem i chcemy przyporządkować produkt do kilku kategorii. Jednak jeśli to zrobimy, to będzie on występował w kilku miejscach co jest równoznaczne z tym, że będzie miał kilka kopii wewnętrznych w obrębie sklepu. Dzięki canonicalom możemy wskazać jedną podstronę, która powinna być potraktowana jako główna.

W kodzie definiuje się canonicale w sekcji head, mają one postać jak niżej:

canonical-wazny-element-optymalizacji-seo

Canonicale są bardzo ważne w pozycjonowaniu, bo pozwalają uniknąć kopii treści i związanych z tym problemów. Przy większych serwisach trzeba dobrze przemyśleć i zaplanować ich użycie i najczęściej dobrze by pomagał przy tym pozycjoner z doświadczeniem.

Więcej o stosowaniu przekierowań kanonicznych: https://support.google.com/webmasters/answer/139066?hl=pl.


Wersje mobilne

Nadal można spotkać strony, które nie mają wersji mobilnej, a to duży błąd. Zdarza się, że nawet połowa wyszukań pochodzi z urządzeń mobilnych. Jak to rozróżnić? W Google Analytics z lewej strony jest sekcja Ruch mobilny, gdzie znajdziemy podział na urządzenia:

analytics-wejscia-mobilne

Widać, że w przykładzie 56% ruchu pochodzi z komputerów, 36% ze smartfonów, 8% z tabletów. Czyli jak zsumujemy komórki i tablety to mamy 44% ruchu, który pochodzi z innych urządzeń niż komputery. Podobne statystyki można zobaczyć na wielu innych serwisach.

Liczby wyżej wyraźnie pokazują, że ruch mobilny jest ważny i nie mając odpowiednio przygotowanej strony taki użytkownik najpewniej zamknie stronę.

Jest jeszcze jeden powód. Google wprowadził algorytm mobilny, który ocenia strony pod kątem tego, jak są wyświetlane na urządzeniach mobilnych. Jeśli dana strona nie jest przyjazna urządzeniom mobilnym to w wynikach wyszukiwania strona będzie miała obniżone pozycje. Chodzi tu konkretnie o wyniki wyszukiwania dokonywane na telefonach. Ma to sens – skoro użytkownik korzysta z telefonu i na nim dokonuje operacji szukania, to powinien dostać wyniki stron, które będą się bez problemu wyświetlały na jego urządzeniu.

Aby nie było wątpliwości, czy strona będzie miała problemy, czy nie, Google przygotowało test zgodności z urządzeniami mobilnymi. Test można znaleźć pod adresem:

https://www.google.com/webmasters/tools/mobile-friendly/?hl=PL

Działa bardzo prosto. Wpisujemy adres strony do sprawdzenia. Po chwili dostajemy wynik. Jeśli wszystko jest ok, to dostaniemy prosty komunikat:

test-na-dzialanie-strony-na-wersji-mobilnej

Jeśli natomiast będą problemy, to dostaniemy listę potencjalnych problemów, które utrudniają prawidłowe wyświetlanie na urządzeniach mobilnych, tak jak na przykładzie niżej:

wersja-mobilna-problemy

Technologie prezentacji stron mobilnych

Kiedyś dla wersji mobilnych robiło się zazwyczaj osobną wersję strony. Czyli jeśli użytkownik wchodził z telefonu komórkowego, to była mu przedstawiana wersja w stylu http://m.strona.pl (to znaczy na subdomenie m. była wersja mobilna, a na http://strona.pl normalna wersja strony). Nadal można spotkać takie rozwiązanie, bo sprawdzało się dość dobrze.

Jednak pojawił się problem – przybyło rodzajów urządzeń mobilnych. Już nie były to same smartfony, pojawiły się też tablety oraz urządzenia hybrydowe (np. połączenie laptopa i tableta). Każde z nich ma inne rozmiary ekranów, inne rozdzielczości. Nagle okazało się, że prezentacja jednej wersji mobilnej to za mało. Stąd mocno zyskało na popularności tworzenie stron responsywnych, albo w skrócie RWD (Responsive Web Design). Jak nazwa podpowiada, strony dostosowują się do urządzenia na którym są wyświetlane. Czyli pod jednym adresem strona może wyglądać inaczej zależnie od urządzenia. To duże udogodnienie, bo mamy pewność, że niezależnie od urządzenia odwiedzający dostanie czytelną wersję strony.

Bootstrap

Powstało wiele frameworków, które ułatwiają tworzenie responsywnych stron, ale od dłuższego czasu najpopularniejszy jest Bootstrap – http://getbootstrap.com. To gotowe biblioteki klas CSS i JavaScript, które dołączamy do projektu. Następnie stronę należy tworzyć z wykorzystaniem tych klas. Dzięki temu automatycznie strona będzie dopasowywała się do rozmiaru ekranu.


Sitemapy

Sitemapy to, jak podpowiada nazwa, mapa strony. Aby lepiej zrozumieć, po co są potrzebne, sprawdźmy co się dzieje, gdy ich nie ma.

W indeksie Google znajdują się podstrony, które uznane zostały za warte dodania. Można to sprawdzić, szukając z komendą site:adresstrony.pl:

przyklad-site-w-google

Na powyższym przykładzie widać, że do indeksu trafiło niecałe 30 podstron. To mała strona, najpewniej trafiły tu wszystkie podstrony.

Tylko jak się tam znalazły? Robot wchodzi na stronę i stara się rozeznać w strukturze wewnętrznej serwisu. Robi to oczywiście za pomocą linków wewnętrznych, za pomocą których odkrywa kolejne strony. Większość z nich zostanie dodana do indeksu.

W przypadku małych stron, jak ta z przykładu wyżej, robot szybko rozezna się w strukturze i znajdzie wszystkie podstrony. Problem pojawia się przy dużych serwisach jak sklepy czy portale, które mają po kilkaset tysięcy albo kilka milionów podstron. Są i takie przypadki. Crawlery Google radzą sobie bardzo dobrze w indeksowaniu podstron, ale przy dużych stronach kosztuje je to więcej czasu. I tak jak w przykładzie wyżej bot wszedł i od razu znalazł wszystkie 29 podstron, to tak łatwo i szybko nie pójdzie mu przy dużym sklepie.

To jeden z powodów, dlaczego warto stosować sitemapy. Gdy robot widzi, że webmaster udostępnia mu sitemapę, wtedy wie, że są to adresy, które webmaster chciałby prezentować użytkownikom. Dostaje wszystkie adresy podane na talerzu i nie musi tracić czasu na ich samodzielne odnajdywanie. Po prostu wchodzi pod podane adresy podstron z listy.

Mamy rodzaje sitemap:

sitemapa XML – dodaje się ją w formacie XML (https://pl.wikipedia.org/wiki/XML) w Google Search Console. To sitemapa przeznaczona tylko dla robota. Po jej przesłaniu widać, ile adresów zostało przesłanych a ile z nich trafiło do indeksu. Pojawia się również komunikat o błędach lub ostrzeżeniach:

sitemapy-w-google-search-console

sitemapa HTML – najczęściej umieszcza się ją na osobnej podstronie i link do tej podstrony z sitemapą dodaje się w stopce. Robot też z niej może skorzystać, ale tworzy się ją również z myślą o odwiedzającym. Wyobraźmy sobie sklep z wieloma kategoriami, podkategoriami. Czasem nawigacja może być utrudniona. Mapa strony może być w takim wypadku bardzo przydatna. Dobrym przykładem jest mapa strony z cyfrowe.pl http://www.cyfrowe.pl/mapa-strony.html :

sitemapa-dobra-optymalizacja

Od razu widać tu podział na kategorie i podkategorie. Użytkownik łatwo może znaleźć to czego szuka. Jest to też przydatne na urządzeniach mobilnych. Niektóre menu są po prostu toporne, szczególnie przy bardzo dużej liczbie kategorii i podkategorii. Wtedy szybciej jest przejść na mapę strony i znaleźć interesującą nas pozycję.


Javascript i crawlery

Na przestrzeni lat współpracowaliśmy z wieloma deweloperami, braliśmy udział przy stronach projektowanych od podstaw. Bardzo często pojawiała się wątpliwość, w jakim stopniu można użyć JavaScript na nowej stronie. Obawa dotyczyła konkretnie większego wykorzystania JS w strukturze – czy crawlery sobie z tym poradzą?

W skrócie: tak, obawy w większości przypadków są zbędne.

Google już wielokrotnie zaznaczało, że crawlery są na tyle zaawansowane, że radzą sobie z JavaScriptem bardzo dobrze.

Pomocne jest też to, że seowcy zaczęli robić kompleksowe testy. I rzeczywiście – potwierdzają to co mówiło już nieraz Google. Crawlery bardzo dobrze sobie radzą z JSem, bez problemu indeksują strony oraz przekazują moc. Więcej w tym artykule:

http://searchengineland.com/tested-googlebot-crawls-javascript-heres-learned-220157

W teście z linka wyżej testujący sprawdzili m.in.:

  • Jak bot google radzi sobie z przekierowaniami JavaScript
  • Czy indeksowana jest treść dynamicznie wstawiona za pomocą JavaScript
  • Jak traktowane są elementy typu metatagi, elementy strony, wstawiane za pomocą JavaScript
  • Jak przenoszona jest moc przy użyciu linków JavaScript

Bardzo ciekawe spostrzeżenia, polecamy dokładną lekturę.

Nadal jednak za dobrą praktykę uznawany jest test polegający na wyłączeniu obsługi JS na stronie i sprawdzenie możliwości nawigacji po stronie. W niektórych przypadkach źle wdrożony JS może zaszkodzić stąd tak ważne jest dokładne testowanie, by nie skończyć jak Hulu:

http://www.linkresearchtools.com/case-studies/hulu-javascript-fail-visibility-drop


Efekt wdrożenia optymalizacji a oczekiwania klientów

Do tej pory dość dokładnie przyjrzeliśmy się, jakie elementy strony podlegają optymalizacji. Jak widać, dużo z nich to elementy strony wymagające bezpośrednio zmian w kodzie lub modyfikacji CMSa/skryptu sklepu tak, by wprowadzone dane prawidłowo były pokazane w kodzie. Treści też stanowią ważny element w procesie optymalizacji i pozycjonowania stron. Opisane zostały w osobnym rozdziale.

Osobiście, gdybyśmy mieli wybierać pomiędzy bezbłędnie zoptymalizowaną stroną ale ze średnią treścią, a stroną słabo zoptymalizowaną, ale z bardzo dopracowaną, ciekawą treścią to zawsze wybralibyśmy serwis gdzie lepsza jest treść.

Dlaczego? O tym za chwilę. Najpierw jednak musimy wyjaśnić, dlaczego optymalizacja techniczna serwisu jest często źle interpretowana przez klientów i właścicieli stron.

Co myśli właściciel serwisu: po wprowadzeniu zaleceń mój serwis wskoczy od razu do top 10, zwiększy się też ruch, bo przecież będzie lepiej zoptymalizowany pod konkretne frazy.

Jaka jest rzeczywistość: czasem optymalizacja przynosi rzeczywiście bardzo dobre efekty (np. gdy domena jest bardzo mocna, a po prostu kulała optymalizacja serwisu), ale zdarza się dość często, że po samej optymalizacji nie ma oczekiwanego efektu wow. Są zmiany na plus, ale nic spektakularnego.

Dlaczego tak się dzieje: optymalizacja to szereg zmian, które mają na celu poprawienie strony (kodu, układu, treści itp.) tak aby była zgodna z wytycznymi Google. Niektóre zmiany rzeczywiście mogą być robione intuicyjnie według doświadczenia danego pozycjonera, ale i tak biorą się one stąd, że Google zaleca dany kierunek. Można to porównać do wyścigu samochodów rajdowych. Specyfikacja jasno określa jakie zmiany są dozwolone, a jakie zabronione. Dzięki temu na linii startu żaden z samochodów nie wybije się ponad konkurencję, bo zamontowano tam mocniejszy niż dozwolony silnik. Do tego też dąży optymalizacja stron – aby była jak najbardziej zgodna z wytycznymi Google. Później o tym która strona będzie uznana za lepszą zdecydują rzeczy jak moc domeny, linki, treści.

Wiele serwisów z topów jest już dobrze zoptymalizowana, szczególnie tam gdzie konkurencja jest bardzo silna. Dlatego jeśli serwis klienta był źle/słabo zoptymalizowany i poprawimy te błędy optymalizacyjne to nie jest to argument by tenże serwis przeskoczył całą konkurencję i wskoczył na jedynkę. On po optymalizacji po prostu równa się z konkurencją i w grę wchodzą pozostałe czynniki jak moc domeny, zaufanie, dopasowanie treści.

Wracając do pytania z początku – czemu wybralibyśmy serwis gorzej zoptymalizowany, ale z lepszą treścią?

a) Jeśli treść w serwisie jest naprawdę dobra, to nawet pomimo gorszej optymalizacji ma szansę pojawiać się wysoko. Widzieliśmy takie zjawisko nie raz przez lata pracy.

b) Ludzie linkują do dobrej treści. Szczególnie jeśli jest to przydatna, informacyjna treść – możemy spodziewać się naturalnych linków z forów, blogów, mediów społecznościowych i różnych stron.

c) Dobra treść generuje ruch z długiego ogona. Jeśli dany artykuł wyczerpuje temat, to pojawia się nie tylko na główne zapytanie, ale często też na setki innych, długoogonowych złożeń, generując przy tym zauważalny ruch.

To chyba dość dobrze oddaje fakt, jak ważna jest treść w procesie pozycjonowania, walki o ruch i dobre miejsca.

Podaj dalej

Subscribe for FREE Marketing Pro Newsletter!

Subscribers get the best curated content for you

Szymon Spychała

Wspólnik w Carted.pl. Pasjonat tematyki e-commerce i możliwości rozwoju oraz zarabiania jakie daje internet.

Powiązane artykuły

Skomentuj

Pola oznaczone gwiazdką są wymagane *