W Polsce powstaje cały czas wiele nowych sklepów internetowych, pomimo faktu, że konkurencja na rynku jest spora.
Rynek sprzedaży przez internet rośnie praktycznie dwucyfrowo co roku. Wiele osób upatruje w tym swojej szansy na sukces i decydują się na założenie sklepu. Nawet my zdecydowaliśmy się na otworzenie własnego sklepu internetowego, choć tu historia powstania jest bardziej złożona ;). Jednak samo otworzenie sklepu to dopiero pierwszy z wielu kroków do budowy solidnego biznesu online, który zarabia na siebie.
Dla kogo
Poradnik powstał z myślą o osobach, które dopiero otwierają sklep internetowy i będą chciały go promować, lub już prowadzą sklep i chcą zwiększyć ruch i sprzedaż.
Staramy się przedstawić w przystępny sposób informacje zarówno podstawowe jak i bardziej zaawansowane. Jeśli jakaś część wydaje się za trudna lub niezrozumiała to można spokojnie przejść do następnej części.
Dlaczego
W branży marketingu internetowego jesteśmy od lat. W naszej pracy spotykaliśmy wielu właścicieli sklepów internetowych. Sporo z nich powiela te same błędy, które najczęściej wynikają z niewiedzy i braku zrozumienia mechanizmów działania i promocji sklepów internetowych.
Panuje powszechne przekonanie, że nowo otwarty sklep internetowy trzeba pozycjonować. Pozycjonowanie należy zlecić agencji. Następnie wystarczy czekać, aż ruch wzrośnie, bo przecież przy sprzedaży oferty tak zapewniał przedstawiciel agencji. W ślad za ruchem pójdzie sprzedaż i będzie dobrze.
Niestety, w większości przypadków to przepis na porażkę, chyba że po drodze ma się sporo szczęścia i trafi się na odpowiednią niszę oraz agencję.
Cel
Celem poradnika jest przedstawienie szerokiej gamy działań, jakie można podjąć przy promocji sklepu internetowego. Część może nie pasować do danego sklepu, jednak większość przedstawionych działań jest raczej uniwersalna. Na bazie tej wiedzy prowadzący sklep internetowy powinien móc podejmować lepsze decyzje – czy to przy sprawdzaniu pracy danej agencji czy układaniu dalszej strategii rozwoju sklepu.
Część 1. Strategia czyli nie tylko pozycjonowanie
W przypadku większości sklepów, z którymi się stykamy słowa jak strategia, plan rozwoju nie padają i nigdy w przeszłości nie padły. Niektórym się udało i biznes się rozwija, inni mają problem ze sprzedażą kilkunastu produktów miesięcznie.
Są ważne punkty, które mają wpływ na powodzenie lub porażkę sklepu:
sprawdzenie potencjału sklepu – czy nasz towar będzie się sprzedawał
wybór odpowiedniego oprogramowania sklepowego
odpowiednie dokapitalizowanie – potrzebne szczególnie do promocji i rozwoju sklepu
strategia promocji sklepu – czyli wszystkie kwestie dotyczące zdobywania ruchu i zwiększania sprzedaży
Najczęściej są one pomijane. Jest pomysł to działamy. Wyjdzie w praniu.
Być może częściowo bierze się to z fałszywego przekonania, że jak konkurencji się udało to czemu mi się nie uda.
Przyjrzymy się dwóm ostatnim podpunktom, dwa pierwsze zostały szerzej omówione w poradniku dotyczącym zakładania sklepu.
Odpowiednie dokapitalizowanie
Jak w każdym biznesie, trzeba mieć kasę na start. Wszystko kosztuje – postawienie sklepu, zatowarowanie…. A to dopiero początek. Szybko okazuje się, że ta wirtualna działalność nie jest taka tania.
Bardzo często spotykamy się z sytuacjami, że na promocję sklepu zostaje bardzo mało pieniędzy. Nie raz słyszeliśmy, że ktoś ma miesięcznie 400-600zł na pozycjonowanie sklepu. A na Adwords już nie ma w ogóle pieniędzy. Tak się nie da.
OK, nie każdy musi wiedzieć dokładnie jak wygląda pozycjonowanie, ale warto skończyć z błędnym przeświadczeniem, że pozycjonowanie jest tanie. Ma to być po prostu tańsze źródło ruchu niż Adwords czy inne reklamy. Mały budżet na pozycjonowanie mocno ogranicza możliwości działania i zmusza wręcz do stosowania mocno karanych praktyk (blackhat).
To jak przy prowadzeniu stacjonarnego sklepu. Płacimy miesięcznie czynsz – niech to będzie przykładowe 2000zł miesięcznie. Musimy brać pod uwagę, że zajmie trochę rozkręcenie sprzedaży, więc powinniśmy mieć odpowiedni zapas gotówki na pierwszy start działalności.
Przy sklepie internetowym zamiast czynszu za lokal mamy inne opłaty jak Adwords czy pozycjonowanie – też trzeba przewidzieć odpowiedni budżet na pierwszy rok działania.
Strategia promocji sklepu
Najczęściej brak odpowiedniego dofinansowania lub często też brak wiedzy sprawia, że nie ma jasno określonego pomysłu na promocję sklepu.
Jeśli już taki pomysł jest to najczęściej jest to pozycjonowanie.
Spotkaliśmy właścicieli sklepów, którzy po roku poddawali się i zamykali sklep z powodu braku sprzedaży. Na pytanie o źródła promocji mówili, że zlecili pozycjonowanie, płacili co miesiąc 600zł, ale nie było jakiegoś ruchu i nie przełożyło się na sprzedaż.
600zł miesięcznie przez rok to 7200zł. Taka kwota zainwestowana w Adwords dla wielu sklepów wystarczyłaby na ściągnięcie jakiegoś zauważalnego ruchu. Wtedy, jeśli przy całym ruchu nic by się nie sprzedawało, to można by powiedzieć że coś jest nie tak i rozważyć zamknięcie.
Problemem jest brak wiedzy o istnieniu wielu kanałów ruchu. Powinniśmy dążyć do tego, by każdy z tych kanałów się rozwijał i generował sprzedaż. Te kanały to między innymi:
ruch organiczny – czyli ruch z wyszukiwarek
ruch płatny – czyli ruch z reklam jak Adwords czy Merchant Center
odesłania – czyli przekliki z innych stron – mogą to być zwykłe strony (forum, blog), social media (FB i inne), newslettery
ruch bezpośredni – jak zbudujemy markę, wiele osób będzie wchodziło na naszą stronę bezpośrednio, bo będą zainteresowani naszymi produktami
W ramach każdego z tych kanałów jest wiele możliwości budowy ruchu i promocji. Część może wymagać mniejszych nakładów, część większych.
Wszystkie te kanały składają się na całościowy ruch, niżej przykład gdy tylko połowa to ruch z wyszukiwarek, a pozostały ruch pochodzi z innych źródeł:
W dalszej części poradnika przyglądamy się działaniu wszystkich tych obszarów. Strategia powinna zakładać rozwój każdego z tych obszarów.
Przykładowy szkic strategii:
1. Zagospodarowanie 1500zł miesięcznie na SEO, zlecenie działań SEO freelancerowi lub agencji + 500zł miesięcznie na copywritera do tworzenia treści do sklepu (kategorie, produkty, inne).
2. Prowadzenie kampanii Adwords i Merchant Center, przeznaczanie na Adwords i MC ok. 2000zł / miesiąc. Można zlecić lub prowadzić samodzielnie.
3. Zlecenie lub samodzielne prowadzenie kont social media – facebook i instagram. Przeznaczenie testowego budżetu na reklamę naszego fanpage w ramach FB i sprawdzenie jej skuteczności.
4. Otworzenie sklepu na Facebooku.
5. Nacisk na pozyskiwanie nowych adresów email przy sprzedaży, prowadzenie newslettera, prezentacja ofert i promocji specjalnie dla czytelników newslettera.
6. Otworzenie sklepu w Allegro, sprzedaż przez Allegro.
7. Zdobywanie ruchu poprzez ceneo.pl, skapiec.pl, homebook.pl – inne. To wiąże się z opłatami, przetestowanie ile budżetu miesięcznie potrzeba na pozyskanie przeklików z tych stron.
8. Otworzenie kanału Youtube sklepu, kręcenie autorskich filmów z poradami.
Jak widać przedstawiliśmy tutaj 8 różnych obszarów, które powinny przekładać się na ruch i sprzedaż. Wiele z nich wymaga inwestycji i zlecenia specjalistom, niektóre z nich można rozwijać w późniejszych etapach działania sklepu.
Część 2. Sklep internetowy a Google – warto wiedzieć
Mówiliśmy o różnych źródłach ruchu, ale nadal najważniejsze z nich to ruch organiczny. Jeśli sklep ściąga odpowiednio dużo odwiedzin z wyszukiwarki to przekłada się to na rozwój i często daje też możliwość finansową rozwoju innych dziedzin.
Stąd kilka kolejnych części poświęconych zostało właśnie pozycjonowaniu.
W tej części przyjrzyjmy się podstawom – czym jest pozycjonowanie, jak ważny jest wybór odpowiedniego oprogramowania sklepu i wiele innych częstych wątpliwości.
2.1. Czym jest pozycjonowanie?
Pozycjonowanie w większości przypadków jest wpływu na algorytm tak, by dana strona była prezentowana wyżej w rankingu.
Stąd działania mające na celu promocję witryn można podzielić na trzy grupy:
Whitehat – czyli biały kapelusz. To grupa działań jak najbardziej dozwolonych przez Google. Mowa tu głównie o rozbudowie strony i dodawaniu takich treści czy innego contentu, do którego inni użytkownicy sami będą linkować. W przypadku działań Whitehat właściciel strony raczej nie powinien ingerować w proces powstawania nowych linków. Wszystko powinno dziać się naturalnie.
Grayhat – to grupa działań, które są na granicy. Dla części osób będą to działania zgodne z wytycznymi Google, dla innych nie. Ogólnie chodzi tu o przypadki gdy właściciel strony lub najęta osoba prowadzi działania, by zwiększała się liczba linków wskazujących na stronę. Mogą tu być również zmiany optymalizacyjne na samej stronie, które też będą na granicy.
Blackhat – to już grupa działań, które podchodzą pod spam. To cały szereg różnych działań mających na celu pozyskanie takiej liczby linków o sprzedażowych kotwicach, aby zmanipulować wyniki pod daną frazę. To najszybsza droga, by zarobić karę manualną albo algorytmiczną od Google.
Za rankingami (wynikami wyszukiwania) stoją algorytmy. Biorą pod uwagę wiele różnych czynników, według informacji od Google jest to nawet 500 różnych czynników. Każdy oczywiście ma inną wagę.
O części z nich Google mówi otwarcie. Trochę informacji o tym jak dostosować stronę można znaleźć w wytycznych i poradach dla webmasterów.
Na ranking wpływają dwie grupy czynników:
Onsite – dotyczy samej strony internetowej. Struktura, metatagi, słowa kluczowe, linkowanie wewnętrzne, treści… wszystko to ma wpływ na pozycje strony
Offsite – dotyczy czynników zewnętrznych – linków. Jakie strony linkują do naszej, jak wygląda profil linków.
Obie grupy są równie istotne i aby pozycjonowanie było skuteczne trzeba zadbać, aby strona była odpowiednio zoptymalizowana jak również o to, by miała moc.
Moc i zaufanie przekazywane są za pomocą linków. Są one nadal bardzo istotne w procesie pozycjonowania. Nie chodzi tu o ilość a o jakość i tematyczność.
Przy pozycjonowaniu sklepu internetowego kluczowe jest oprogramowanie, czyli tak zwany skrypt sklepowy, na którym działa sklep. Z punktu widzenia użytkownika wszystkie sklepy są do siebie bardzo podobne. Jednak istotne różnice pojawiają się w mniej widocznych, a dalej bardzo istotnych kwestiach. Chodzi o możliwość edycji technicznych szczegółów, które mają wpływ na SEO.
Na rynku jest wiele rodzajów oprogramowania sklepowego – abonamentowe lub open source z pełnym dostępem.
Na razie zobaczmy, czym się różnią. W kolejnej części podpowiemy, na które z nich warto zwrócić uwagę.
Dalej przedstawiamy popularniejsze skrypty spotykane w Polsce i przedstawiamy ich wady i zalety.
IAISHOP
Duży sklepowy CMS, raczej dla większych sklepów internetowych.. Posiada wiele rozwiązań wspomagający prowadzenie ecommerce. Niestety pod względem SEO nie jest tu za dobrze. Wady? Bardzo nieintuicyjne pochowanie ustawień meta tagów (całe szczęście jest możliwość tworzenia szablonów), trudno wdrożyć dodatkowe opisy oraz nieszablonowe rozwiązania. Dostęp do plików widoków w jakieś archaicznej formie. Panel nie jest “dla” użytkownika, poruszanie się w nim jest bardzo utrudnione. Ciężko wdrożyć często nawet pozornie proste zmiany.
Sklepowy serwis nastawiony jest na dodatkowe zyski z indywidualnych wdrożeń dla klienta – wszystkie są dodatkowo wyceniane, ale dzięki temu można wdrożyć większość rzeczy. Nie polecamy tego skryptu z uwagi na jego przestarzały charakter. Niby można zrobić w nim dużo, ale jest to okupione dużą ilością pracy i kosztuje. Pytanie czy warto się męczyć skoro są lepsze rozwiązania.
Plusy:
możliwość konfiguracji serwisu według własnych potrzeb
dużo rozwiązań wspomagających prowadzenie Ecommerce
Minusy:
nieintuicyjny
archaiczny
brak zaawansowanych rozwiązań SEOwych
SHOPLO
Skrypt raczej dla małych sklepów internetowych.
Ten system sklepowy pozytywnie nas zaskoczył. Zapowiadało się kolejne sklepowe rozwiązanie dla masowego klienta, a okazało się, że możliwości edycji i modyfikacji są spore. Pod względem SEO i optymalizacji jest w porządku – nie dość, że intuicyjnie z panelu jesteśmy w stanie ustawić podstawową optymalizację to dodatkowo mamy dostęp do plików widoków gdzie możemy wdrożyć wszystko co chcemy. Niestety niektóre SEOwe rozwiązania musimy wdrażać ręcznie, bezpośrednio w kodzie.
Plusy:
intuicyjny, przyjemny panel
dostęp do plików widoków
podstawowa optymalizacja seo z panelu
Minusy:
problem z indywidualnym nagłówkiem h1 (nazwa kategorii)
wymaga trochę doświadczenia i wiedzy, żeby odpowiednio okiełznać filtrowanie i podział na podstrony
SOTESHOP
Skrypt dla większych sklepów internetowych.
Na pierwszy rzut oka wydaje się wszystko OK, profesjonalny panel, mnogość ustawień itd. Niestety trudno się w tym wszystkim odnaleźć, jest nieintuicyjnie. Pod względem SEO jest średnio. Podstawowe zmiany można wdrażać bezpośrednio z panelu – opisy, przekierowania, mapy strony albo meta dane. Jednak widoki serwisu przeważnie nie są ładnie umieszczone w tradycyjnych plikach widoków, a podzielone na moduły (przez co jest problem ze zmianą nazwy kategorii). To wszystko sprawia, że trudno wdrożyć tam “nieszablonowe” rozwiązania. Ponadto kuleją canonicale albo chociaż możliwość ustawienia noindex na stronach filtrowania przez co tworzą się niepotrzebne kopie treści.
Niewątpliwym plusem jest serwis, który odpowiada na pytania klientów oraz mnogość dodatkowych modułów (niestety często drogich).
Plusy:
możliwość ustawienia TITLE z szablonu,
sitemapa xml
edycja pliku htaccess
miejsce na przekierowania dla laika
moduły dla allegro, płatności
serwis klienta
Minusy:
integracje dodatkowo płatne
nieintuicyjny
problemy z zarządzeniem zawartością
brak canonicali na sortowaniu
Shoper/Clickshop
Skrypty dla małych jak i średnich sklepów internetowych.
Bliźniacze skrypty. Dostępne dla klientów w bardzo atrakcyjnych rozwiązaniach cenowych, jednak (nie licząc najdroższych pakietów) bez dostępu do plików i możliwości postawienia na własnym serwerze.
Zależnie od wersji możemy również nie mieć możliwości edycji pliku htaccess co odbija się brakiem możliwości wdrożenia przekierowań. Osobiście zawsze nas dziwią tego typu ograniczenia.
Panel jest bardzo intuicyjny i łatwy w obsłudze. Możemy wdrażać w nim meta dane za pomocą szablonów oraz indywidualnie dla każdej kategorii i produktu. Posiadamy również dostęp do plików widoków co umożliwia ręczne wdrożenie bardziej zaawansowanych rozwiązań SEOwych jak i tagów SEMowych. Tradycyjnie jak z większością CMSów sklepowych lekki problem stanowią nieszablonowe nazwy kategorii (w h1) oraz canonicale – można to poprawić w plikach widoków.
Plusy:
optymalizacja meta tagów
dostęp do plików widoków
łatwa integracja ze skryptami Google
canonicale na zmienione adresy url kategorii
Minusy:
brak dostępu do htaccessa
brak bardziej zaawansowanych SEO opcji w panelu
brak dostępu do logiki sklepu
PrestaShop
Skrypt dla średnich i dużych sklepów internetowych.
Jeden z najpopularniejszych darmowych skryptów sklepowych. Bardzo duża społeczność, olbrzymia ilość modułów (płatnych i darmowych), możliwość znalezienia rozwiązania na większość problemów jakie mogą nas spotkać przy obsłudze. Fajny, intuicyjny panel z możliwością ustawienia wielu SEO wytycznych. Od meta tagów indywidualnie dla produktu bądź kategorii, po własne adresy URL. Niestety pomimo tak dużej popularności, każda wersja “Presty” posiada parę mankamentów, które musimy ręcznie poprawić w plikach widoków. Najczęstszymi problemami do rozwiązania są:
duplikacja opisów kategorii na stronicowaniu,
opis podkategorii w “title” linku w menu,
brak canonicali na sortowaniu kategorii,
brak indywidualnych h1 na stronach kategorii i produktów
Na szczęście mamy dostęp do logiki skryptu jak i plików widoków, dzięki czemu możemy wdrożyć wszystko o czym pomyślimy. Oczywiście wymaga to trochę wiedzy i doświadczenia.
Plusy:
intuicyjny panel
darmowy
mnogość modułów
duża społeczność
podstawowa optymalizacja SEO z panelu
dostęp do plików logiki skryptu jak i widoków
Minusy:
problem z dodatkowymi treściami (np. blog)
brak zaawansowanych ustawień SEO z panelu
problemy z wydajnością przy nieodpowiedniej konfiguracji serwera
Magento
Bardzo znane oprogramowanie sklepowe. Przeznaczone dla dużych sklepów internetowych.
Magento w podstawowej wersji jest darmowe. Po instalacji wiele podstawowych rzeczy można wyklikać z panelu. Jeśli jednak będziemy chcieli wdrożyć niestandardowe zmiany, potrzebna będzie pomoc programisty, najlepiej specjalizującego się w Magento.
Niestety, Magento jest bardzo rozbudowanym oprogramowaniem sklepowym. Przez to czasem nawet pozornie proste zmiany wymagają dużego nakładu prac. Sami programiści Magento odpowiednio się cenią za wdrażanie zmian i tu trzeba się liczyć z wysokimi kosztami prac programistycznych.
W wielu przypadkach nie trzeba będzie jednak robić zmian od podstaw – dostępnych jest wiele wtyczek rozwiązujących najpopularniejsze problemy oraz dodające wiele nowych funkcjonalności. Przeważnie wtyczki kosztują około 100-200$ lub więcej.
Dla kogo zatem nadaje się Magento? Dla osób, które będą prowadzić sklep internetowy z dużym asortymentem. Nie bez powodu Magento jest popularnym wyborem wśród największych sklepów.
Plusy:
Darmowy
Wiele lat na rynku, przez co jest bogata baza wtyczek i szablonów
SEO-wo można tu zrobić praktycznie wszystko, choć czasem wiążę się to z programistycznymi zmianami
Sprawdzone rozwiązanie dla dużych sklepów, które często są łączone z magazynem
Minusy:
Wymaga odpowiednio wydajnego hostingu
Zmiany programistyczne są drogie
Najczęściej wdrożenie sklepu internetowego na Magento trwa dłuższy czas (miesiące)
WooCommerce
Nasz ulubieniec i polecany przez nas skrypt sklepu internetowego.
WooCommerce to dodatek do WordPressa, który również jest darmowy. Idealny dla mniejszych i średnich sklepów. Powyżej 10,000 produktów raczej lepiej wybrać inne oprogramowanie, bo tu mogą pojawić się problemy. Natomiast do tego poziomu wszystko powinno być ok.
WooCommerce jest łatwy w instalacji i konfiguracji. Dostępnych jest wiele modułów – płatnych i bezpłatnych, które rozbudowują sklep o różne funkcjonalności.
Znajdziemy też tysiące szablonów dedykowanych dla tego oprogramowania sklepowego. Również znalezienie programisty do zmian nie jest trudne, bo sam WordPress jest bardzo popularny i każdy dobry programista specjalizujący się w WP odnajdzie się przy zmianach w WooCommerce.
Warto też zaznaczyć, że pod kątem SEO to najbardziej dopracowane oprogramowanie sklepowe. Nawet przy bardziej rozbudowanych sklepach na WooCommerce unikniemy wielu typowych problemów pojawiających się przy innych sklepach.
Plusy:
Darmowy
Łatwa konfiguracja, praktycznie samodzielnie można postawić sklep
Dużo wtyczek, szablonów
Każdy dobry programista PHP znający WordPress powinien poradzić sobie ze zmianami
Bardzo dopracowany pod kątem SEO
Minusy:
Przy bardzo rozbudowanym asortymencie (dużej liczbie produktów) może to nie być najlepsze rozwiązanie
2.3. Jakie oprogramowanie wybrać?
Decyzja zależy tak naprawdę od tego, jak szybko musi powstać sklep i jaka ma być jego rola.
Są przypadki, że ktoś chce otworzyć mały sklep internetowy, bo traktuje to jako formę dodatkowego zarobku. Wtedy najprostsze rozwiązanie w formie sklepu na abonament powinno być dobrym wyborem.
Jeśli jednak sklep internetowy ma być naszym głównym biznesem to tutaj najlepsza trójka wg nas:
1. WooCommerce
2. Presta
3. Magento
Jak widać, cała trójka jest bezpłatna, nie ma tu na liście abonamentowych rozwiązań, które odradzamy. To ważne, bo powyższa trójka daje pełną kontrolę nad sklepem.
Kontrola jest tak istotna, bo w miarę rozwoju sklepu będzie wiele sytuacji, gdy potrzebna będzie ingerencja programisty i wykonanie zmian, których nie da się zrobić poprzez panel. Przykłady takich zmian:
problem z konwersją i koszykiem – możliwa modyfikacja ścieżki zakupowej by popracować nad konwersją
problemy seo – nawet przy dopracowanych skryptach sklepowych pojawiają się rzeczy, które należy zoptymalizować pod kątem wyszukiwarek. Może to być np. poprawa filtracji, ustawienie canonicali, dodanie opisów kategorii
zmiany w szablonie – po czasie pojawiają się nowe pomysły na zmiany w wyglądzie czy funkcjonalności sklepu. Czasem wiąże się to z małymi poprawkami, bywa jednak że są to dość duże zmiany w kodzie
Im większy sklep, tym więcej jest przy nim z czasem pracy :). Jednak dzięki temu, że kontrola jest po naszej stronie to naprawdę można przeprowadzić sporo modyfikacji.
Temat programisty poruszaliśmy już wielokrotnie. Dobrze jest już od początku współpracować z jedną osobą / firmą. Oczywiście nie trzeba od razu zatrudniać na etat, a można rozliczać się za wykonane prace.
Poza zmianami w sklepie pojawiają się też sytuacje awaryjne i wtedy nie traci się czasu na szukanie odpowiedniej osoby do usunięcia problemu np. z zawirusowaną stroną.
Nasz typ to WooCommerce.
To dodatek do WordPressa, którego zna wiele osób, bo jest to najpopularniejszy CMS na świecie (prawie 30% stron na świecie bazuje na WP). Jest bardzo prosty w obsłudze. Idealnie sprawdza się zarówno przy małych sklepach jak i sklepach z większym asortymentem. Dużo więcej o WooCommerce można poczytać na http://woocommerce.pl/.
Do pomocy przy WooCommerce będzie potrzebny programista PHP znający WordPress (i ew. specjalizujący się w Woo). Nie powinno być dużego problemu w znalezieniu odpowiedniej osoby. Stawki powinny być też rozsądniejsze niż przy Magento. Ale trzeba zaznaczyć, że jeśli sklep nie ma mieć jakiejś nietypowej funkcjonalności to bardzo często z większością rzeczy poradzimy sobie bez problemu. Każda osoba potrafiąca obsługiwać WordPress bez problemu powinna poradzić sobie z postawieniem podstawowego sklepu na WooCoommerce.
Znajdziemy sporo dedykowanych szablonów do WooCommerce, które są bardzo proste we wdrażaniu.
Pod kątem SEO bardzo dopracowane oprogramowanie, po części też dlatego że bazuje na WP.
PrestaShop jest całkiem popularny w Polsce.
To dobre oprogramowanie sklepowe, które znalazło zastosowanie nawet przy dużych sklepach. Nie jest aż tak intuicyjny jak WooCommerce, ale można tu również zrobić wiele rzeczy samodzielnie.
To sklep oparty na języku PHP. Dzięki popularności samego PHP oraz Presty, raczej dość łatwo znajdziemy programistę do zmian i poprawek.
Pod kątem SEO jest ok, to całkiem przyjazne oprogramowanie, z którym nie będzie problemów przy pozycjonowaniu. Większość ewentualnych niedociągnięć można dość szybko poprawić z pomocą programisty.
Dostępnych jest też wiele szablonów.
Jedyny minus to ich wdrażanie, które jest dużo bardziej czasochłonne niż przy WooCommerce.
Magento to wybór dla właścicieli sklepów, którzy już na starcie mają odpowiednie fundusze.
To dobre, dopracowane oprogramowanie sklepowe. Postawienie większego sklepu na Magento to jednak większe przedsięwzięcie. Poza czasem potrzebnym na postawienie sklepu, wiąże się to z kosztami, które raczej będą większe niż przy Presta czy Woo. Ale jeśli szukamy sprawdzonego rozwiązania i mamy odpowiednich ludzi, którzy mogą pomóc przy pracach z Magento to jest to również rozwiązanie, które powinno dobrze służyć.
2.4. Wersja mobilna sklepu internetowego – najczęstsze błędy
Dlaczego wersja mobilna jest tak ważna?
Pierwszy powód, który poda wielu pozycjonerów to wpływ wersji mobilnej na pozycje witryny w wynikach wyszukiwania. Google otwarcie przyznał, że jeśli witryna nie ma wersji mobilnej (lub jest niedopracowana) to gdy wyszukiwanie ma miejsce na urządzeniach mobilnych strona będzie niżej w wynikach. Co więcej, tu plany idą jeszcze dalej, bo w przyszłym roku Google planuje uruchomić całkowicie osobny indeks wyników dla wyszukań mobilnych.
Drugi powód jest oczywiście związany z kwestiami usability i konwersji. Jeśli użytkownik nie będzie mógł poprawnie wyświetlić witryny na swoim urządzeniu to po prostu zamknie stronę i przejdzie do następnej witryny.
To dwa całkiem dobre powody dla których warto zadbać o wersję mobilną strony. Zobaczmy więc jakie są najczęstsze problemy.
Brak wersji mobilnej
Oczywiście największym problemem przy wersji mobilnej jest jej brak :). Pomimo że dane o tym, że wyszukiwania z urządzeń mobilnych są tak liczne jak z urządzeń stacjonarnych to nadal znajdziemy sporo przykładów stron, które takowych wersji nie mają. Każdy dąży do większego ruchu, większej sprzedaży ale trzeba najpierw zadbać o podstawy.
Sprawdziliśmy jak to wygląda na kilku losowych serwisach naszych klientów o różnej tematyce (taką możliwość daje np. Google Analytics w części Odbiorcy → Ruch mobilny ). Wyniki przedstawiają się następująco:
Ciekawe jest, że udział tabletów jest raczej mały, co nie znaczy że można pominąć je przy tworzeniu wersji mobilnej. .
Natomiast liczby desktop vs. telefony różnią się zależnie od branży. W kilku przypadkach ruch z wersji desktop stanowił mniej niż 50%. Nawet jeśli dla danej branży ruch mobilny jest mniejszy to i tak oscyluje w granicach 20-30%. Jakby na to nie patrzeć, 30% ruchu to nadal spora część odwiedzających o których warto zadbać.
Wersja dostosowana tylko do niektórych urządzeń
W przypadku wersji mobilnych można mówić o dwóch głównych typach to jest:
– wersja RWD (Responsive Web Design) – strona responsywna, która dostosowuje się do danego urządzenia. Czyli mamy jeden kod html strony, a style CSS są napisane tak że dostosowują się do rozdzielczości danego urządzenia
– wersja AWD (Adaptive Web Design) – wersja adaptacyjna strony, pisana z myślą o konkretnym urządzeniu. Przy otwieraniu strony rozpoznawany jest typ urządzenia i wyświetlany jest odpowiedni kod. Dla każdej wersji mamy osobny kod html, stąd często ładowany jest z subdomeny (np. http://m.strona.pl).
Najpopularniejszy obecnie format to RWD, zaś AWD rzadko kiedy ma uzasadnienie w dzisiejszych czasach.
Jeszcze jeden problem jest w ramach samego RWD. Dobra wersja RWD dostosuje się do każdego urządzenia, ale żeby tak było trzeba napisać dobry kod jak również przetestować naszą wersję RWD. Tymczasem często zdarza się, że deweloper ogranicza się tylko do testów na swoim smartfonie albo smartfonie klienta :). A tu przecież nie o to chodzi. Jest dużo różnych urządzeń, o różnych rozdzielczościach.
Długi czas ładowania
Prędkość ładowania to wiele razy poruszany temat. Można przeczytać wiele badań na temat tego jak szybkość ładowania strony wpływa na zachowania użytkowników, porzucenia itd. Jednak prawda jest taka, że tu nawet bez zapoznawania się z wynikami testów można dojść do podobnych wniosków. Nawet na bazie własnych doświadczeń :).
Ile to razy zdarzyło się nam zamknięcie strony lub przejście do następnej zakładki gdy pierwsza strona nie chciała się otworzyć? Użytkownicy chcą dane tu i teraz i jest to coś do czego się trzeba dostosować.
Narzędzie Google PageSpeed Insights pokazuje wyniki szybkości ładowania strony osobno dla PC i urządzeń mobilnych.
Bardzo fajne jest w tym narzędziu to, że po analizie dostajemy dokładne sugestie co wymaga poprawy. Nawet jak nie jesteśmy się w stanie z czymś sami uporać to zawsze możemy przekazać dokładne wytyczne programiście odpowiedzialnemu za stronę.
Niepoprawne ładowanie / Źle wykonana wersja mobilna
Zdarza się to dość często. Wersja mobilna źle się wyświetla na naszym urządzeniu mobilnym. Bierze się to stąd, że jest po prostu niedopracowana. Czasem są to błędy, które psują tylko wizualny odbiór strony, czyli np. źle wyświetlający się obrazek, źle dobrany rozmiar czcionki.
Są też błędy, które uniemożliwiają całkiem korzystanie z niektórych elementów witryny jak np. schowany przycisk wyślij przy formularzu, nieczytelne menu. Jeszcze raz widać tu, że testy są po prostu konieczne i nie można zadowolić się faktem, że na jednym urządzeniu strona wyświetla się poprawnie.
Zła nawigacja mobilna
To mogłoby wpaść pod temat źle wykonanej wersji mobilnej, ale warto osobno omówić osobno nawigację mobilną. Musi ona być czytelna i łatwa w obsłudze. Nie jest to takie łatwe do osiągnięcia, szczególnie przy stronach, które mają mocno rozbudowaną strukturę.
Na szczęście z pomocą przychodzi jQuery i jest sporo sposobów, by zrobić czytelne menu gdy mamy do czynienia z rozbudowaną strukturą. Na tej stronie zaprezentowane zostały najróżniejsze podejścia do nawigacji mobilnej.
W przypadku wersji mobilnej często wdrażałem to wielopoziomowe menu. Jest trochę ciężkie do wdrożenia i ostylowania, ale efekt końcowy zawsze jest dobry. Jest przejrzyste i bardzo funkcjonalne:
Popupy
Wtyczki popup jak również sam CSS (z pomocą media query) dają możliwość wyłączenia popupów na urządzeniach mobilnych. Nie ma chyba nic bardziej irytującego niż popupy na smartfonie, bo najczęściej zajmują one od razu cały ekran. Co gorsza, zdarza się że przycisk do zamknięcia chowa się gdzieś poza ekranem… Samo zło.
Długie formularze i inne grzechy UX
Strona może dobrze się wyświetlać na urządzeniach mobilnych i na desktop. Jednak co do samej funkcjonalności to nie zawsze to co zdało egzamin na dużym monitorze komputera będzie działać tak samo dobrze na smartfonie. Przykład który pierwszy przychodzi na myśl to długie formularze składające się z wielu pól. Mało komu będzie chciało się wypełniać taki formularz na komórce.
To tylko przykład. Warto zrobić analizę UX zarówno wersji desktop jak i wersji mobilnej, by wyłapać problemy tego typu.
Brak dostosowania do starszych urządzeń pod kątem wyświetlacza
Nowe smartfony pojawiają się teraz średnio co roku a nawet częściej (przykład Galaxy S, iPhone) i wielu użytkowników idzie tym trendem i chce mieć najnowszy dostępny model. Jest jednak spora grupa użytkowników, która wymienia swoje telefony rzadziej lub kupuje urządzenia używane.
Co za tym idzie, mają smartfona ale o mniejszym wyświetlaczu. Przykładem jest iPhone 5, który przez długi czas był bardzo popularny ale jego mały wyświetlacz znacznie odbiegał od konkurencji. Nie znaczy to jednak że przy tworzeniu strony można pomijając użytkowników piątki.
Po premierze modelu 6 i 7 piątki mocno staniały i krążą gdzieś w obiegu na rynku telefonów używanych. Dlatego warto przy testowaniu wersji mobilnej strony sprawdzić jak zachowuje się strona na nieco starszych smartfonach. Oczywiście bez przesady, nie trzeba cofać się w czasie do pierwszych smartfonów. Ale sprawdzenie jak strona wyświetla się na modelach telefonów sprzed 3-4 lat jest dobrą zasadą.
Niedostosowana do Safari / różnych przeglądarek
Bardzo często zapominana rzecz przy tworzeniu urządzeń mobilnych to różnorodność oprogramowania i przeglądarek. Na androidzie mamy wbudowane przeglądarki, ale użytkownik może też zainstalować Firefoxa, Chrome lub inną. Trzeba sprawdzić jak na wersji mobilnej na każdej z nich wyświetla się strona.
Osobny przykład to Safari na iOS. Szczególnie starsze wersje Safari to jest niezła zabawa przy tworzeniu wersji mobilnej, prawie taka jak walka z Internet Explorerem ;). W skrócie, pewne style interpretowane są inaczej na Safari niż na Firefox czy Chrome. W efekcie dopracowana wersja mobilna pięknie działająca na Firefox i Chrome totalnie się sypie na Safari. Dotyczy to zarówno wersji desktop jak i wersji mobilnych.
Stąd popularność strony Can I use wśród web developerów. Dzięki niej mogą sprawdzić, które funkcje i style działają na określonych przeglądarkach i konkretnych ich wersjach. Przykład: http://caniuse.com/#feat=dragndrop.
Liczby mówią same za siebie. Jest moda na telefony od Apple i nawet jeśli w naszym gronie przeważają androidowcy to nie znaczy to wcale, że liczba osób przeglądających stronę na iPhone będzie mała. Wręcz przeciwnie, a szczególnie jeśli strona ma wersję zagraniczną. Na Zachodzie iPhone dominuje i dlatego warto zadbać o wersję mobilną, która dobrze wyświetla się na iOS.
Niedostosowana do tabletów
Często przy tworzeniu wersji mobilnej koncentracja jest na smartfonach, a zapomina się o tabletach. Wersja responsywna strony powinna zapewnić dobre wyświetlanie także na nich, ale warto to sprawdzić.
Nacisk warto położyć na popularne iPady. Jest tam Safari i są podobne problemy z wyświetlaniem jak opisane wcześniej przy smartfonach.
Jak sprawdzić wyświetlanie naszej strony na różnych urządzeniach?
Dużo we wpisie było o testowaniu, sprawdzaniu na różnych systemach, przeglądarkach, urządzeniach. Jak najlepiej testować to w praktyce?
Na pewno najlepsze są testy na prawdziwych urządzeniach. Dobrze jest przynajmniej przetestować po jednym urządzeniu z Androidem i iOSem. Już to powinno pozwolić wyłapać większe błędy i niedociągnięcia.
Inny sposób to narzędzia dostępne w przeglądarkach.
W przeglądarce Google Chrome po przejściu do opcji i włączeniu Narzędzi dla programistów możemy wybrać zakładkę do testowania urządzeń mobilnych (druga ikona od lewej):
To tworzy nam podgląd jak wyświetla się strona w rozdzielczości typowej dla danego urządzenia (lista urządzeń jest większa niż na screenie, można ją poszerzyć):
Również w Safari jest podobna opcja. Po włączeniu menu Programowanie mamy do wyboru podgląd na różnych przeglądarkach i urządzeniach:
Jeśli ktoś chce jeszcze dokładniej sprawdzić wersję mobilną to są strony oferujące emulatory jak np. https://www.browserstack.com. To płatne narzędzie ale daje możliwość sprawdzenia strony na naprawdę dużej liczbie urządzeń.
Podsumowując
Jak widać temat wersji mobilnej nie jest tak prosty jakby mogło się wydawać. Jest tu kilka pułapek i sporo rzeczy o których warto pamiętać. Technika idzie do przodu i wersja mobilna po prostu musi być dobrze dopracowana.
2.5. Not provided w Google Analytics – co oznacza
Przeglądając informacje o odwiedzinach w Google Analytics na pewno zobaczymy w kolumnie Słowa kluczowe, że najwięcej wejść jest z (not provided). Najczęściej ponad 90% wyszukań będzie właśnie przypisanych do not provided.
O co tu chodzi i czym jest tajemniczy not provided? Jest to wynik zmiany zapowiedzianej przez Google w 2011 roku, a wprowadzonej w życie na początku 2012 roku. Kiedyś mogliśmy bez problemu przeglądać całą listę fraz, dzięki którym użytkownicy trafili na naszą stronę. Jednak Google postanowiło zatroszczyć się o bezpieczeństwo szukających i ich prywatność. Od 2012 roku jeśli wyniki są dokonywane z użyciem https w adresie to szukane frazy będą szyfrowane. Kiedy tak się dzieje? Np. kiedy jesteśmy zalogowani na konto Google (bo korzystamy z Gmail lub innej usługi) lub po prostu kiedy wyszukujemy wchodząc na https://google.pl. Tutaj dokładne wyjaśnienie na czym polega problem: więcej.
Ile not provided stanowi wszystkich wyszukań? Ekipa z http://www.notprovidedcount.com postanowiła to mierzyć biorąc do testów 60 stron. Dzięki temu dokładnie widać jak liczba not provided wzrastała od 2012 roku:
Widać wyraźnie, że dla większości serwisów średnio 80% ruchu ukryta jest pod not provided.
2.6. Jak sprawdzić co generuje ruch na stronie?
Jak dowiedzieliśmy się wcześniej, not provided mocno utrudnia sprawdzenie skąd pochodzi ruch. Są to przecież bardzo przydatne informacje, dzięki nim można np. poprawić optymalizację sklepu na frazy, które mają gorsze pozycje czy uzupełnić serwis w treści pod konkretne słowa kluczowe.
Na szczęście jest kilka sposobów na podgląd bieżącej sytuacji.
Google Analytics
Pierwszy, najbardziej oczywisty to po prostu sprawdzenie, które podstrony sklepu generują wejścia. W Google Analytics przechodzimy do sekcji Kampanie -> Bezpłatne słowa kluczowe. Tutaj klikamy zakładkę Strona wejścia i mamy listę adresów podstron, przez które do sklepu weszli odwiedzający:
Oczywiście najlepiej jak mamy przyjazną strukturę adresów URL, dzięki czemu od razu będzie widać zawartość danych podstron.
Search Console
Drugi, dokładniejszy sposób to Search Console. W naszym poradniku o zakładaniu sklepu internetowego pisaliśmy, że Search Console to podstawa i warto poznać to narzędzie, bo jest ono dedykowane przede wszystkim właścicielom sklepów.
W Search Console znajdziemy sekcję Analityka wyszukiwania. Mamy tu wiele filtrów, najbardziej interesują nas te u góry oraz zakres dat, który zmieniamy na maksymalny możliwy (będzie to 90 dni).
Po zaznaczeniu filtra pozycji (lub wszystkich czterech) wyświetlona zostanie lista fraz razem z danymi dotyczącymi każdej z nich, w tym pozycji w Google:
Pozycje są w miarę dokładne, choć trzeba tu pamiętać o marginesie błędu.
To daje nam bardzo dobry podgląd na jakie frazy pojawia się nasz sklep w wynikach wyszukiwania, a także jakie frazy ściągają ruch lub mają potencjał ściągnąć ruch.
Senuto
Trzeci, najwygodniejszy sposób to skorzystanie z narzędzi jak Semstorm czy Senuto. My rekomendujemy Senuto, bo mają bardzo dokładne dane. Narzędzie to można wykorzystać do wielu różnych celów.
Możemy sprawdzić, jak zmienia się widoczność naszego sklepu, czyli ile fraz znajduje się w top 3, top 10, top 50. To ważne informacje dla sklepu, bo rozwinięty długi ogon to podstawa sukcesu:
Mamy też dostęp do fraz długiego ogona, z ich obecnymi pozycjami oraz liczbą wyszukań:
Dzięki temu łatwo zrobimy listę potencjalnych fraz, na których warto się skupić (np. na frazach z drugiej strony wyników, które mają określoną liczbę wyszukań).
Bardzo ciekawy jest też podgląd konkurencji. Możemy zobaczyć najważniejszych konkurentów, sprawdzić jakie słowa są wspólne (o które razem rywalizujemy), a na które słowa jeszcze nie pojawiamy się.
Wyżej przedstawiliśmy tylko przykłady zastosowania Senuto. Daje on nam bardzo dobry obraz widoczności naszego sklepu i pozwala zaplanować, na czym skupić się pod kątem SEO.
Część 3. Optymalizacja sklepu internetowego
Sklepy internetowe mają wiele podstron – czasem liczba ta idzie w dziesiątki czy setki tysięcy przy większym asortymencie. Jest tu wiele pułapek, które mogą negatywnie odbić się na wynikach sklepu w wynikach wyszukiwania.
Do części zmian optymalizacyjnych będzie potrzebny programista. Część zmian można wykonać samodzielnie.
Ta część nie jest dokładnym przewodnikiem optymalizacji krok po kroku, nie wyczerpuje całego tematu. Ma bardziej pokazać jak wielu różnych aspektów dotyczy optymalizacja i pomóc zrozumieć, dlaczego odpowiednie oprogramowanie sklepu czy pomoc programisty są tak ważne oraz że w pozycjonowaniu sklepu chodzi nie tylko o linki.
3.1. Czym jest optymalizacja?
To zmiany zarówno w kodzie serwisu jak i treściach na stronach, które mają na celu poprawę oceny strony przez Google i wyższe pozycje w rankingu.
Google dba o to, by pomagać webmasterom i właścicielom witryn w dobrym przygotowaniu strony. Mają rozbudowany dział porad dla webmasterów. To często pierwsze źródło informacji o najlepszych praktykach. Drugie to już własne doświadczenia pozycjonerów, którzy metodą testów wypracowali własne sposoby optymalizacji.
3.2. Title
Title to najważniejsza część optymalizacji strony. Od jego zawartości zależy na które zapytania będzie się pojawiała nasza strona.
W większości przypadków title jest ułożony na podstawie tytułu podstrony.
Ważne jest by nie przyspamować title. Pamiętajmy – title to nie tylko informacja dla bota. Na podstawie title użytkownik decyduje czy kliknąć w wynik czy też nie. Trzeba znaleźć tu złoty środek tak by title wyglądał przyjaźnie dla użytkownika (był informacyjny, zachęcał do kliknięcia) oraz by zwierał najważniejsze frazy.
Skąd dobrać frazy, które powinny znaleźć się w title? Narzędzie Keyword Planner czy KWFinder pomoże nam zdecydować, które to frazy są najważniejsze:
Przykład
Chcemy stronę kategorii ze sztucznymi storczykami promować na frazy odpowiadające zawartości kategorii:
sztuczne storczyki
sztuczne storczyki w doniczce
sztuczny storczyk jak żywy
sztuczne storczyki silikonowe
Można tu łatwo ułożyć całkiem sensowny title:
Silikonowe sztuczne storczyki jak żywe – Flowersatelier
Jak widać, można stosować odmiany fraz, nie muszą one też występować bezpośrednio koło siebie.
Czasem trzeba trochę się nasilić, by ułożyć dobry title, zawierający najważniejsze frazy. Z doświadczeniem przychodzi to łatwiej i takie rzeczy najczęściej zmienia czy sugeruje zmiany pozycjoner.
Długość w title
Title może być bardzo długi, ale pamiętajmy, że zawsze w wynikach wyszukiwania będzie prezentowana tylko jego część a potem będzie wstawiony trzykropek. Przykładowo taki długi title:
Będzie tak skrócony:
Kiedyś zawsze title był ucinany po danej liczbie znaków. To jednak się zmieniło i teraz jest ucinany po określonej długości pikseli.
Jaka zatem jest długość, która mieści się w wynikach wyszukiwania? Obecnie jest to około 600 pikseli co przekłada się na około 70 znaków.
Zmiany w title
Warto wspomnieć, że nie zawsze w wynikach wyszukiwania musi się pojawić dokładnie taki sam title jak ustalaliśmy. Google często eksperymentuje ze sposobem prezentacji wyników i nie omija to również title. Co jakiś czas można np. spotkać wyniki, gdzie na początek title przenoszona jest marka strony.
Podkreślmy jeszcze raz. Title jest ważny nie tylko dlatego, że zawiera słowa kluczowe. Pamiętajmy, że to on jest prezentowany w wynikach wyszukiwania i może mieć wpływ na to, czy użytkownik kliknie wynik lub nie. Trzeba znaleźć kompromis pomiędzy umieszczeniem słów kluczowych w title, a jego czytelnością.
3.2. Description
Tag description nie jest brany pod uwagę przy układaniu rankingu, co nie znaczy, że przy pozycjonowaniu można go pomijać.
Ale po kolei. Czym jest tag description? Jest to opis danej podstrony, który pojawia się w wynikach wyszukiwania:
Definiuje się go w kodzie (oczywiście najczęściej CMSy pozwalają to zdefiniować w panelu, ale docelowo będzie umieszczony jak niżej):
I tu ważna uwaga. Użytkownik może sam zdefiniować treść description dla danej podstrony, ale bot może, nie musi wyświetlić nasz lub inny opis. Jeśli uzna, że inny fragment zawartości danej podstrony lepiej pasuje do danego zapytania to przedstawi ten fragment zamiast naszego opisu description.
Jeśli natomiast nie zdefiniujemy tagu description (będzie pusty albo zabraknie go w kodzie) to wtedy bot sam sobie wybierze fragment z treści strony.
Już jasne jest jak się definiuje description i jak się wyświetla. Czemu jednak jest ważny w pozycjonowaniu, skoro nie brany jest pod uwagę przy układaniu rankingu?
Bo wpływa na klikalność wyników.
W pozycjonowaniu chodzi oczywiście o uzyskanie jak najlepszych pozycji. Ale te pozycje powinny generować kliknięcia i ruch na naszej stronie a description jest z tym bezpośrednio związany. To on przekonuje użytkownika, że warto kliknąć dany wynik. Warto zwrócić uwagę, że szukana fraza także jest podkreślana w samym description. W przykładzie niżej szukana była fraza atrakcje Krakowa i wyróżnione w opisie zostały nazwa miasta oraz słowo atrakcje:
3.3. Keywords
Kyewordsy to tagi, które znajdują się w kodzie w sekcji head. Nadal można je często spotkać na stronach, ale dla samego pozycjonowania i pozycji w rankingu nie mają znacznia (tzn. nie są czynnikiem rankingowym). Kiedyś było inaczej i rzeczywiście odpowiednio dobrane keywordsy pomagały stronie pojawić się wyżej w wynikach, ale to czasy początków działania wyszukiwarek.
Warto tu o nich jednak wspomnieć, żeby była jasność co do ich znaczenia. Często skrypty sklepowe dają opcję ich wypełnienia i dostajemy wiele pytań co z tym zrobić.
3.4. Wersje www i non www
Dość częsty problem ze stronami. Dla wielu właścicieli strona po prostu jest pod danym adresem http://przyklad.pl. Jest jedna, więc jak pozycjoner tłumaczy, że jest problem z kopiami strony, to pojawia się zdziwienie o jakie kopie chodzi.
O tym, czy strona ma mieć www przed adresem czy nie, decyduje właściciel strony ustalając odpowiednie przekierowania. Czyli może zdecydować, że chce mieć adres z www:
http://www.przyklad.pl
lub bez www:
http://przyklad.pl
Nie ma to wpływu na wyniki, obie wersje są w porządku. Są to jednak dwie różne wersje. Jeśli webmaster czy właściciel witryny zapomni zdefiniować, jaka jest preferowana wersja to może zdarzyć się, że będą one współistnieć obok siebie, czyli będziemy mieli kopie.
Jak sprawdzić czy strona ma kopie www/bez www?
Najprościej wpisać obie wersje w pasku adresu w przeglądarce. Załóżmy, że preferowana wersja jest z www. Wtedy po wpisaniu http://przyklad.pl powinniśmy zostać przekierowani na http://www.przyklad.pl. Jeśli nie ma ustalonej preferowanej wersji, to nie będziemy przekierowani i będziemy mogli otworzyć oba adresy.
Drugi sposób to sprawdzenie site’a. W pasku szukania wpisujemy site:adres.pl i sprawdzamy, jakie rodzaje adresów są w indeksie. Niżej po sprawdzeniu widać, że wszystkie adresy mają www (patrzymy na zielone adresy URL):
Gdyby był tu problem to zobaczylibyśmy wersje adresów bez www oraz z www.
Można też skorzystać z narzędzi do sprawdzenia przekierowań typu http://www.redirect-checker.org/. Wklejamy dwie wersje adresu strony głównej (z i bez www) i sprawdzamy czy jest przekierowanie 301. Na jednej z wersji powinno być ustawione przekierowanie 301 na pożądaną wersję. Jeśli się pokaże kod 200 to znaczy że jest to prawidłowa, docelowa wersja.
Jak usunąć problem z kopiami www?
Za pomocą odpowiedniej reguły przekierowań, którą robi się po stronie serwera. W przypadku popularnego Apache edytuje się plik htaccess i dodaje kilka linijek kodu, które załatwiają sprawę.
Niektóre skrypty jak np. WordPress od razu po instalacji jest już prawidłowo skonfigurowanych i nie ma tego problemu. Jednak wiele innych CMSów, szczególnie autorskich, ma ten problem.
3.5. Http i https
Podobna sytuacja jak z opisywanym wcześniej problemem www i możliwymi kopiami. Rzadko, ale zdarza się, że przez błędne ustawienie strona pojawia się zarówno w wersji http i https, co tworzy kopie. Można to sprawdzić przeglądając site strony. Jeśli dla zapytań ‚site:http://www.strona.pl‚ oraz ‚site:https://www.strona.pl‚ dostaniemy podobne wyniki, gdzie ta sama podstrona będzie występowała w dwóch wersjach, to prawdopodobnie mamy do czynienia z kopią.
Mała uwaga – czasem zdarza się, że strona jest na http:// ale niektóre części (logowanie, koszyk itp.) są już na https://. W tym przypadku te dwie wersje występują koło siebie, ale nie tworzą kopii.
Która wersja powinna być używana? Pamiętajmy, jakie jest przeznaczenie https – szyfrowanie przesyłanych danych. Zatem jeśli na stronie prosimy użytkowników o podanie wrażliwych danych, to jak najbardziej wskazane jest używanie https. W przypadku stron informacyjnych, gdzie nie ma logowania, zakupów i przesyłania innych wrażliwych danych można spokojnie stosować http.
Google oficjalnie potwierdziło, że https jest preferowaną wersją i jest to czynnik rankingujący. Jednak dotychczasowe testy pokazały, że ma to znikomy wpływ na końcową pozycję strony. Stąd też przy decyzji o przejściu bądź nie na https trzeba się kierować względami bezpieczeństwa – jeśli na stronie są przesyłane dane wrażliwe to tak, warto, a przy okazji będzie to zgodne z wytycznymi Google.
3.6. Nagłówki
Nagłówki pojawiają się w tekście. Zawsze porównujemy je, dla lepszego zrozumienia ich funkcji, do nagłówków w gazecie. W każdym artykule mamy tytuł (h1) oraz nagłówki śródtekstowe (h2, h3…).
Są też wytyczne co do ich stosowania w tekstach.
Nagłówek h1 powinien zawierać tytuł podstrony, a co za tym idzie powinien występować na danej podstronie tylko jeden raz. Czy jak pojawi się więcej razy, to będzie duży błąd? Google uspokaja że nie – możemy mieć więcej nagłówków H1.
Natomiast pamiętajmy o przejrzystości. Jeśli na podstronę zajrzy bot, znajdzie jeden nagłówek h1, to będzie to miało większą wartość (jako tytuł artykułu) niż jak znajdzie kilka nagłówków h1 (co jest wtedy tytułem?). Dlatego dobra praktyka mówi, by starać się stosować tylko jeden nagłówek h1 dla tytułu podstrony.
Dalsze nagłówki mogą być już stosowane wielokrotnie, bo są to po prostu nagłówki śródtekstowe. Służą do tego, by podzielić dłuższy tekst na logiczne części i by ułatwić czytanie.
Czyli struktura podstrony powinna być następująca:
Jeśli hierarchia trochę się zaburzy, przykładowo użyty będzie h1 do tytułu a po nim h3, z pominięciem h2 to nie stanie się nic złego. Najważniejsze o czym trzeba pamiętać to stosowanie h1 jeden raz, najlepiej powyżej pozostałych nagłówków.
Zawartość nagłówków
Nagłówki powinny zawierać ważne dla danej strony słowa kluczowe. Wspomnieliśmy, że to między innymi z ich pomocą bot definiuje do jakich zapytań będzie pasować dana podstrona. Jednak nie warto tu przesadzać z optymalizacją tylko pod bota. Nagłówki powinny być czytelne dla odwiedzającego. Ponownie – trzeba znaleźć złoty środek.
Najczęstsze błędy
Najczęstszy błąd to używanie pogrubienia dla nagłówków śródtekstowych zamiast samych nagłówków. Problem bierze się często stąd, że do pisania tekstu używany jest wizualny edytor. Autor podczas pisania pogrubia nagłówek. Prawidłowo powinien wybrać odpowiedni nagłówek z listy. W przypadku WP i wielu innych frameworków można go znaleźć w lewym rogu:
Czyli tu po wybraniu pozycji np. Nagłówek 2 w kodzie będzie to przedstawione jako nagłówek w h2.
3.7. Nawigacja
Kluczowy element dla wygodnego użytkowania strony. Dobrze rozwiązana nawigacja pomaga też botom odnaleźć wszystkie podstrony i jest pomocna w rankingu dla najważniejszych podstron.
W przypadku nawigacji należy pamiętać o urządzeniach mobilnych. Tu najczęściej pokazywana jest osobna nawigacja mobilna, rozwijana przyciskiem hamburgera.
Niby szczegół, ale jednak bardzo często można spotkać strony, które są bardzo trudne w nawigacji na urządzeniach mobilnych, właśnie przez źle wykonaną nawigację.
3.8. Zdjęcia– optymalizacja grafik
Obrazki to często niedoceniony temat w przypadku optymalizacji serwisu i przy samym pozycjonowaniu. Wynika to stąd, że dla wielu osób pozycjonowanie to tylko wyniki organiczne i ich celem jest pojawienie się w wynikach 1-10. Tymczasem ruch można ściągać też z mapek (które pokazywane są ponad wynikami) czy właśnie z obrazków. Często są one prezentowane w ten sposób (wmieszane w pozostałe wyniki):
Pamiętajmy też, że jest grupa fraz, które są szukane przez wyszukiwarkę obrazów.
Oczywiście będą strony o takiej tematyce, że obrazki nie ściągną za wiele ruchu. Jednak widzieliśmy bardzo dużo przykładów sklepów, gdzie dzięki dobrze zoptymalizowanym grafikom ściągany był zauważalny ruch.
Co w takim razie trzeba zrobić, żeby dobrze zoptymalizować obrazki, tak by pomagały one przy pozycjonowaniu strony i ściąganiu ruchu?
Nazewnictwo plików
Ważne jest nazewnictwo plików. Jest ono pomocne zarówno dla botów jak i użytkowników. Nazwy powinny być krótkie, powinny oddawać zawartość zdjęcia a poszczególne słowa w nazwie należy oddzielać myślnikami.
Złe nazwy plików:
1245824_DS_12042016.jpg
zdjecie.jpg
to_ja.png
Dobre nazwy plików:
plaza-wejherowo-12.jpg
skoda-octavia-wnetrze.jpg
rozowy-storczyk-5.jpg
Od razu widać, że przy właściwym nadawaniu nazw plików można powiedzieć, co przedstawiają zdjęcia. Pamiętajmy, że dziennie dodawanych są miliony zdjęć i jeśli nie zadbamy o ich prawidłową optymalizację, to nie będą prawidłowo rozpoznane.
Znacznik ALT
Drugi, bardzo ważny element, który należy wypełniać. Znajduje się on w kodzie, przy wskazywaniu lokalizacji obrazka:
Pełni on dwie funkcje. Jeśli jest problem z załadowaniem zdjęcia (np. z powodu wolnego łącza, złej ścieżki do pliku) to wyświetlona zostanie zawartość znacznika ALT. Dzięki temu, nawet bez zdjęcia, użytkownik będzie wiedział, co powinno być w tym miejscu. Przykład niżej pokazuje sytuację, gdy dwa zdjęcia się nie załadowały, ale nawet wtedy widać, co powinno być w danym miejscu dzięki wyświetleniu ALTa.
Druga ważna funkcja to pomoc w zrozumieniu zawartości dla robota. Pokazywane wcześniej wyniki wyszukiwania obrazków według danej frazy muszą być dopasowane do danego zapytania. Zawartość alt pomaga dopasować robotowi zdjęcie do danego zapytania. Dlatego ważne jest odpowiednie uzupełnianie altów przy obrazkach. Warto się kierować następującymi zasadami:
opisy powinny być zwięzłe
powinny zawierać słowa kluczowe związane z danym obrazkiem
Rozmiar plików i rozszerzenia
Warto zapisywać zdjęcia w formatach, które zapewniają odpowiednią kompresję, czyli np. jpg, png. Należy unikać formatów jak bmp czy innych, które generują zdjęcia w bardzo dużych rozmiarach.
Rozdzielczość zdjęć
Dobrze jest zamieszczać zdjęcia w na tyle dużych rozdzielczościach, aby dobrze prezentowały się na różnych urządzeniach, w tym na dużych monitorach. Nie ma co jednak przesadzać i publikować zdjęć w bardzo dużych rozmiarach, gdyż będą miały one duże rozmiary i będą długo się ładowały.
Sitemapa dla obrazków
Jeśli na stronie publikowanych jest dużo obrazków, to warto dodać sitemapę obrazków. Jest to plik, w którym wskazuje się robotowi wszystkie lokalizacje zdjęć. Dzięki temu mamy pewność, że robot uzyska listę wszystkich zdjęć na stronie i nie będziemy musieli czekać, aż sam je odnajdzie i zaindeksuje.
3.9. Przyjazne URLe
Format adresów URL ma znaczenie. Adresy podstron można podzielić na dwie kategorie:
Na szczęście teraz wiele CMSów i skryptów sklepowych ma już wbudowane moduły do generowania przyjaznych URLi. Nadal jednak trafiają się strony, gdzie się o tym zapomina i warto to poprawić.
Dlaczego ważne jest, by na stronie były przyjazne URLe?
1. Opisowe, przyjazne URLe ułatwiają robotom poruszanie się i indeksację podstron serwisu.
2. Gdy na stronie są krótkie, przyjazne URL to zachęca odwiedzających do przekopiowania adresu i np. podzielenia się nim na forum lub innym miejscu. Wbrew temu co mówią niektórzy, istnieje nadal coś takiego jak naturalne linki i ludzie udostępniają je dalej – czy to publicznie na forum, blogu czy też prywatnie w mailu czy przez social media. Dlatego dobrze jest im to ułatwić.
3. URLe podstron są prezentowane w wynikach wyszukiwania i jeśli zawierają szukane słowo kluczowe to również ono jest wyróżnione.
Należy dopilnować, by w adresach podstron poszczególne słowa oddzielone były myślnikami a nie podkreśleniem, tzn.:
Adresy nie powinny zawierać spacji oraz znaków specjalnych (procenty, gwiazdki itp.). To kilka podstawowych rzeczy, które mogą mieć zauważalny wpływ na strukturę i i wyniki pozycjonowania serwisu.
3.10. Szybkość ładowania strony
Nie ma specjalnie dużego znaczenia przy ostatecznej ocenie strony i pozycji w rankingu, ale to ważna rzecz do sprawdzenia. Powód jest prosty – każda sekunda dłużej przy ładowaniu strony to większa liczba użytkowników, którzy się zniecierpliwią i porzucą stronę.
Przeprowadzono wiele testów i analiz tego zagadnienia. Najciekawsze dotyczą badań nad sklepami internetowymi. Tam najlepiej widać, jak dłuższy czas ładowania strony obniża konwersję. Zależność jest więc prosta – dłuższy czas ładowania strony = mniejsza sprzedaż.
Google przyszedł z pomocą webmasterom i stworzył narzędzie PageSpeed Insights. To bardzo dobre narzędzie, które ocenia szybkość ładowania strony zarówno na komórki jak i komputery w skali od 0 do 100. Niżej znajdziemy listę rzeczy do poprawy, z podziałem na kategorie ważności:
Gdy klikniemy link Pokaż jak to naprawić pojawi się szczegółowy opis z propozycją rozwiązania problemu:
Często są tu zalecenia do technicznej strony serwisu, które musi wdrożyć webmaster. Czasem mogę wymagać większych nakładów pracy. Bardzo pomocne są jednak szczegółowe podpowiedzi i jasny podział listy na rzeczy ważne i mniej pilne, co pozwala szybko usunąć problemy w kluczowych miejscach.
3.11. Walidacja
Ponownie czynnik jak szybkość ładowania stron – raczej nieistotny przy pozycjonowaniu, ale dobre praktyki nakazują zwrócić na niego uwagę. O co chodzi z walidacją? O to, by kod strony był prawidłowo napisany. Opracowywaniem standardów webowych zajmuje się organizacja The World Wide Web Consortium (W3C) – https://www.w3.org – i to na jej stronie udostępniony jest walidator https://validator.w3.org. Po podaniu adresu przedstawiona jest lista błędów i sugestie poprawek:
podejść do tej listy? Jeśli mamy małą stronę i błędów jest kilka to warto je usunąć zgodnie z wytycznymi walidatora. Jeśli jednak strona jest bardzo duża i pojawia się spora liczba błędów to raczej warto skupić się tylko na tych najważniejszych. Po prostu środki poświęcone na naprawdę dużej liczby błędów nie przełożą się specjalnie na aż tak duże korzyści.
3.12. Robots.txt a meta tag robots
Pomimo podobnych nazw są to dwie różne rzeczy, aczkolwiek o zbliżonej funkcji. Każda strona jest odwiedzana przez roboty – nie tylko Google, ale też innych wyszukiwarek czy stron (np. crawlery Majestic, Ahrefs). Właściciel strony ma możliwość wpływu na to, co robią roboty na jego stronie i z jego stroną.
Meta tag robots
Służy głównie do informowania bota, czy chcemy by dana strona była włączona do indeksu. W kodzie ma on postać jak niżej, znajduje się w sekcji head:
robots=txt=przykład brak !!!!!
Domyślna wartość dla niego to follow. Jeśli jednak nie chcemy, by strona pojawiała się np. w wynikach wyszukiwania Google to mamy możliwość ustalenia tagu robots na nofollow dla całej strony lub pojedynczej strony i wtedy robot potraktuje to jako informację, żeby strony nie indeksować.
Robots.txt
To plik robots.txt który zawsze znajduje się bezpośrednio w folderze root tzn. znajdziemy go pod adresem http://www.strona.pl/robtos.txt. Najczęściej będzie on miał postać:
Oczywiście pliki robots.txt mogą być dużo dłuższe niż przykład wyżej.
Do czego służy robots.txt? Wyobraźmy sobie sytuację, że prowadzimy bardzo duży sklep – setki tysięcy podstron, obrazków itp. Jak wspomnieliśmy, stronę odwiedzają nie tylko roboty Google ale także inne roboty, które przeglądają całą naszą stronę. Generują przy tym duże obciążenia serwera. Wbrew pozorom to częsty problem dużych serwisów, gdy boty potrafią zauważalnie obciążyć serwer. Dzięki robots.txt możemy tak pokierować ruch robotów, by niektóre np. w ogóle nie wpuszczać lub wpuszczać je tylko do określonych części strony.
Należy pamiętać, że instrukcje w robots.txt to polecenie, które niektóre roboty mogą zignorować. Najczęściej jednak stosują się do poleceń i daje to możliwość webmasterom pewnej kontroli nad robotami.
Alternatywnie można dodać też odpowiednie blokady w pliku htaccess.
3.13. Canonicale
Bardzo przydatna funkcja, szczególnie ważna w sklepie internetowyn. Pozwala ona wskazać robotowi, gdzie znajduje się oryginał treści. Wyobraźmy sobie scenariusz, gdzie zarządzamy mocno rozbudowanym sklepem i chcemy przyporządkować produkt do kilku kategorii. Jednak jeśli to zrobimy, to będzie on występował w kilku miejscach co jest równoznaczne z tym, że będzie miał kilka kopii wewnętrznych w obrębie sklepu. Dzięki canonicalom możemy wskazać jedną podstronę, która powinna być potraktowana jako główna.
W kodzie definiuje się canonicale w sekcji head, mają one postać jak niżej:
Canonicale są bardzo ważne w pozycjonowaniu, bo pozwalają uniknąć kopii treści i związanych z tym problemów. Przy większych serwisach trzeba dobrze przemyśleć i zaplanować ich użycie i najczęściej dobrze by pomagał przy tym pozycjoner z doświadczeniem.
Więcej o stosowaniu przekierowań kanonicznych tutaj.
3.14. Wersje mobilne
Nadal można spotkać strony, które nie mają wersji mobilnej, a to duży błąd. Zdarza się, że nawet połowa wyszukań pochodzi z urządzeń mobilnych. Jak to rozróżnić? W Google Analytics z lewej strony jest sekcja Ruch mobilny, gdzie znajdziemy podział na urządzenia:
Widać, że w przykładzie 56% ruchu pochodzi z komputerów, 36% ze smartfonów, 8% z tabletów. Czyli jak zsumujemy komórki i tablety to mamy 44% ruchu, który pochodzi z innych urządzeń niż komputery. Podobne statystyki można zobaczyć na wielu innych serwisach.
Liczby wyżej wyraźnie pokazują, że ruch mobilny jest ważny i nie mając odpowiednio przygotowanej strony taki użytkownik najpewniej zamknie stronę.
Aby nie było wątpliwości, czy strona będzie miała problemy, czy nie, Google przygotowało test zgodności z urządzeniami mobilnymi. Test można znaleźć pod adresem.
Działa bardzo prosto. Wpisujemy adres strony do sprawdzenia. Po chwili dostajemy wynik. Jeśli wszystko jest ok, to dostaniemy prosty komunikat.
Jeśli natomiast będą problemy, to dostaniemy listę potencjalnych problemów, które utrudniają prawidłowe wyświetlanie na urządzeniach mobilnych, tak jak na przykładzie niżej.
3.15. Sitemapy
Sitemapy to, jak podpowiada nazwa, mapa strony. Aby lepiej zrozumieć, po co są potrzebne, sprawdźmy co się dzieje, gdy ich nie ma.
W indeksie Google znajdują się podstrony, które uznane zostały za warte dodania. Można to sprawdzić, szukając z komendą site:adresstrony.pl:
Na powyższym przykładzie widać, że do indeksu trafiło niecałe 30 podstron. To mała strona, najpewniej trafiły tu wszystkie podstrony.
Tylko jak się tam znalazły? Robot wchodzi na stronę i stara się rozeznać w strukturze wewnętrznej serwisu. Robi to oczywiście za pomocą linków wewnętrznych, za pomocą których odkrywa kolejne strony. Większość z nich zostanie dodana do indeksu.
W przypadku małych stron, jak ta z przykładu wyżej, robot szybko rozezna się w strukturze i znajdzie wszystkie podstrony. Problem pojawia się przy dużych serwisach jak sklepy czy portale, które mają po kilkaset tysięcy albo kilka milionów podstron. Są i takie przypadki. Crawlery Google radzą sobie bardzo dobrze w indeksowaniu podstron, ale przy dużych stronach kosztuje je to więcej czasu. I tak jak w przykładzie wyżej bot wszedł i od razu znalazł wszystkie 29 podstron, to tak łatwo i szybko nie pójdzie mu przy dużym sklepie.
To jeden z powodów, dlaczego warto stosować sitemapy. Gdy robot widzi, że webmaster udostępnia mu sitemapę, wtedy wie, że są to adresy, które webmaster chciałby prezentować użytkownikom. Dostaje wszystkie adresy podane na talerzu i nie musi tracić czasu na ich samodzielne odnajdywanie. Po prostu wchodzi pod podane adresy podstron z listy.
Mamy rodzaje sitemap:
sitemapa XML – dodaje się ją w formacie XML (https://pl.wikipedia.org/wiki/XML) w Google Search Console. To sitemapa przeznaczona tylko dla robota. Po jej przesłaniu widać, ile adresów zostało przesłanych a ile z nich trafiło do indeksu.
sitemapa HTML – najczęściej umieszcza się ją na osobnej podstronie i link do tej podstrony z sitemapą dodaje się w stopce. Robot też z niej może skorzystać, ale tworzy się ją również z myślą o odwiedzającym. Wyobraźmy sobie sklep z wieloma kategoriami, podkategoriami. Czasem nawigacja może być utrudniona. Mapa strony może być w takim wypadku bardzo przydatna. Dobrym przykładem jest mapa strony z cyfrowe.pl http://www.cyfrowe.pl/mapa-strony.html.
Od razu widać tu podział na kategorie i podkategorie. Użytkownik łatwo może znaleźć to czego szuka. Jest to też przydatne na urządzeniach mobilnych. Niektóre menu są po prostu toporne, szczególnie przy bardzo dużej liczbie kategorii i podkategorii. Wtedy szybciej jest przejść na mapę strony i znaleźć interesującą nas pozycję.
Efekt wdrożenia optymalizacji a oczekiwania klientów
Do tej pory dość dokładnie przyjrzeliśmy się, jakie elementy strony podlegają optymalizacji. Jak widać, dużo z nich to elementy strony wymagające bezpośrednio zmian w kodzie lub modyfikacji CMSa/skryptu sklepu tak, by wprowadzone dane prawidłowo były pokazane w kodzie. Treści też stanowią ważny element w procesie optymalizacji i pozycjonowania stron. Opisane zostały w osobnym rozdziale.
Osobiście, gdybyśmy mieli wybierać pomiędzy bezbłędnie zoptymalizowaną stroną ale ze średnią treścią, a stroną słabo zoptymalizowaną, ale z bardzo dopracowaną, ciekawą treścią to zawsze wybralibyśmy serwis gdzie lepsza jest treść.
Dlaczego? O tym za chwilę. Najpierw jednak musimy wyjaśnić, dlaczego optymalizacja techniczna serwisu jest często źle interpretowana przez klientów i właścicieli stron.
Co myśli właściciel serwisu: po wprowadzeniu zaleceń mój serwis wskoczy od razu do top 10, zwiększy się też ruch, bo przecież będzie lepiej zoptymalizowany pod konkretne frazy.
Jaka jest rzeczywistość: czasem optymalizacja przynosi rzeczywiście bardzo dobre efekty (np. gdy domena jest bardzo mocna, a po prostu kulała optymalizacja serwisu), ale zdarza się dość często, że po samej optymalizacji nie ma oczekiwanego efektu wow. Są zmiany na plus, ale nic spektakularnego.
Dlaczego tak się dzieje: optymalizacja to szereg zmian, które mają na celu poprawienie strony (kodu, układu, treści itp.) tak aby była zgodna z wytycznymi Google. Niektóre zmiany rzeczywiście mogą być robione intuicyjnie według doświadczenia danego pozycjonera, ale i tak biorą się one stąd, że Google zaleca dany kierunek. Można to porównać do wyścigu samochodów rajdowych. Specyfikacja jasno określa jakie zmiany są dozwolone, a jakie zabronione. Dzięki temu na linii startu żaden z samochodów nie wybije się ponad konkurencję, bo zamontowano tam mocniejszy niż dozwolony silnik. Do tego też dąży optymalizacja stron – aby była jak najbardziej zgodna z wytycznymi Google. Później o tym która strona będzie uznana za lepszą zdecydują rzeczy jak moc domeny, linki, treści.
Wiele serwisów z topów jest już dobrze zoptymalizowana, szczególnie tam gdzie konkurencja jest bardzo silna. Dlatego jeśli serwis klienta był źle/słabo zoptymalizowany i poprawimy te błędy optymalizacyjne to nie jest to argument by tenże serwis przeskoczył całą konkurencję i wskoczył na jedynkę. On po optymalizacji po prostu równa się z konkurencją i w grę wchodzą pozostałe czynniki jak moc domeny, zaufanie, dopasowanie treści.
Wracając do pytania z początku – czemu wybralibyśmy serwis gorzej zoptymalizowany, ale z lepszą treścią?
1. a) Jeśli treść w serwisie jest naprawdę dobra, to nawet pomimo gorszej optymalizacji ma szansę pojawiać się wysoko. Widzieliśmy takie zjawisko nie raz przez lata pracy.
2. b) Ludzie linkują do dobrej treści. Szczególnie jeśli jest to przydatna, informacyjna treść – możemy spodziewać się naturalnych linków z forów, blogów, mediów społecznościowych i różnych stron.
3. c) Dobra treść generuje ruch z długiego ogona. Jeśli dany artykuł wyczerpuje temat, to pojawia się nie tylko na główne zapytanie, ale często też na setki innych, długoogonowych złożeń, generując przy tym zauważalny ruch.
To chyba dość dobrze oddaje fakt, jak ważna jest treść w procesie pozycjonowania, walki o ruch i dobre miejsca.
3.16. Indeksacja sklepu internetowego
Indeksacja to kluczowa sprawa przy funkcjonowaniu sklepu internetowego. Dlatego przyjrzymy się na co szczególnie zwrócić uwagę.
Sklepy internetowe najczęściej mają dużo podstron. Części z nich nie zawsze chcemy dodawać do indeksu (np. filtrowanie itp.).
Co do pozostałych, wartościowych podstron – tu chcemy by wszystkie znalazły się w indeksie Google, dzięki czemu mamy większe szanse na ściągnięcie ruchu z wyszukiwarek.
Pomocna będzie tu sitemapa, czyli plik zawierający adresy wszystkich podstron, które chcemy dodać do indeksu. Bez sitemapy robot też się dostanie do większości podstron, jednak zajmie mu to więcej czasu i niektóre może pominąć.
Warto zaznaczyć, że można też przygotować sitemapę obrazków. Ma to sens jeśli mamy w sklepie dobre zdjęcia i uważamy że jest potencjał by ściągały ruch np. poprzez wyszukiwarkę obrazków.
Dodanie sitemapy
Należy przygotować sitemapę w formacie XML i dodać ją w Search Console.
Na szczęście jest to bardzo proste. Jeśli mamy sklep internetowy na WooCommerce to pomoże nam tutaj wtyczka Yoast.
Przechodzimy do menu Yoast -> Mapa strony XML. Tutaj włączamy opcję Funkcjonalność map XML witryny.
Niżej znajdziemy link do sitemapy. Wystarczy go skopiować. Ważne, zaraz po włączeniu mapa może nie być wygenerowana. Najlepiej włączyć tą opcję i wrócić do menu następnego dnia – mapa powinna być gotowa.
Następnie przechodzimy do Search Console do sekcji Mapy witryn. Tutaj klikamy przycisk Dodaj mapę witryny:
Pojawi się okienko, gdzie należy wkleić link do naszej sitemapy i kliknąć przycisk prześlij. Jest tu też możliwość przetestowania sitemapy, aby sprawdzić czy została poprawnie wygenerowana.
Jeśli chcemy zdecydować co ma się znaleźć w sitemapie to wracamy do panelu WordPress i w ustawieniach Yoast w sekcji map witryn przechodzimy do kolejnych zakładek i zaznaczamy lub odznaczamy obecność poszczególnych elementów w naszej mapie XML.
Stan indeksowania
Nawet przy małych sklepach internetowych warto dodać sitemapę, bo dzięki niej będzie widać jak indeksuje się nasz sklep. Docelowo dążymy do tego, by z przesłanych adresów do indeksu trafiły wszystkie lub przynajmniej znaczna większość (ponad 90%).
Jeśli widzimy, że przesłaliśmy np. 1000 adresów w sitemapie a po dłuższym czasie w indeksie jest nadal tylko np. 300 z nich to coś jest nie tak.
Możemy to sprawdzić w Search Console w głównym panelu:
Albo można przejść do sekcji Mapy witryn po bardziej zaawansowane informacje.
Jak sprawdzić, co jest zaindeksowane a co nie by zdiagnozować problem? Jest kilka sposobów:
Komenda site
W wyszukiwarce wpisujemy przed domeną komendę site: i dostaniemy listę adresów będących w site:
Można przejrzeć i sprawdzić, których adresów brakuje w indeksie.
Losowe sprawdzenie
Jak chcemy sprawdzić pojedynczy adres to można zastosować komendę cache.
W odpowiedzi dostaniemy albo kopię pamięci podręcznej albo błąd, że nie znaleziono strony:
Użycie narzędzia URL Profiler
To bardziej zaawansowana opcja, do której można użyć narzędzia URL Profiler i przydadzą się też proxy. Dodajemy listę adresów URL z sitemapy, zaznaczamy Google Indexation i uruchamiamy sprawdzenie.
W odpowiedzi dostaniemy plik z listą adresów i statusem indeksacji każdego z nich.
Usuwanie problemów z indeksacją
Po pierwsze warto chwilę odczekać.
Czasem zajmuje trochę czasu przy nowych domenach aż Google doda do indeksu wszystkie podstrony (przy domenach mocniejszych, z historią, jest to dużo szybsze).
Jeśli jednak po jakimś czasie nadal są problemy z indeksacją i widzimy że np. tylko część adresów jest w indeksie to można zacząć działać.
Po pierwsze najpierw trzeba sprawdzić jakich podstron brakuje (nie ma w indeksie) – czy są to produkty, podkategorie czy może inne.
Po identyfikacji można podjąć kroki jak:
Sprawdzenie ustawienia canonicali – dość częsty przypadek że canonicale źle się ustawiają przez co wysyłają mylące informacje dla robota co wpływa na indeksację. Często jest to błąd programisty.
Sprawdzenie metatagu robots – zdarza się że przez przypadek na niektórych podstronach pojawia się noindex, choć powinny być normalnie indeksowane.
Sprawdzenie pliku robots.txt – źle skonstruowany plik robots.txt także może mylić bota i uniemożliwiać indeksację niektórych adresów.
Sprawdzenie treści – czy produkty mają opisy? Czy nie są za krótkie? Jeśli w sklepie jest np. kilkadziesiąt podobnych produktów bez opisu lub z bardzo krótkim opisem to Google może nie dodać takich podstron do indeksu, uznając je za mało wartościowe
Sprawdzenie linkowania wewnętrznego – częsty przypadek to problem z indeksacją produktów. Bierze się to stąd, że nie ma odpowiedniego linkowania pomiędzy produktami, tzn. linków jak produkty powiązane i tym podobne.
Statystyki indeksowania
Ostatnią rzeczą ważną przy indeksacji sklepu internetowego są statystyki indeksowania.
W Search Console znajdziemy je w części Indeksowanie:
Są to szczegółowe informacje o tym ile dziennie udaje się zaindeksować, ile stron, jaka ilość danych itd.
Przy małych sklepach te statystyki można potraktować informacyjnie. Jednak przy dużych sklepach, gdzie produktów i podstron są tysiące, warto dbać o to by były jak najlepsze, bo ma to znaczenie przy dziennym budżecie crawlera. Nie wdając się za mocno w szczegóły – im lepsze statystyki indeksowania tym szybciej crawler będzie w stanie zaindeksować większą liczbę zmian, dodać nowe produkty itd.
Statystyki indeksowania wiążą się ściśle z szybkością działania naszego sklepu. O tym pisaliśmy już w poradniku. Jeśli uda się poprawić wyraźnie czas ładowania podstron naszego sklepu np. poprzez zmianę serwera, przejście na http/2 czy optymalizację kodu to powinno to wpłynąć wyraźnie na poprawę statystyk.
Część 4. Treści w pozycjonowaniu sklepów internetowych i ich znaczenie dla dobrego SEO
4.1. Dlaczego treści są kluczowe
Treści są kluczowe przy pozycjonowaniu, szczególnie ważne są przy sklepach internetowych, gdzie nastawiamy się na zdobycie ruchu z długiego ogona.
Są ważne do tego stopnia, że jak zgłasza się do nas ktoś kto ma na działania seo 400-500zł to rekomendujemy jemu inwestycję tej kwoty w treści.
Sprawa jest prosta – ciężko zrobić dobre seo dla sklepu internetowego za 400zł czy 500zł. Co najwyżej można zrobić optymalizację, ale nie zdobędzie się za wiele wartościowych linków (nawet takich z zaplecza) za 400zł. Za to inaczej wygląda sytuacja przy treściach. Inwestując miesięcznie 400-500zł przez rok można zadbać np. o:
dobre opisy kategorii
poszerzyć opisy produktów
dodawać regularnie wpisy na sklepowym blogu
A nawet jeśli ktoś ma większe budżety na seo to i tak zawsze w ramach tego budżetu na pozycjonowanie sklepu radzimy wydzielić odpowiednią część na treści.
Matematyka nie kłamie
Dobre teksty można zamówić już za 10-15zł za 1000 znaków ze spacją.
Przykładowo:
Miesięcznie – przy kwocie 500zł / mc i cenie 10zł za 1000 znaków jesteśmy w stanie zamówić treści o długości 50,000 znaków.
Rocznie – jest to 600,000 znaków opisu!
Nie spotkaliśmy się jeszcze z przypadkiem, by dodanie dobrych treści o długości ponad pół miliona znaków nie miało wpływu na ruch ;).
Dlatego treści to podstawa i od tej podstawy trzeba zacząć. Potem można myśleć o linkowaniu itd.
4.2. Treści w sklepach internetowych
Tworzenie treści dla każdego rodzaju serwisu wygląda trochę inaczej. W przypadku sklepów jest kilka obszarów, gdzie można wykorzystać treści, by po prostu pracować na lepszy ruch i pomóc w pozycjonowaniu strony.
Opisy kategorii
Kategorie i podkategorie to ważne elementy w strukturze sklepu. Dzięki obecności linków w menu te podstrony są mocne i często to one wychodzą w Google na zapytania a nie pojedyncze produkty. Najczęstszy błąd to właśnie brak treści na podstronach kategorii i podkategorii. Jest ich dużo, jest to wysiłek i koszt ale warto. Opisy można znaleźć w wielu sklepach a nawet na Ceneo.
Czy na Amazonie (tu akurat opisy są pod listingami, co też jest w porządku):
długie powinny być opisy? Dobrze jak mają przynajmniej 1000-1500 znaków, ale dla głównych kategorii warto dać nawet dłuższe opisy.
Opisy produktów
Produkty to najliczniejsza grupa podstron w sklepach internetowych. Niestety, często mają opisy dostarczone przez dystrybutorów.
Owszem, to szybkie i wygodne rozwiązanie, bo właściciel dostaje gotowy opis. Tylko że taki opis jest też użyty w wielu innych sklepach przez co mamy sporo kopii i mało oryginalnej treści na własnej stronie.
Wklejmy w Google fragment opisu produktu w cudzysłowie i zobaczymy na ilu innych stronach jest ten sam opis:
Są oczywiście rodzaje działalności, gdzie problem sporządzenia oryginalnych opisów jest większy (jak apteki czy księgarnie). Jednak w większości przypadków właściciele sklepów internetowych mają możliwość sporządzenia unikalnych opisów.
Nie jest to tanie, zajmuje dużo czasu ale należy to traktować jako element prowadzenia biznesu. W dłuższej perspektywie powinno przynieść naprawdę sporo korzyści (większy ruch, lepsze pozycje, brak ryzyka kary Pandy i wiele innych).
Czego unikać poza kopiami?
Sporządzania zbyt krótkich opisów. Nie muszą być one bardzo długie, ale dobrze żeby miały chociaż 1000-2000 znaków opisu.
Blog przy sklepie
Blog przy sklepie internetowym pełni ważną funkcję. Oczywiście może ściągać dodatkowy ruch i powinien być prowadzony tak, by zamieszczane na nim treści były pisane dla użytkowników a nie pod wyszukiwarki.
Taki blog przy sklepie może bardzo pomóc przy linkowaniu wewnętrznym i lepszej promocji produktów.
Powiedzmy że tworzony jest artykuł o najlepszych śpiworach na biwak i w artykule opisanych jest 10 polecanych śpiworów z linkami do stron produktów oraz podkategorii w ramach sklepu. To wzmacnia te podstrony i pomaga im wychodzić wyżej w wynikach wyszukiwania.
Przy współpracy z pozycjonerem naprawdę można dobrze wykorzystać bloga na potrzeby pozycjonowania sklepu internetowego.
4.3. Długi ogon
Ściąganie ruchu za pomocą długiego ogona to nic nowego, jednak wciąż zadziwiająco duża liczba klientów ignoruje to podejście. Wolą się skupiać na kilku najważniejszych frazach na których konkurencja jest kosmiczna.
Czym jest długi ogon i skąd się wziął?
Długi ogon to koncepcja przedstawiona przez Chrisa Andersona w 2004 roku. Zauważył on że jeśli firma posiada bardzo szeroki asortyment to ogólna sprzedaż mniej popularnych produktów może łącznie być większa niż sprzedaż produktów z topu rankingu popularności.
To zjawisko występuje również w pozycjonowaniu. Tutaj już dawno zauważono, że w wielu przypadkach większość wizyt nie pochodzi z zapytań na najmocniej promowane hasła a źródłem odwiedzin są właśnie pozostałe frazy.
Oczywiście wprowadzenie non provided skutecznie utrudniło poznanie skali ruchu za jaki jest odpowiedzialny długi ogon. Ale mamy przecież dane sprzed wprowadzenia not provided, poza tym z pomocą innych narzędzi do analizy słów kluczowych i widoczności dalej widać tą zależność – długi ogon działa.
Dlaczego długi ogon działa?
Bo algorytmy są zaawansowane. Bo ludzie szukają inaczej.
Roboty wyszukiwarek naprawdę są w stanie zrozumieć nawet długie treści i dopasować ich fragmenty do konkretnych zapytań. I radzą sobie z tym naprawdę dobrze.
Na tyle dobrze, że użytkownicy wyszukiwarek nauczyli się już, że wpisując ogólne zapytanie dostaną szereg zróżnicowanych wyników dopasowanych pod to ogólne zapytanie.
Jednak jeśli sprecyzują swoje zapytanie to dostaną bardziej konkretne wyniki, z zawężonym wyborem. A czasem po prostu jest grupa użytkowników która temat nawiązujący do głównej frazy formułuje inaczej.
Weźmy na przykład frazę leki na przeziębienie. Jak widać liczba wyszukań jest dość spora:
Jeśli jednak sprawdzimy wyszukiwania po konkretnych nazwach leków, to okaże się, że wyszukiwania produktowe w tym przypadku dużo bardziej przewyższają wyszukiwania ogólne.
Niżej przykład dla zapytań dotyczących frazy Gripex:
I to tylko wycinek.
Inny przykład.
Dla sklepu z drukarkami i akcesoriami do drukarek główne frazy to raczej:
drukarki {producent},
drukarki atramentowe {producent},
drukarki laserowe {producent}
tusze do drukarki {producent}
Natomiast frazy długoogonowe będą dotyczyły już konkretnych produktów tzn. mogą mieć postać jak (XYZ to model drukarki).:
drukarki Brother XYZ
Brother XYZ zamienniki
Brother XYZ tusze
Brother XYZ cena
Jak łatwo się domyśleć, na zapytania długoogonowe będą prezentowane najczęściej już poszczególne strony produktów pasujących do zapytania:
Dlatego by w przy
padku sklepu internetowego dobrze działał długi ogon (to znaczy żeby wychodziły w wynikach wyszukiwania podstrony produktów) trzeba dopracować strony produktów.
Powinny być dobrze zoptymalizowane, mieć unikalną treść oraz być dobrze ujęte w strukturze serwisu tak, by pomogło im linkowanie wewnętrzne.
4.4. Blog a pozycjonowanie – czy warto prowadzić bloga?
W pozycjonowaniu nie ma gotowych przepisów na sukces, ale są pewne działania warte podjęcia. Blog i samo tworzenie treści właśnie wpisuje się w tego typu działania.
Wbrew pozorom, prowadzenie bloga jest trudne. Albo inaczej: prowadzenie bloga, który będzie ciekawy, na którym odwiedzający znajdzie interesujące treści jest trudne. Dojście do dobrego poziomu bloga też zajmuje trochę czasu. Na pewno jednak warto.
Liczy się efekt w postaci tematycznego ruchu, a na jego zdobycie jest wiele sposobów – w tym blog.
Dobrze prowadzony blog znacznie może przyczynić się do budowy ruchu:
treść ściągnie ruch z długiego ogona
wspomoże linkowanie wewnętrzne
dobrze napisane artykuły zyskają linki – naturalne podlinkowanie
cała domena będzie lepiej oceniana, skoro znaczna część podstron to wartościowe treści
Długość treści
Częsty dylemat. Skoro mam tworzyć bloga, to jak długie mają być posty?
Tu nie chodzi o długość, chodzi o jakość. Są tysiące branż, każda z nich to osobna tematyka. Na niektóre tematy można napisać książkę, na inne zaś 300 słów wyczerpie temat. Ale jeśli wcześniej nikt nie poruszył tego tematu i te 300 słów wniesie coś nowego to będzie to jak najbardziej równie wartościowe co o wiele dłuższy artykuł.
Tu też powraca temat analizy konkurencji. Czy dany temat został już opisany przez kogoś innego? Jeśli tak, to czy wyczerpuje temat, a może wymaga poprawek? To da też odpowiedź na ile powinien być długi nasz tekst, by wyróżnił się na tle konkurencji.
Częstość publikacji
Zależy mocno od tematyki i danego serwisu, ale trzeba w tym miejscu wyjaśnić jedną rzecz dotyczącą częstości publikacji postów. Częstsze publikowanie niekoniecznie przekłada się na wzrost ruchu. Było to wielokrotnie sprawdzane przez blogerów z większym ruchem.
Podobne doświadczenia mamy z mniejszymi klientami. Jeśli klient założył sobie, że posty mają pojawiać się często, to najczęściej miały one formę newsów lub innych krótkich artykułów. W skrócie – nic nadzwyczajnego, nic co wybijałoby się ponad konkurencję. Wtedy wkraczaliśmy do akcji i był szereg instrukcji: publikować rzadziej, pisać lepsze, dłuższe artykuły, pisać na konkretne tematy. W efekcie gdy na napisanie nowych treści było więcej czasu, znacznie rosła ich długość i jakość.
Budowa autorytetu
Blog to znakomita możliwość, by pokazać swoje mocne strony i zbudować autorytet. Każdy na pewno kojarzy poczekalnie u lekarzy wypełnione certyfikatami ze szkoleń i innych zjazdów. Czasem kończą się pod sufitem, ale jakby na to nie patrzeć – podnosi to zaufanie do lekarza. Czekając długie godziny, patrząc w dyplomy wzrasta poczucie, że czekamy w kolejce do specjalisty, któremu warto zaufać.
Jak przenieść to działanie na stronę internetową? Można oczywiście zamieścić skany certyfikatów, można przedstawić referencje. Alternatywą jest publikacja fachowych wpisów na blogu, dotyczących danej branży.
Za dobrym blogiem mogą iść też inne plusy. Jest wiele konwentów, seminariów w każdej branży. Dobrze prowadzony blog może pomóc zostać zauważonym w branży i uzyskać np. zaproszenia na prezentacje.
Kopie treści
Kopie treści to poważny problem przy procesie pozycjonowania strony, bo mogą utrudniać wychodzenie strony na wyższe pozycje. Mamy dwa rodzaje kopii treści:
kopie wewnętrzne – czyli treść która pojawia się kilkukrotnie w obrębie strony
kopie zewnętrzne – czyli treść która występuje na wielu domenach
Na czym polega problem? Jeśli skala występowania kopii jest spora, strona może dostać karę od Pandy, albo po prostu może osiągać gorsze pozycje w wynikach wyszukiwania.
Pamiętajmy że na dane zapytanie będzie kilka/kilkanaście stron z tą samą treścią, więc algorytm może układać wyniki różnie, szczególnie że ma do wyboru wiele podstron z tą samą treścią.
Jak sprawdzić czy treści są kopiami?
Są narzędzia jak Copyscape, które pomagają sprawdzić ile i które fragmenty strony są kopiami. Jednak do szybkiego sprawdzenia, czy treść ma kopie gdzieś indziej wystarczy samo Google. Wystarczy skopiować fragment treści i wkleić go w cudzysłowie w wyszukiwarkę. Wtedy w wynikach powinniśmy zobaczyć inne strony, gdzie występuje dany fragment treści.
Co robić jeśli ktoś skopiował nielegalnie moją treść?
Nie ma tu prostego rozwiązania. Wbrew pozorom dość często zdarzają się kradzieże treści, które w rezultacie mogą osłabić naszą witrynę. Co zatem robić, gdy okaże się, że treść została skopiowana nielegalnie?
1. a) kontakt z właścicielem strony
jeśli na stronie są dane kontaktowe, to mamy możliwość podjęcia bezpośredniej próby kontaktu. Należy w wiadomości przedstawić sytuację, że jesteśmy właścicielami treści i została ona skopiowana bez naszej zgody. Nie ma konieczności, by na tym etapie być niemiłym, ale trzeba dość stanowczo poprosić o usunięcie skopiowanej treści. Jeśli właściciel nie będzie do tego skłonny, można spróbować zagrozić oddaniem sprawy do kancelarii prawnej. Czasem działa, na pewno pokazuje że zależy nam na temacie.
1. b) nie ma kontaktu z właścicielem strony/nasza prośba została odrzucona – kontakt z abuse teamem
Przy każdym dobrym hostingu działają tzw. abuse teamy. Można sprawdzić, na którym hostingu znajduje się domena i odezwać się do abuse teamu, opisując całą sytuację, zaznaczając, że nie ma kontaktu z właścicielem witryny
Jeśli pomimo próśb nie uda się usunąć kopii z innych domen to pozostanie napisanie treści od nowa.
Zabezpieczenie przed kopiowaniem treści
Niektórzy zamieszczają wyraźne ostrzeżenia przed kopiowaniem treści, przykład:
Jest to zawsze jakiś sposób. Wtedy jeśli dojdzie mimo wszystko do skopiowania treści to mamy mocny argument, że ostrzeżenie było widoczne.
Copywriter
Do tej pory chyba jasne stało się, jak ważne są treści w pozycjonowaniu sklepu internetowego. Ale nie tylko pozycjonowaniu. Pamiętajmy, że mają one też wpływ na decyzje zakupowe odwiedzających nasz sklep.
Właśnie dlatego przyda się pomoc copywritera.
Owszem – opisy produktów możemy napisać sami. Przyjdzie jednak moment, że copywriter, szczególnie przy dużych sklepach, będzie bardzo przydatny.
Z pomocą copywritera unikniemy dwóch poważnych błędów.
Często jest powielany błąd, że właściciel sklepu wstawia opis dostarczany przez producenta. Ten sam opis znajduje się na dziesiątkach innych sklepów. W rezultacie dany sklep w większości to tak naprawdę kopie.
Inny częsty błąd to krótkie opisy lub nawet ich brak. Dzieje się tak często jeśli w sklepie znajduje się sporo produktów (kilkaset, kilka tysięcy lub nawet więcej).
To prowadzi do tego, że nie ma środków / czasu na stworzenie unikalnych opisów i produkty dodawane są masowo tylko ze specyfikacją i jakimś podstawowym zdjęciem.
Czemu te błędy są tak ważne?
Specjalny algorytm Google o nazwie Panda odpowiada właśnie za odpowiednią ocenę stron pod kątem treści.
Jeśli w serwisie jest wiele podstron o niskiej jakości to na serwis może zostać nałożona kara co przełoży się na spadek ruchu.
Gdzie znaleźć copywritera
Dużo zależy tutaj od funduszy.
Można skorzystać z usług agencji specjalizującej się w copywritingu. Wtedy jednak trzeba liczyć się z wysokimi stawkami. Najczęściej idzie to w parze z jakością, więc tu zdecydowanie przy odpowiednim budżecie jest to dobra opcja.
Można też poszukać freelancerów. Jest ich sporo na rynku, to duża zaleta. Wada jest taka, że ciężko znaleźć kogoś solidnego, terminowego, kto będzie dobrze pisał. Mówiąc krótko, trzeba się naszukać.
Można też szukać przez portale jak Oferia, Gumtree czy wyguglować „zlecenia przez internet” i znajdziemy popularne portale dla freelancerów.
Warto zacząć od kilku próbnych zleceń i na ich podstawie ocenić jakość tekstów oraz samą współpracę z danym copywriterem.
Na pewno trzeba się tu uzbroić w cierpliwość. W końcu znajdziemy odpowiedniego copywritera do pisania tekstów do naszego sklepu internetowego.
Można też napisać do nas i polecimy kilka osób :).
Koszty copywritera
Dużo zależy tutaj od rodzaju asortymentu do którego potrzebujemy copywritera.
Dla ogólniejszych tematów jak odzież, zabawki itp. znajdziemy więcej osób chętnych podjęcia się pisania.
Natomiast przy zaawansowanych, wymaganych pewnej wiedzy na dany temat, jak pompy, konkretne urządzenia elektroniczne itp. będzie trochę ciężej.
To też mocno przekłada się na stawkę.
Trzeba się liczyć ze stawką minimum około 10zł za 1000 znaków ze spacją.
Przy bardziej zaawansowanych tematach czy wspomnianych agencjach / doświadczonych copywriterach stawka może być dużo większa rzędu kilkudziesięciu złotych za 1000 znaków.
4.7. Q&A czyli pytania i odpowiedzi
Świetną sprawą w sklepie jest user generated content, czyli treści generowane przez użytkowników. Mogą to być komentarze, opinie czy pytania.
Wdrożenie ich nie jest trudne – albo takie opcje oferuje już większość sklepów. Jeśli nie są wbudowane to najczęściej można dokupić odpowiedni moduł i dodać nową funkcjonalność.
Tak właśnie jest z pytaniami i odpowiedziami. Do wielu popularnych sklepów jak Presta, Magento czy WooCommerce znajdziemy odpowiednie moduły.
Takie moduły mają kilka ważnych zalet.
Przede wszystkim są dodatkowym kanałem komunikacji z potencjalnym klientem. Przez udzielenie odpowiedzi i pomocy możemy przekonać klienta do zakupu w naszym sklepie. Poza tym po prostu podnosimy jakość obsługi.
Dodatkowo pomagają wygenerować więcej treści. Dużo łatwiej jest odpisać na kilka pytań co da np. 2000 znaków treści niż napisać taką samą ilości od podstaw.
Co ciekawe, takie rozwiązania coraz częściej stosują zarówno mniejsze sklepy jak i naprawdę duże brandy.
O ile pytania i odpowiedzi to relatywnie nowy trend, to same opinie są już obecne bardzo długo. Niestety, nadal w wielu przypadkach ta opcja jest przeoczona i często świadomie wyłączana.
To podobnie jak przy Q&A znakomity sposób na zwiększenie ilości treści na podstronie danego produktu jak również podniesienie poziomu komunikacji z klientami.
Treści są na tyle ważne dla Google, że w 2011 roku wprowadzili algorytm, który ocenia strony pod kątem jakości treści na danej stronie.
Jak to w świecie Google bywa – został nazwany Panda i razem z Pingwinem (dotyczącym linków) to często przewijający się duet w analizach. Jak podkreślali przedstawiciele Google, była to odpowiedź na skargi użytkowników, że jako topowe wyniki dostawali strony o słabej treści i musieli szukać odpowiedzi na innych stronach z dalszych wyników.
I to chyba najlepiej opisuje czym jest Panda – dba o to, by na szczycie rankingu nie pojawiały się strony mało przydatne dla szukających.
Jak wygląda ruch strony, która została ukarana przez Pandę? Prezentuje to wykres niżej: źródło: http://www.wiredseo.com/google-panda-recovery-4-0-case-study/
Panda bardzo
często ma wpływ nie tylko na główne frazy, ale też na frazy długoogonowe. Stąd drastyczne spadki w ruchu, bo gorsze pozycje ma wiele fraz.
No dobrze, ale co tak naprawdę naraża stronę na karę od Pandy? Jest kilka czynników:
1. a) kopie treści
To oczywisty podpunkt – prezentacja kopii treści z innych serwisów nie sprawia, że strona jest przydatna
1. b) krótkie treści
Temat, który trzeba właściwie zrozumieć.
Napisanie kilku krótszych newsów czy artykułów nie jest problemem. Natomiast jeśli cały serwis składa się z ubogich w treści podstron, to jest to czynnik, który może spowodować ukaranie strony Pandą.
Po wprowadzeniu Pandy dość głośno omawiany był przykład serwisu prezentującego przepisy na babeczki. Przepisy były oryginalne, sama strona też była bardzo przydatna, bo prezentowała masę różnych przepisów. Jednak forma prezentacji każdego z nich naraziła stronę na Pandę. Dla każdego przepisu tworzona była osobna podstrona i tam zamieszczany był przepis. A że przepis dotyczył babeczki a nie kaczki po tajsku, to był prosty i krótki.
Nie było żadnego wstępu, rozszerzenia – po prostu podane były składniki i skrócony sposób przygotowania. Autorka strony miała pretensje do Google. Czy słusznie? Trochę racji miała, natomiast żaden algorytm nie jest idealny i trzeba o tym pamiętać podczas tworzenia strony.
1. c) zła budowa serwisu, tworząca wiele kopii
O ile samymi kopiami wewnętrznymi Google zaleca raczej się nie martwić, to są sytuacje, że skrypt portalu/sklepu jest tak źle napisany, że indeksowane jest wszystko – filtry, tagi i każda inna podstrona. W efekcie Google może spojrzeć na to jako na zbiór dużej ilości mało wartościowych stron, gdzie nie ma contentu.
Wychodzenie z Pandy
Aby zdjąć karę Pandy ze strony trzeba oczywiście wprowadzić odpowiednie zmiany w treści na stronie. Zalecane jest by przepisać/poprawić za krótkie artykuły, a podstrony bezwartościowe wyindeksować.
Do niedawna był całkiem spory problem ze zdjęciem tej kary, bo trzeba było czekać na kolejną aktualizację algorytmu. Jednak w końcu algorytm Panda został na stale wpisany do głównego algorytmu i działa w czasie rzeczywistym, co pozwala dość szybko usunąć problemy z treściami.
Skąd właściciel strony będzie wiedział, że kara została zdjęta? Obserwując ruch. Wcześniej pokazaliśmy przykład strony, która została ukarana przez Pandę i spadł ruch. A tak wygląda powrót do żywych po usunięciu Pandy:
Ogólnie wychodzenie z Pandy wymaga dużego nakładu pracy i czasu, ale szanse na sukces są duże.
Część 5. Linkowanie sklepu internetowego
5.1. Dlaczego linki są ważne?
Temat linkowania jest bardzo szeroki, dlatego nie uda nam się go całkiem wyczerpać w tej części. Skupimy się jednak na najważniejszych rzeczach o których trzeba wiedzieć przy linkowaniu, by uniknąć problemów w przyszłości.
Linki to często decydujący czynnik o miejscu strony na dane zapytanie.
Główne założenie jest takie, by tworzyć na tyle atrakcyjne pod kątem zawartości strony do których użytkownicy sami by linkowali. Jednak nie zawsze zdobycie naturalnych linków jest proste czy wystarczające do osiągnięcia topowych pozycji.
Tu z pomocą przychodzi pozycjoner czy agencja seo. Najczęściej bazują oni na swoim zapleczu pozycjonerskim, które tak naprawdę stanowi grupa serwisów na których zamieszczają linki do serwisu klienta.
Można też zdobywać linki samodzielnie – przykłady z brzegu to linki z wpisów gościnnych, katalogów, komentarzy. Temat linków nie jest łatwy, a nieodpowiednie linkowanie może narazić stronę na karę manualną lub algorytmiczną.
5.2. Czego się wystrzegać przy linkowaniu?
Zdarza się, że właściciel serwisu sam zajmuje się pozycjonowaniem swojego serwisu.
Dość łatwo i tanio można zepsuć profil linków a nawet narazić stronę na omawiane wcześniej kary algorytmiczne i manualne. To, że ktoś oferuje nam dużo linków za niską cenę wcale nie znaczy, że to dobra oferta. Skoro pojedynczy link jest tak tani to dobrze świadczy o jego nikłej wartości.
Czego unikać?
Systemy Wymiany Linków, czyli SWLe – kiedyś bardzo popularne, szczególnie przed erą Pingwina. Szybki i tani sposób na zdobycie linków. W skrócie: użytkownik rejestruje się w systemie wymiany linków i osadza na swojej stronie otrzymany kod. Na jego stronie będą pojawiać się linki do innych stron, na innych stronach będą linki do jego serwisu. Ewentualnie po prostu wykupuje punkty i jego linki są zamieszczane na stronach uczestniczących w systemie.
Są dwa rodzaje SWLi – rotacyjne i statyczne. Rotacyjne czyli co dany czas (odświeżenie strony lub np. codziennie) zmienia się lista linków. Statyczne czyli link osadzony jest na stałe.
W tym systemie łatwo wygenerować dużo linków, ale dość łatwo też stwierdzić (szczególnie przy manualnej weryfikacji), że jest to SWL.
Seokatalogi – bezwartościowe ale i niebezpieczne źródło linków. Tworzone są one masowo, głównie w celach zarobkowych. Szybkie szukanie na allegro pozwala nam znaleźć oferty katalogowania za grosze. Jak np. ta okazja roku – tyle linków za tak niewiele!! 53 osoby skusiły się:
Takich aukcji i ofert jest sporo. Oczywiście przy każdym opisie jest zapewnienie, że katalogi są zadbane, moderowane itd. Wszystko to nie ma nic wspólnego z pozycjonowaniem. Jest to zwykły spam, który po prostu zaszkodzi domenie. W SEO ważne jest zróżnicowanie linków. Jeśli nagle przybędzie 1000 domen katalogów, to jak można to przeoczyć?
Podsumowując temat seokatalogów – to najszybsza droga do kary od Google i zniszczenia zaufania domeny.
Czy wszystkie katalogi są bezwartościowe?
Nie. Tu musimy odróżnić seokatalogi jak z przykładowej aukcji wyżej, które są nic nie warte od katalogów zaufanych, moderowania, które istnieją wiele lat. Często są to płatne katalogi, gdzie jeden wpis kosztuje koło 10zł. Przykładowo są to katalogi jak katalog.gazeta.pl, katalog.interia.pl itp. czyli prowadzone przy dużych portalach. Problemem sortowania wartościowych katalogów zajmował się Cezzy, który publikował taką listę.
Kiedyś publikował ją na swoim blogu, teraz lista jest aktualizowana stronie http://rank.pl. Jak widać, po sprawdzeniu i analizie według tego rankinkgu znalazło się tam tylko 50 wartościowych katalogów.
Fiverr to przykład kolejnego źródła dużej liczby linków za małe pieniądze. Przykład bo serwisów i źródeł tanich linków jak Fiverr znajdziemy naprawdę sporo. W przypadku Fiverra każda oferta opiewa na 5 dolarów (choć jest też opcja poszerzenia zamówienia). Dość szybko serwis upodobali sobie spamerzy, którzy wystawiają tam oferty tworzenia linków (link buildingu). Za jedyne 5 dolarów można mieć nawet całe piramidy linków:
To są oczywiście linki tworzone za pomocą programów. Jest to przykład kolejnego szybkiego sposobu, by zaszkodzić domenie. Może nawet przyniosą one efekt, jednak są to linki, które prędzej czy później zostaną wykryte jako nienaturalne i na stronę może zostać nałożona kara.
Inne źródła linków
Wyżej przedstawiliśmy tylko przykłady linków, które powodują problemy. Spamerzy wynaleźli sporo sposobów by podlinkować tanio i masowo. Niestety, klienci w dużej części są nieświadomi, że po prostu szkodzą domenie i narażają ją na karę. Jeśli nie teraz to w bliskiej przyszłości.
Prawdziwy link building to przeciwieństwo przedstawionych przykładów. Zajmuje dużo czasu, pozyskuje się mało linków, ale za to bardzo wartościowych.
5.3. Jak sprawdzić w jaki sposób linkuje nas agencja/pozycjoner?
Właściciel strony może sprawdzić, jakie linki wskazują na jego domenę.
Co więcej, warto to sprawdzać co jakiś czas, by wiedzieć jak linkowanie wygląda w praktyce. Można oczywiście poprosić o raport agencję czy pozycjonera, ale najczęściej przedstawiana jest tylko lista przykładowych linków. Jeśli serwis jest linkowany z zaplecza firmowego to agencja nie może wysyłać listy swojego zaplecza dla każdego chętnego. Dlatego klient otrzymuje tylko przykłady linków.
Jak zatem sprawdzić co się dzieje w kwestii nowych linków? Jest kilka sposobów.
Użyć narzędzi do sprawdzania linków jak Majestic, Ahrefs czy inne. Są to płatne programy, ale można w nich założyć darmowe konto dla swojego serwisu i mieć podgląd na linki wskazujące na naszą domenę.
Sprawdzenie nowych linków jest bardzo wygodne, bo można wybrać zakładkę z nowymi linkami i widać jakie linki pojawiły się w ostatnim czasie.
Agencje mogą blokować swoje zaplecze przed Majestic i innymi programami zewnętrznymi. Również niektóre linki mogą zostać nieodkryte przez te programy, dlatego warto sprawdzać linki z pomocą Google Search Console.
Sprawdźmy szybko jak można sprawdzić linki, które wskazują na daną domenę.
W Search Console z lewej strony przechodzimy w menu do Ruch związany z wyszukiwaniem → Linki do Twojej witryny:
Tu jak widać mamy przedstawione skrótowo domeny wskazujące na naszą stronę, jak wyglądają linki i inne dane. W pierwszym bloku Źródła największej liczby linków klikamy Więcej. Zobaczymy nowy panel, który prezentuje więcej domen:
U góry widać trzy opcje:
Pobierz tę tabelę
Pobierz więcej przykładowych linków
Pobierz najnowsze linki
Jeśli chcemy zobaczyć przykłady linków to wybieramy opcję środkową. Natomiast jak chcemy zobaczyć, jakie nowe linki przybyły to wybieramy ostatni przycisk Pobierz najnowsze linki.
Działanie to spowoduje pobranie linków do pliku CSV lub dokumentu Google. W efekcie zobaczymy listę w postaci jak niżej:
Czyli mamy lokalizacje, gdzie wykryto link do naszej strony oraz datę pierwszego odkrycia.
Google Search Console może nie pokazywać wszystkich linków, które wykryto i które wskazują na naszą stronę.
Pokazuje jednak dość dokładnie różne przykłady linków. Dzięki temu zestawieniu można zobaczyć, jakie nowe linki są wykrywane i ocenić ich jakość.
Druga uwaga to przypomnienie, że nawet jak zleciliśmy komuś pozycjonowanie i linkowanie strony to również mogą pojawiać się linki z różnych źródeł. Nie za wszystkie może być odpowiedzialna agencja czy pozycjoner. Jeśli zauważymy coś niepokojącego to należy to skonsultować a nie wysuwać od razu oskarżenia.
5.4. Kary manualne za linkowanie
Kara manualna może być nałożona nie tylko za linki, ale też za inne działania niezgodne z wytycznymi Google. Jednak najczęściej spotyka się kary za linki.
Kary manualne, jak sama nazwa wskazuje nakładane są ręcznie. To dodatkowa weryfikacja, bo mamy przecież kary nakładane przez algorytm.
Jeśli strona zostanie ukarana manualnie, to w Google Search Console pojawi się wiadomość o nałożeniu kary. Jest to bardzo pomocna informacja dla webmastera, bo dzięki tej wiadomości wie, że jest problem i może podjąć odpowiednie działania w celu jego usunięcia.
Od lat są naciski na Google, by podobne informacje pojawiały się też przy karach algorytmicznych. Przykładowo jeśli strona jest ukarana przez Pingiwna, to by w Search Console pojawiła się odpowiednia wiadomość, podobna do tej o karze manualnej. Zanosi się jednak, że szanse na takie zmiany są bardzo małe.
W przypadku kary manualnej można podjąć odpowiednie działania i zgłosić stronę do ponownego sprawdzenia. W zgłoszeniu należy napisać jakie działania zostały podjęte, które linki zostały usunięte a których nie udało się usunąć i zostały zgłoszone przez Disavow Tool.
Takie zgłoszenie jest ponownie sprawdzane.
Jeśli problem jest usunięty, to kara zostaje zdjęta. Jeśli natomiast problem nadal występuje to właściciel strony dostanie kolejny komunikat, że strona nadal jest niezgodna z wytycznymi Google i przedstawione zostaną przykłady linków, które są nienaturalne.
Niestety, nie są przedstawiane wszystkie problematyczne linki, a tylko ich przykłady. Jednak na ich podstawie można zobaczyć, z czym jest problem – czy są to może sprzedażowe linki z katalogów, czy innych źródeł.
Następnie należy wyciągnąć listę całego podlinkowania strony, znaleźć więcej podobnych linków i podjąć działania w celu ich usunięcia.
5.5. Google Pingwin
Pingwin to kara algorytmiczna za nienaturalne linkowanie. Jest to poważna kara, którą bardzo ciężko się usuwa.
Za co karze Pingwin:
Za nienaturalne linki. Często, ale nie zawsze, będą to linki ze sprzedażowym anchorem, które nastawione są na manipulację wynikami pod daną frazę. Mogą to być także linki spamowe, np. z seokatalogów, komentarzy czy profili utworzonych w dużej liczbie za pomocą automatycznych narzędzi.
Nie jest oczywiście tak, że kilka złych linków sprawia, że na stronę jest nałożona kara. Jednak jeśli biorąc pod uwagę cały profil linków wyraźnie widać próbę manipulacji, to jest duże ryzyko nałożenia kary przez Pingwina.
Czemu pingwin jest tak problematyczny? Kilka powodów:
nie ma powiadomienia – czyli nie wiemy tak naprawdę, czy strona została ukarana Pingwinem, czy może innym algorytmem (bo przecież jest nie tylko Pingwin). Od lat właściciele witryn domagają się od Google jaśniejszego komunikowania o problemach, które ma strona, ale bez skutku.
spadki ruchu są duże – Pingwin w niektórych przypadkach może doprowadzić do poważnego, kilkudziesięcioprocentowego spadku ruchu. Dla każdego biznesu taki spadek jest odczuwalny.
trzeba czekać na aktualizację, by zdjąć karę – nawet jeśli złe linki zostaną usunięte, to i tak kara może zostać zdjęta przy następnej aktualizacji algorytmu. Problem w tym, że jest on rzadko aktualizowany, teraz trwa najdłuższa przerwa w oczekiwaniu na Pingwina 4. Trwa ona półtora roku. Jednak już od kolejnej, czwartej odsłony algorytm ma być aktualizowany w czasie rzeczywistym. Czy tak będzie – zobaczymy.
Z jednej strony naprawdę strona musi sobie zasłużyć na Pingiwna. Z drugiej, nie każdy właściciel serwisu ma kontrolę nad sposobem w jaki ktoś linkuje jego stronę.
5.6. Linki follow / nofollow
Dla pozycjonowania ważne jest zrozumienie, że link może być traktowany jako follow lub nofollow. Odpowiednie oznaczenie dodaje się w kodzie, przy linku. Przykład linku nofollow:
Domyślnie linki są follow.
Linki follow – przekazują moc dalej do linkowanego źródła Linki nofollow – nie przekazują mocy, bot nie podąży za linkiem
Moc czyli tzw. link juice. Im więcej mocy przekazywanej jest na domenę czy podstronę tym jest mocniejsza.
Jest to pomocne, bo webmaster może zdecydować sam czy dane linki mają być follow czy nofollow.
Przykładem są komentarze, gdzie komentujący poza treścią komentarza podaje też imię oraz adres strony www. Wcześniej takie komentarze mogły być nadużywane przez pozycjonerów/spamerów, dla których był to szybki sposób na zdobycie wartościowego linka follow przekazującego moc. Jeśli jednak zobaczą, że linki są nofollow to najczęściej tracą zainteresowanie. Dzięki temu właściciel witryny ma mniej spamowych komentarzy do zatwierdzania.
5.7. Jakie linki są wartościowe? Przyszłość linków
Trochę postraszyliśmy :). Jak widać, jest dość sporo kar za linowanie, bo linki nadal są bardzo ważną podstawą algorytmu. Nie zanosi się, by specjalnie to się zmieniło w przyszłości. Google podejmowało próby zmiany algorytmu tak by linki nie były czynnikiem rankingującym. W efekcie wyniki były dużo gorsze niż te przy zwykłym algorytmie, biorącym linki pod uwagę.
Na pewno zmiany w algorytmie sprawiają, że warto zadbać o jak najbardziej wartościowe linki.
Jaki to link? Może mieć różną postać:
może być umieszczony wewnątrz artykułu
może być umieszczony po prostu na stronie polecane, w blogrollu itp.
być w innej lokalizacji
Bardzo dużo zależy przede wszystkim od zaufania i mocy strony z której pozyskujemy linka. To właśnie decyduje czy link będzie wartościowy czy nie.
5.8. Samodzielne linkowanie
Linkowanie i samo pozycjonowanie najlepiej zlecić komuś doświadczonemu. Można jednak podjąć się tego samodzielnie. Co byśmy radzili, tak by pozyskać dobre linki, które zniosą próbę czasu?
Przede wszystkim odradzalibyśmy wszystkich dróg na skróty. Jeszcze raz zaznaczmy – nie jest celem zdobycie jak największej liczby linków, a zdobycie linków jak najlepszych. Wszelkie łatwo dostępne linki jak SWL, katalogi seo itd. można wyrzucić do kosza.
Najlepiej pozyskać linki z prawdziwych stron. Ostatnie lata to jednak plaga próśb i pytań o wpisy gościnne. Jeśli po prostu napiszemy do właściciela z prośbą o zamieszczenie wpisu gościnnego to najzwyczajniej w świecie nas zignoruje, bo takich próśb ma wiele dziennie.
Trzeba zastosować inne podejście, bazujące na budowie relacji.
Działa to tak.
Po pierwsze trzeba zrobić listę wartościowych stron i blogów, powiązanych z tematyką naszego sklepu internetowego. Przykładowo jeśli prowadzimy sklep z obrazami to będą to wszystkie blogi o wnętrzach, aranżacjach itp.
Można dość łatwo znaleźć całe listy blogów z danej tematyki. Można też poszukać samemu przeklikując się przez poszczególne blogi. Na każdym blogu znajdziemy blogroll, który da nam więcej potencjalnych lokalizacji do sprawdzenia.
Przy szukaniu powiązanych blogów z pomocą przychodzi narzędzie ScreamingFrog, ale że jest płatne to na potrzeby własne można zostać przy ręcznym sporządzaniu listy.
Następnie należy odsiać blogi nieaktualizowane od jakiegoś czasu lub nie odpowiadające naszej tematyce.
Nam przeważnie udaje zawęzić się tą listę do około 200-300 blogów, zależy od branży.
Listę blogów sprawdzamy dalej – większość z nich ma swoje strony na FB, instagrama a jeśli to blogspot to jest boks z liczbą śledzących ludzi.
Wypisujemy przy każdym blogu ile jest obserwatorów na poszczególnych platformach.
Następnie sortujemy, np. po liczbie osób śledzących na FB.
Celem jest znalezienie blogów w naszej niszy, które mają największy wpływ.
Kolejny krok to kontakt. Jeśli podany jest numer telefonu to można nawet odezwać się telefonicznie. Najczęściej jednak to będzie mail, choć można spróbować przez czata na FB.
Nie należy od razu zaczynać rozmowy od tematu linków czy wpisów gościnnych. Chcemy po prostu zapytać o możliwość współpracy i ewentualne formy współpracy, które dopuszcza bloger.
Oczywiście najważniejsze dla nas jest pozyskanie linku z artykułu na danym blogu. Ale możliwości współpracy jest więcej jak promocja naszego FB czy instagrama.
Takie nawiązywanie relacji jest czasochłonne. Są to działania, które powinno wykonywać się miesiąc w miesiąc. Jest to proces. Jednak po dłuższym okresie powinno udać nam się pozyskać odpowiednio dużą liczbę linków, które wzmocnią domenę naszego sklepu.
Część 6. Pozycjonowanie – narzędzia pomocne przy pozycjonowaniu
Jest sporo narzędzi, które mogą ułatwić nam codzienne życie i prace przy stronie, szukaniu fraz do pozycjonowania czy innych analizach na potrzeby seo. Nie tylko pozycjonerom, ale także właścicielom witryn.
W tym dziale prezentujemy subiektywną listę narzędzi, które naszym zdaniem warto znać i używać. Część z nazw tych narzędzi pojawiła się już w naszym poradniku, tu przedstawiamy je bliżej.
6.1. Google Analytics
Google Analitycs to bardzo rozbudowane narzędzie, które pozwala nam nie tylko sprawdzać poziom ruchu, ale także analizować go. Warto poświęcić trochę czasu na jego lepsze poznanie, bo to darmowe narzędzie ma naprawdę sporo możliwości.
Gdy pozycjonujemy stronę, Analytics wielokrotnie może okazać się bardzo pomocny. Przykłady które przychodzą od razu na myśl to np.
sprawdzenie które podstrony ściągają najwięcej ruchu (można je wtedy dopracować, uzupełnić o słowa kluczowe i podbić ruch)
obserwacja ruchu w zestawieniu z wcześniejszymi okresami, co może dać nam odpowiedź, ze dzieje się coś złego
sprawdzenie współczynnika odrzuceń – pomocne w sytuacjach gdy strona jest wypozycjonowana, ma pozycje w topach a okazuje się że po przejściu z wyszukiwarki na stronę ludzie nie są zainteresowani. Wtedy najprawdopodobniej podstrona i treści wymagają zmian, dzięki którym ruch nie będzie się marnował
To tylko niektóre przykłady. Nie będziemy tu zagłębiać się w tematykę analityki, ale warto mieć świadomość tego, że samo ściągnięcie ruchu poprzez pozycjonowanie to jedno. Trzeba jeszcze tak zadbać o stronę, układ, treści by była jak najbardziej przyjazna i dobrze konwertowała. Ale to osobny temat.
Analytics pozwala też łatwo rozdzielić ruch płatny z reklam od ruchu bezpłatnego z wyszukiwarek. Tu trzeba jedynie pamiętać, że jeśli prowadzimy także kampanię Adwords to należy scalić Analytics i Adwords aby to rozdzielenie było prawidłowe.
6.2. Google Search Console
Absolutna podstawa, nawet jeśli nie jesteśmy specjalistą SEO, tylko właścicielem witryny. Google Search Console (a jeszcze do niedawna pod nazwą Google Webmaster Tools) to rozbudowane narzędzie. Jego główne zadanie to informowanie właściciela strony o stanie witryny.
Najważniejsze rzeczy, w których pomocne jest narzędzie Search Console:
informacja o problemach ze stroną – nasza strona może mieć wiele różnych problemów jak np. problemy z wirusami, malware, czy problemy techniczne jak przykładowo problemy z hostingiem lub samym skryptem naszej strony. Dostaniemy wtedy odpowiedni komunikat o tym, że strona jest zawirsowana lub że jest problem z jej dostępnością.
informacje o karach manualnych – jeśli dla danej strony wykryto działania niezgodne z wytycznymi Google i została nałożona kara manualna to właśnie komunikat o tym znajdziemy w Search Console.
informacje o stanie w wyszukiwarce – stan indeksacji, możliwe poprawki w HTML, sprawdzenie czy działają mikroformaty itp.
I wiele innych. Z niektórych funkcji korzysta się rzadziej, z innych regularnie. Dużo zależy od tego, kto korzysta z narzędzia – inne funkcje wykorzysta właściciel strony, inne pozycjoner.
Przez lata narzędzie mocno się zmieniało i było rozbudowywane o nowe funkcje. W wielu przypadkach to tak naprawdę komunikat z Search Console wskazuje nam problem, który bez niego moglibyśmy przeoczyć przez całe tygodnie. Dlatego po uruchomieniu strony warto od razu podpiąć pod nią Search Console.
6.3. Google Mobile Friendly Test
W roku 2016 wersja mobilna to po prostu obowiązek. Google samo przyznało, że na wersjach mobilnych w wynikach wyszukiwania promowane są serwisy które dostosowane są do tych urządzeń. Dzięki narzędziu możemy sprawdzić szybko, czy strona jest przyjazna urządzeniom mobilnym. Jeśli nie – dostaniemy listę uwag do poprawy.
6.4. Google Insights – Page Speed
Narzędzie od Google do sprawdzania szybkości ładowania strony na urządzeniach mobilnych oraz na komputerach.
Szybkość ładowania strony nie ma dużego wpływu na wyniki wyszukiwań (no chyba że strona ładuje się dramatycznie długo np. 30 sekund).
Ma jednak bardzo duży wpływ na zachowanie użytkowników i na konwersję. Wykonano wiele badań i wszystkie potwierdzają dość oczywisty fakt – ludzie są niecierpliwi, szczególnie w dzisiejszych czasach. Otwierają po kilka, kilkanaście zakładek i chcą szybkiego dostępu do treści. Jeśli dana strona nie załaduje im się wystarczająco szybko to zamkną ją i przejdą dalej. Dlatego przy pozycjonowaniu zwraca się uwagę na szybkość ładowania stron.
Dużą zaletą narzędzia jest sposób prezentacji problemów, które obniżają szybkość ładowania strony. Przede wszystkim są one posortowane od najważniejszych do mniej pilnych. Pozwala to łatwo zaplanować prace naprawcze, tak by zająć się w pierwszej kolejności najważniejszymi problemami.
Dodatkowo przy każdym problemie jest podpowiedź, czasem bardzo szczegółowa, jak go usunąć. Dzięki temu możemy dać osobie odpowiedzialnej za wdrożenie zmian bardzo szczegółowe informacje odnośnie tego co chcemy naprawić.
6.5. Google Keyword Planner
Narzędzie pomocne do wybierania słów kluczowych. Główne przeznaczenie to planowanie słów kluczowych przy tworzeniu kampanii Adwords. Natomiast dobrze się sprawdza także przy pozycjonowaniu i wybieraniu słów kluczowych pod które warto zoptymalizować podstrony i prowadzić pozycjonowanie.
Narzędzie nie tylko pokazuje średnią miesięczną liczbę wyszukań dla danej frazy, ale też sugeruje podobne frazy. Czasem trzeba poświęcić trochę czasu na przejrzenie propozycji i wybranie najlepszych złożeń, ale można z pomocą narzędzia znaleźć naprawdę ciekawe propozycje słów kluczowych, które można potem wykorzystać przy pozycjonowaniu.
Niestety, od jakiegoś czasu pokazuje wyniki w przedziałach (jeśli nie prowadzimy aktywnej kampanii). Dodatkowo pojawiają się tu dość często problemy z działaniem.
6.6. KW Finder
Nasze ulubione narzędzie do analizy słów kluczowych. Korzysta z API Google, czyli mamy tu te same dane, które dostalibyśmy przy korzystaniu z Keyword Plannera.
Jest to narzędzie płatne, ale do użytku osobistego wystarczy podstawowy pakiet za kilkanaście dolarów miesięcznie.
Narzędzie jest łatwe w obsłudze. Daje też dużo opcji zarządzania listami, co sprawdza się gdy robimy research pod różne grupy fraz.
6.7. Google Trends
Może dość rzadko używane narzędzie w procesie pozycjonowania stron, ale na niektórych etapach bardzo przydatne. Pomaga określić jak kształtują się trendy dla danych fraz (czy ich popularność rośnie z biegiem lat czy spada). W niektórych sytuacjach może to być bardzo pomocne – np. przy decyzji o kierunku rozwoju serwisu lub nawet na etapie powstawania strony.
6.8. Screaming Frog
Bardzo przydatne narzędzie, które pozwala wykonać szybko kompleksowe sprawdzenie całej strony. Możemy tu sprawdzić rzeczy ważne dla SEO jak tagi title, ich długość, nagłówki, przekierowania, uszkodzone linki i całą masę innych rzeczy. Narzędzie jest bardzo pomocne przy wyszukiwaniu błędów optymalizacyjnych, bo czasem nie wszystko się zauważy podczas manualnego przeglądu, szczególnie przy dużych serwisach. Pozwala również wychwycić ważne błędy jak choćby przekierowania prowadzące na puste strony.
Narzędzie ma wiele funkcji i praktycznie wykorzystywane jest przez każdego pozycjonera.
6.9. Majestic
Popularne narzędzie do analizy backlinków, główny konkurent Ahrefsa. Majestic, podobnie jak konkurencja, jest płatny. Jest kilka planów dla osób indywidualnych, agencji itp. ale zwykły najtańszy plan miesięczny to 78.99$. Niemało, ale narzędzie ma spore możliwości.
Jest też darmowa opcja, gdy chcemy analizować tylko własną stronę. Dodajemy wtedy specjalny kod do nagłówka w celu weryfikacji i możemy cieszyć się bezpłatnym narzędziem i analizować backlinki wskazujące naszą domenę.
Majestic, kiedyś jako Majestic SEO, jest na rynku sporo lat i mocno przez ten czas został rozbudowany. Poza opcjami analizy backlinków znajdziemy tu wiele dodatkowych narzędzi jak choćby narzędzie do pokazania sąsiadujących domen czy do tworzenia porównań kilku domen.
Sama obsługa jest raczej bezproblemowa. Podział menu jest jasny, możemy sortować linki według typów, czasu odkrycia i innych parametrów.
Majestic jest bardzo pomocny kiedy trzeba przeanalizować większą liczbę backlinków np. by znaleźć niechciane linki. Zaawansowane formy raportowania oraz sortowania pozwalają na wygodną pracę nawet z bardzo dużą liczbą danych.
6.10. Ahrefs
Narzędzie do analizy linków, bezpośredni konkurent Majestica i trochę droższy od niego (Ahrefs to 99$ za najtańszy pakiet miesięczny vs. 78.99$ za najtańszy miesięczny pakiet Majestica).
Większość podstawowych funkcji jest zbieżna z tym co oferuje Majestics, czyli linki wskazujące na domenę, możliwość podziału wg anchorów itp. Jednak każdy program poszedł w nieco innym kierunku jeśli chodzi o podział, dodatkowe narzędzia i prezentację wyników. W większości przypadków jest to raczej kwestia gustu i wygody.
Do mocnych stron Ahrefsa na pewno można zaliczyć przejrzyste menu oraz atrakcyjną wizualnie formę prezentacji wyników (jest czytelna podczas analiz oraz przydaje się do raportów). W naszym odczuciu prezentacja wyników jest dużo lepsza niż w Majestic.
Osobny temat to wyniki linków wskazujących na domenę. Trzeba pamiętać, że Ahrefs ma swojego crawlera i dane linków nieco się różnią w zestawieniu z tymi od Majestica. Nie będziemy tu rozstrzygać, który crawler lepiej sobie radzi ze zbieraniem danych o linkach. Oba narzędzia oferują bezpłatne wersje testowe podczas których samemu można ocenić wady i zalety narzędzia.
6.11. Wayback Machine
Niezastąpiony wehikuł czasu i jednocześnie bardzo ciekawy projekt. Archive.org skupia się na archiwizacji różnych danych, w tym stron internetowych. Każda strona co jakiś czas jest archiwizowana. Nie w postaci screena a całości kodu. Dzięki temu możemy praktycznie bez większych problemów poruszać się po starej, już nieistniejącej strukturze strony. Oczywiście czasem są sytuacje, że nie została zarchiwizowana jakaś grafika albo podstrona, ale to można wybaczyć.
Częstość archiwizacji zależy od częstości aktualizacji i popularności strony. Mało popularne strony czasem będą miały raptem kilka, kilkanaście archiwizacji na przestrzeni wielu lat w przeciwieństwie do dużych serwisów, gdzie archiwizacje liczone są w tysiącach.
Czemu informacje z archiwum przydają się w pozycjonowaniu?
Zależnie od danego serwisu, pozycjoner znajdzie wiele sposobów na wykorzystanie danych z Wayback Machine. Na pewno można tu znaleźć adresy starej struktury strony, która nie została przekierowana na nową.
W przypadku szukania domen, można sprawdzić ich historię, czy nie działo się na domenie nic niepokojącego w przeszłości. Czasem narzędzie ratuje też skórę, gdy nie było kopii bezpieczeństwa i chcemy odzyskać jakieś treści.
Obsługa Wayback Machine
Jest bardzo prosta. Sprowadza się do podania adresu, po czym dostajemy listę archiwizacji w postaci kalendarza. Wybieramy interesującą nas datę i sprawdzamy zawartość archiwum.
6.12. Penguin Tool
Narzędzie do analizy ruchu z Google Analytics, które pozwala zestawić nam ruch z kolejnymi aktualizacjami algorytmu. Jeśli początki spadków ruchu pokrywają się z daną aktualizacją algorytmu to wtedy mamy prawdopodobnego odpowiedzialnego za spadki. Pomaga wykryć nie tylko tytułowego Pingwina, ale też inne aktualizacje np. Panda.
Problemem może być tutaj coraz mniejsza liczba informacji od Google o aktualizacjach. Jeszcze kilka lat temu przedstawiciele Google dość często i chętnie weryfikowali czy i z jakim updatem mieliśmy do czynienia. Dodatkowo teraz trend jest taki, że dodatkowe algorytmy jak Panda są wbudowane w główny algorytm, by mogły działać w czasie rzeczywistym. Stąd ciężko teraz jednoznacznie wskazać, kiedy była ważna aktualizacja.
Mimo to narzędzie Penguin Tool nadal jest pomocne przy stronach, które w sieci obecne są dłużej. Często pozwala zdiagnozować problem z algorytmem, który strona ma dłuższy czas a którego nie zauważyli właściciele stron.
Po wejściu na stronę należy zalogować się do narzędzia przy użyciu loginu i hasła do naszego Google Analytics. Pozwoli to na scalenie danych i uzyskamy dostęp do panelu Penguin Tool. Wybieramy z lewego menu adres naszej strony i prezentowany jest nam wykres z nałożonymi aktualizacjami:
6.13. Moz – lista zmian w algorytmie Google
Lista znanych aktualizacji Google podzielona na lata. Zaczyna się od 2000 roku!
Czasem zachodzi potrzeba szybkiej weryfikacji, czy w danym okresie nie było ważnej aktualizacji. Np. widzimy skok w ruchu czy pozycjach i chcemy sprawdzić, czy związane jest to z algorytmem. Wtedy przydaje się lista znanych aktualizacji publikowana na MOZie. To naprawdę potężne archiwum, wygodnie podzielone na poszczególne lata. Przy okazji to ciekawe archiwum pokazujące jak zmieniało się Google na przestrzeni lat.
6.14. Narzędzie do sprawdzania pozycji
Narzędzie do monitoringu pozycji w Google. W ostatnich latach pojawiło się na rynku całkiem sporo komercyjnych ofert sprawdzarek pozycji w Google. Uważamy jednak, że nadal SerpMonster ma najlepszą ofertę biorąc pod uwagę stosunek cena/jakość. Płaci się tu za sprawdzenie poszczególnej frazy, koszt liczony jest w groszach za dzień.
Warto wiedzieć o sprawdzarkach
W SerpMonster zdarzają się problemy ze sprawdzaniem pozycji. Rzadko, ale jednak raz na jakiś czas pozycje mogą nie być sprawdzane przez kilka dni lub będą podawane błędne wyniki (tu nie ma problemu z refundacją w przypadku SerpMonstera). W takich przypadkach nie ma co winić SM, tylko samo Google.
Trzeba mieć świadomość, że Google wcale nie jest na rękę ułatwianie sprawdzania pozycji. Przede wszystkim powoduje to dodatkowe obciążenie ich zasobów. Takie odpytywanie wykonywane jest automatycznie, czasem dla setek tysięcy fraz. Dlatego też z roku na rok wprowadzane są kolejne zmiany w sposobie prezentacji wyników wyszukiwania oraz inne zabezpieczenia jak np. captche tak by jeszcze bardziej utrudnić automatyczne odpytywanie.
Znamy przykład wielu agencji, gdzie przez problemy ze sprawdzaniem wrócono do ręcznego sporządzania wyników…
Jeśli są problemy ze sprawdzaniem pozycji, SerpMonster daje możliwość podpięcia własnych proxy. Ogólnie jest to bardzo dobre narzędzie, które powinno się sprawdzić zarówno do celów prywatnych jak i sprawdzania większej liczby fraz.
Po co sprawdzać pozycje?
No właśnie – czy warto inwestować pieniądze w sprawdzanie pozycji? Zdecydowanie tak. Nie są to duże koszty, sprawdzane frazy można ograniczyć do najważniejszych. Dodatkowo w SerpMonster jest opcja ustalenia częstotliwości sprawdzania pozycji – zamiast codziennie mogą być sprawdzane np. co dwa dni lub raz w tygodniu. To pozwoli ograniczyć koszty sprawdzania.
Dzięki informacjom o pozycjach fraz będziemy wiedzieć, czy dzieje się coś złego (np. nagłe spadki pozycji), będziemy widzieć też czy pozycje się poprawiają czy stoją w miejscu.
Pozycje fraz dla naszej strony często pomagają podjąć decyzje o dalszym rozwoju i działaniach lub zareagować na potencjalny problem.
6.15. Sprawdzanie kodu – Firebug/inne inspektory
W pierwszej części naszego poradnika o pozycjonowaniu stron pisaliśmy dużo o optymalizacji stron pod kątem technicznym. Poruszane były tematy jak title, nagłówki h1, alty przy obrazkach itp. Tylko jak je sprawdzić samodzielnie? Można oczywiście otworzyć źródło strony (prawy przycisk myszy i opcja pokaż źródło), tylko nie jest to za wygodne. Pomocne są w takich przypadkach wbudowane inspektory. Można je znaleźć w każdej przeglądarce, jednak najpopularniejszy jest darmowy dodatek do Firefoxa – Firebug.
Ktoś może słusznie zauważyć, że to narzędzie bardziej skierowane do webdeveloperów. Tak, ale przy optymalizacji strony nawet jego podstawowe funkcje są bardzo pomocne.
Sama obsługa też jest bardzo prosta. Po kliknięciu ikonki w prawym rogu mamy kilka zakładek narzędzia. Wybieramy wskaźnik (klikamy strzałkę) i teraz po najechaniu na dany element strony widzimy na dole jego reprezentację w postaci kodu. Przykładowo po najechaniu na obrazek widać od razu alt i inne atrybuty:
Jak wspomnieliśmy, jeśli nasza przeglądarka nie obsługuje Firebuga to są też inne, często wbudowane inspektory o podobnych możliwościach.
6.16. Google Alerts
Narzędzie powiadamia nas, gdy zdefiniowana przez nas fraza pojawi się gdzieś na stronie internetowej. Są też komercyjne odpowiedniki, ale uważamy że w wielu przypadkach Google Alerts wystarczy.
No tak, ale jak go wykorzystać przy pozycjonowaniu? Można znaleźć kilka pomysłów. Główny zakłada ustawienie alertów na nazwę strony oraz markę. Jeśli ktoś będzie pisał o naszej stronie, dostaniemy powiadomienie. Wtedy można sprawdzić czy przy wzmiance o naszej stronie został załączony link do strony. Jeśli nie, można wtedy odezwać się do autora z prośbą o dodanie linka. Nie zawsze będzie pozytywna odpowiedź, ale często to dość szybki sposób na pozyskanie wartościowego linka.
Płatną, rozbudowaną alternatywą jest tu narzędzie Brand24.
6.17. Senuto
To znakomite narzędzie do analizy widoczności danej strony. Dzięki niemu mamy całkiem dokładny podgląd na to na jakie frazy wychodzimy w top 3, top 10 czy top 50. To bardzo pomocne informacje przy optymalizacji sklepu.
Dodatkowo możemy dokonać analizy konkurencji i sprawdzić w jakim kierunku prowadzą oni działania marketingowe, z jakich fraz mają najwięcej ruchu i wiele innych.
6.18. Copyscape
Problem kradzieży treści jest niestety powszechny. Jeśli poświęciliśmy dużo wysiłku i czasu na napisanie własnych treści, warto pilnować, by nie zostały one skopiowane bez naszej wiedzy. Narzędziem, które zdecydowanie warto polecić jest CopyScape. W wersji premium daje dużo ciekawych opcji, które pozwalają na wykonanie bardziej kompleksowego sprawdzenia unikatowości treści czy daje też możliwość alertowania o pojawieniu się nowych kopii.
CopyScape bardzo przejrzyście układa wyniki ze znalezionymi kopiami oraz wyraźnie pokazuje gdzie znaleziono kopie. Dzięki temu szybko można sprawdzić, czy mamy do czynienia np. z kopią całego tekstu czy kopią częściową.
Dodatkowo po kliknięciu każdego wyniku otrzymujemy szczegółową rozpiskę pokazującą ile jest kopii i jaką część danej podstrony stanowią:
Narzędzie w wersji premium jest płatne, ale to dobra inwestycja, szczególnie jeśli mamy dobre treści na stronie, odpowiedzialne za ruch.
Część 7 – Adwords i PPC w sklepie internetowym
Już na samym wstępie zaznaczyliśmy, że samo pozycjonowanie sklepu nie jest rozwiązaniem i na starcie dobrze jest wykorzystać inne metody ściągnięcia ruchu jak właśnie reklamy płatne.
Mówiąc o reklamach warto potestować różne reklamy, bo na rynku dostępny jest nie tylko Adwords.
7.1. Adwords
Adwords to nadal podstawa jeśli chodzi o reklamę w internecie. Możliwość stworzenia kampanii dla określonych słów kluczowych (czy grup słów) pozwala bardzo dokładnie targetować odbiorców naszych reklam.
Często na wielu urządzeniach reklamy przewijają wyniki organiczne poza ekran, zajmując całą górę, czyli najlepiej eksponowane miejsca.
Jakie są koszty reklam? Zależy od konkurencyjności. Szacunkowe koszty kliknięć można zobaczyć w panelu:
Jednak tak naprawdę koszty prowadzenia kampanii Adwords poznamy dopiero po przeprowadzeniu kampanii testowej. Jest to kampania prowadzona na większym budżecie, która ma na celu przetestowanie skuteczności różnych fraz oraz sprawdzenie realnych kosztów kliknięć.
W panelu mamy podgląd efektów prowadzonej kampanii, można też zarządzać poszczególnymi grupami słów kluczowych, zmieniać dzienne budżety, podejrzeć skuteczność, koszt konwersji itp.
Zalety:
Płatność za kliknięcia, duża możliwość zarządzania wydawaniem budżetu
Możliwość dobrego dopasowania pod konkretną grupę fraz, możliwość wykluczania
Remarketing, który zwiększa skuteczność kampanii
Wady:
W przypadku konkurencyjnych fraz kliknięcia mogą być bardzo drogie
Merchant Center to reklamy od Google, stworzone z myślą o sklepach internetowych. Ich dużą zaletą jest to, że prezentujemy reklamy konkretnych produktów. Przykład:
Po kliknięciu użytkownik ląduje na stronie danego produktu, co zwiększa konwersję. Wszystko dzięki temu, że tradycyjna ścieżka przy zwykłej reklamie:
Reklama -> Użytkownik trafia na kategorie/podkategorie, musi wybrać produkt -> Użytkownik trafia na stronę produktu, gdzie może dokonać zakupu
Jest znacznie skrócona:
Reklama Produktowa -> Użytkownik trafia na stronę produktu, gdzie może dokonać zakupu
Reklama w Merchant Center w wielu przypadkach pozwala efektywniej wykorzystać budżet. Jest mniej tu przypadkowych kliknięć (jak przy reklamach tekstowych), bo użytkownik widzi od razu konkretny produkt.
Aby uruchomić reklamę produktową należy założyć konto w Merchant Center i z pomocą feeda dodać produkty z naszego sklepu. Następnie w ciągu kilku dni produkty zostaną zatwierdzone i można zacząć kampanię produktową.
Zalety:
Użytkownik trafia od razu na stronę produktu
Skuteczność, lepsze wykorzystywanie budżetu
Wady:
Uruchomienie kampanii może być kłopotliwe, jeśli jest problem z wygenerowaniem poprawnego feeda
Twitter często jest pomijany przy prowadzeniu kampanii reklamowych, a szkoda bo to bardzo ciekawa platforma. Oczywiście pod względem możliwego ruchu bezapelacyjnie wygrywa tu Adwords. Podkreślaliśmy jednak na początku, że warto sprawdzić i wykorzystywać każdy możliwy kanał dotarcia do nowej grupy klientów.
Najważniejsze zalety Twittera, o których należy wspomnieć:
Często koszty reklamy są niższe niż na Adwords
Ciekawe opcje targetowania
Łatwe założenie kampanii
Z wad można wymienić:
Może się nie sprawdzić w niektórych branżach
Mała grupa odbiorców w porównaniu z możliwościami jakie daje np. Adwords
Koszty promocji kampanii można obniżyć dzięki optymalizacji grupy odbiorców, pomaga w tym rozbudowany panel (więcej). Można np. ustalić, by reklama pojawiała się osobom śledzącym dany profil. Możliwości jest wiele.
Przykład promowanego posta na Twitterze:
Zamiast zdjęcia można załączyć film. Częstą praktyką jest dodawanie animacji w GIF, bo jednak większość użytkowników używa go na smartfonie, gdzie ładowanie filmu lub odtwarzanie może być problematyczne lub świadomie pomijane.
Facebook mocno rozwija swój główny produkt, czyli reklamy :). Dzięki temu mamy dostępnych wiele formatów reklam. Samo zarządzanie budżetem też jest dość łatwe dzięki odpowiednim limitom.
Podstawą udanej kampanii na FB jest stworzenie odpowiedniej formy reklamy oraz odpowiednie targetowanie grupy docelowej. Podobnie jak przy innych platformach, zaczyna się tu od szerszej grupy i następnie można doprecyzowywać konkrety.
Można promować nasz sklep lub fanpage naszego sklepu.
Zalety:
Duża liczba możliwych reklam
Rozbudowany, łatwy w obsłudze kreator
Duża liczba użytkowników
Wady:
Dopasowanie kampanii do grona odbiorców może zająć trochę czasu, co na początku wiąże się z większymi wydatkami
Facebook daje też ciekawe możliwości retargetowania. Przykładowo jeśli ktoś rozpocznie zakup, ale go nie dokończy (porzuci koszyk, dość częste). Mamy możliwość takiego ustawienia retargetowania, by przypomnieć się właśnie na FB. Więcej o retargetowaniu.
7.5. Kampanie na Instagramie
Instagram został przejęty przez Facebooka. Dzięki temu mamy teraz możliwość łatwego prowadzenia kampanii na obu platformach.
Instagram opiera się na zdjęciach a przecież w naszym sklepie internetowym to właśnie zdjęcia produktów powinny być jak najlepszej jakości. Stąd dość łatwo jest stworzyć odpowiednią kampanię na Instagramie.
Samo zawężanie do odpowiedniej grupy docelo
wej jest dość proste, bo pomaga tu opisywany wcześniej kreator z Facebooka.
Zalety:
Różne dostępne formy reklamy (zdjęcia, filmy…)
Można użyć do promocji samej marki (zwiększenie rozpoznawalności) lub do promocji konkretnych produktów i zdobywać przejścia na sklep
Duża możliwość targetowania odbiorców reklamy, bazująca na FB
Wady:
Mniejszy zasięg niż Adwords czy FB
Pozostaje pytanie, czy warto? Nie każdy używa Instagrama. Tak, ale w Polsce zyskuje on jednak dość sporo nowych użytkowników i co najważniejsze często są to użytkownicy aktywni.
Głównym celem tej części było pokazanie różnych rozwiązań reklamowych. Zazwyczaj reklamodawcy skupiają się tylko na Adwords i ew. Merchant Center a dla sklepów można wykorzystać wiele innych rozwiązań.
Reklamy to świetna opcja na ściągnięcie dodatkowego ruchu. Trzeba jednak pamiętać, że bardzo ważne jest odpowiednie prowadzenie takich kampanii, wprowadzanie poprawek w targetowaniu odbiorców, ustalanie odpowiednich stawek i wiele innych. Dopiero po czasie można dojść do najlepszych ustawień i zwiększyć efektywność prowadzonej kampanii.
Część 8 – Sprzedaż za pomocą innych serwisów
Poruszyliśmy najważniejsze kwestie przy prowadzeniu sklepu internetowego – jego obecność w wynikach wyszukiwania (pozycjonowanie) oraz reklamy.
Są jednak inne kanały, które mogą zwiększyć sprzedaż w sklepie. Celem powinno być sprawdzenie jak największej liczby kanałów, tak by móc później ograniczyć się do tych, które konwertują i gdzie opłaca się działać.
Poniżej kilka takich przykładów.
8.1. Aukcje Allegro
Gdy otwieramy sklep internetowy zależy nam na tym, by to właśnie on generował największą sprzedaż. Jednak na początku, gdy dopiero marka zyskuje rozpoznawalność i budujemy ruch w sklepie, dobrą alternatywą mogą okazać się aukcje. W Polsce to oczywiście Allegro, jeśli sprzedajemy za granicę to przeważnie będzie to ebay.
Wady i zalety sprzedawania na aukcjach
Minus takiego rozwiązania to dodatkowe koszty związane z wystawieniem aukcji oraz prowizjami, które nie są wcale takie małe.
Plus to łatwość dotarcia do dużej grupy potencjalnych klientów. Wiele biznesów zbudowanych jest głównie wokół serwisów aukcyjnych.
Pamiętajmy jednak że na Allegro toczy się nieustanna wojna cenowa. Mamy tam dużo różnych sklepów czy hurtowni, dla których Allegro jest dodatkowym, ale istotnym, kanałem sprzedaży. Są w stanie sprzedawać na bardzo niskiej marży co tylko zaostrza konkurencję.
Dlatego też nie jest to tak łatwy sposób sprzedaży jak mogłoby się wydawać. Na pewno jednak w pierwszym okresie istnienia sklepu internetowego warto być tu obecnym. Później, wraz z rozwojem sklepu będzie można podjąć decyzję co do ekonomicznej zasadności dalszego istnienia na Allegro.
Na co zwrócić uwagę
Na pewno na konkurencję. Jakie mają ceny, jakie warunki wysyłki, jak wygląda prezentacja ich produktu. Wszystkie te rzeczy wzięte razem wpływają na decyzję o zakupie danego towaru.
Zdjęcia są bardzo istotne.
Według nowych zasad Allegro powinny być robione na białym tle. Taki wymóg do którego trzeba się dostosować.
Istotna jest też jakość zdjęć. Często użytkownicy przeglądają wiele zakładek jednocześnie i to właśnie dobrym zdjęciem przykujemy uwagę a w dalszym etapie nakłonimy do zakupu.
Koszty wysyłki są także ważne dla wielu klientów. Jeśli konkurencja oferuje wysyłkę nawet o kilka złotych tańszą to często może to być powód decydujący o zakupie właśnie u konkurencji.
Koszty sprzedaży na allegro
Sprzedaż na Allegro wiąże się z kilkoma opłatami. Mamy opłatę za wystawienie przedmiotu oraz dodatkowe opłaty za np. zdjęcia, wydłużenie czasu wystawienia aukcji.
Są też oczywiście prowizje od sprzedaży przedmiotów.
Dużo zależy od tego w jakim dziale wystawiamy przedmioty, działy różnią się między sobą opłatami.
Nie ma tu zaskoczenia, koszty są duże. Oczywiście zyskujemy możliwość dotarcia do dużego grona potencjalnych klientów. Każdy musi sam sobie policzyć czy opłaca się prowadzić sprzedaż przez Allegro.
W przypadku naszego sklepu potraktowaliśmy Allegro jako dodatkowy kanał sprzedaży na początku poprzez wystawianie zwykłych aukcji (później przeszliśmy na rozwiązanie Sklep Allegro, o tym dalej).
A jak wyglądały opłaty w przypadku zwykłych aukcji?
Samo wystawienie przedmiotu kosztuje 1,70zł (w naszym przypadku) na co sumują się opłaty:
Po sprzedaży produktu naliczana jest prowizja. Według cennika dla przedmiotów powyżej 100zł z naszego działu jest to 6zł plus 3% od kwoty powyżej 100zł.
Przykładowo po sprzedaży produktu za 180zł naliczona prowizja to 8,40zł:
Czyli realna prowizja od sprzedaży tego produktu to 4,6%.
Jeśli doliczymy do tego koszt wystawienia to łącznie płacimy Allegro 5,5% od sprzedanego produktu.
Sklep w ramach Allegro
Jak widać, dość duże koszty związane są z wystawieniem produktów. W sklepie jest ich więcej więc jednorazowe wystawienie większej liczby produktów generowałoby duże koszty. Tym bardziej, że maksymalny czas trwania aukcji to 14 dni, więc co 14 dni trzeba by przedłużać każdą z aukcji i ponosić kolejne opłaty.
Dlatego Allegro ma opcję dla sklepów, która przewiduje to, że wystawiamy więcej przedmiotów:
Również opcje dodatkowe jak zdjęcia itp. są dużo tańsze.
Jeśli otworzymy sklep w ramach Allegro to wystawienie większej liczby przedmiotów jest dużo tańsze niż w opcji zwykłej aukcji.
Niestety, inne są prowizje. W przypadku naszych produktów byłoby to:
Czyli dużo drożej niż przy zwykłej aukcji. W przypadku naszego sklepu sprzedaż towaru za 180zł wygenerowałaby prowizję 13,80zł (9zł + 6%*80zł) co daje 7,6% prowizji (dla przypadku naszego sklepu).
Pamiętajmy że przy zwykłej aukcji było to 8,40zł i 4,6%.
Oferta dla sklepów w ramach allegro jest ciekawa jeśli chodzi o udogodnienia przy wystawianiu większej liczby przedmiotów. Niestety, prowizje są bardzo wysokie. Oczywiście można podnieść cenę by to zrównoważyć, ale i tak wielu sprzedawców na Allegro działa na niskiej marży ze względu na konkurencję, więc nie jest to tak proste i oczywiste.
Czy warto zatem sprzedawać na Allegro? Każdy musi policzyć to sam, biorąc pod uwagę swój asortyment, marżę, konkurencję. W przypadku naszego sklepu internetowego zdecydowaliśmy się na Allegro jako jeden z kilku kanałów sprzedaży.
Docelowo chcemy się skupić na rozwoju samego sklepu internetowego, gdzie mamy pełną niezależność co do działań i warunków sprzedaży.
8.2. Sklep na FB
Sklep FB to jeden z tych przypadków, gdy produkt jest odpowiedzią na zapotrzebowanie klientów. Jeszcze przed uruchomieniem tej opcji wiele osób sprzedawało swoje produkty na FB – przeważnie zamówienia były przyjmowane w ramach czatu.
Stąd decyzja o uruchomieniu dodatkowej opcji.
Mamy możliwość prezentacji produktów i przekierowania użytkowników na domenę naszego sklepu lub możemy zamknąć całą transakcję w ramach FB (bez przenoszenia na domenę naszego sklepu).
Produkty możemy dodać ręcznie lub przy niektórych systemach sklepowych (np. WooCommerce) zaciągnąć przy integracji bazę produktów z naszego sklepu.
Facebook nie pobiera prowizji za sprzedaż, samo prowadzenie sklepu w ramach FB jest bezpłatne.
To świetne rozwiązanie dla osób, które mają dużo followersów na swoich stronach FB. Czy sprawdzi się jednak dla każdego? Niekoniecznie, ale warto przetestować, tym bardziej że nie wiąże się to z dodatkowymi kosztami.
Sprzedaż przez Instagrama to historia podobna do sprzedaży przez FB. Nie ma jeszcze oficjalnej możliwości kupowania przez Insta (nie ma sklepu w ramach aplikacji), ale użytkownicy dość szybko sobie z tym poradzili.
Zakupy odbywają się np. poprzez:
Napisanie na czacie, złożenie zamówienia, ustalenie warunków
Zastosowanie jednej z wtyczek wspomagających sprzedaż przez Instagrama, na przykład InSelly https://inselly.com/
Przykład jak wygląda w praktyce zakładanie konta sklepu na Instagram oraz dodawanie Inselly tutaj.
Ponownie, Instagram to świetne rozwiązanie dla niektórych branż, dla innych może się nie sprawdzić. Przykłady gdzie sprzedaż przez Instagrama działa bardzo dobrze to sklepy oferujące artykuły hand-made czy sklepy odzieżowe.
Oczywiście warunkiem koniecznym do powodzenia sprzedaży przez Insta jest posiadanie odpowiednio dużej liczby osób, które obserwują profil naszego sklepu. Dlatego często podkreślamy, że gdy otwieramy sklep internetowy to warto od razu założyć Instagrama, bo jego rozkręcenie trochę trwa.
8.4. Ceneo, Skąpiec, inne
Porównywarki cen w sklepach to również ciekawe miejsce, w którym warto spróbować dodać produkty z naszego sklepu. Jeszcze kilka lat temu wojna na rynku porównywarek była zacięta. Teraz wydaje się, że obecność na dwóch popularnych tj. Ceneo oraz Skąpiec wystarczy.
Są branże, gdzie konkurencja jest bardzo duża, nastawiona na walkę cenową. Wtedy jeśli nie jesteśmy w stanie zagwarantować konkurencyjnych cen, porównywarki cenowe mogą się nie sprawdzić.
Przykładem są tutaj kategorie okupowane przez duże sieci handlowe, np. RTV, AGD.
Warto pamiętać, że Ceneo posiada bardzo rozbudowane drzewo kategorii. Wiele sklepów może spotkać małą konkurencję w swojej kategorii lub być nawet jedynym sklepem oferującym dany produkt:
Ceneo posiada raczej korzystny cennik swoich usług. Płaci się za kliknięcie prowadzące do sklepu, wyjątkiem jest kategoria handmade, gdzie opłata jest prowizyjna. Koszty przeklików to średnio kilkadziesiąt groszy. Nie są to złe ceny, szczególnie jeśli w naszej branży koszty kliknięć w Adwords liczone są w złotówkach.
Dodanie produktów odbywa się podobnie jak przy innych tego typu stronach. Trzeba wygenerować plik XML wg wytycznych Ceneo i załadować go w panelu. Dla niektórych rozwiązań sklepowych jak WooCommerce istnieją odpowiednie wtyczki, które pomagają wygenerować taki plik.
8.5. Homebook, Domodi
http://www.homebook.pl/ oraz https://domodi.pl/ to przykłady serwisów, które również zarabiają na przesyłaniu ruchu na sklepy internetowe. Różni je od porównywarek to, że dotyczą konkretnych obszarów jak wnętrza czy moda. Patrząc na ich dynamiczny rozwój widać, że jest zapotrzebowanie również na takie portale.
Płatność jest przeważnie w modelu CPC, czyli za kliknięcie prowadzące do sklepu. Więcej informacji: https://domodi.pl/dla-sklepow
Podsumowanie
W tej części zależało nam na pokazaniu, że istnieje wiele innych możliwości dotarcia do klienta. Allegro, Facebook, Instagram czy Ceneo to nie rozwiązania dla każdego sklepu. Tylko testy dadzą odpowiedź, czy dany kanał ma potencjał.
Część 9 – Różne źródła ruchu
Wszystkie omówione wcześniej działania jak pozycjonowanie, reklamy, wykorzystanie Allegro czy innych stron omawialiśmy w kwestii promocji sklepu i zwiększania sprzedaży. Jest to oczywiście bardzo ważne, ale dobrze też spojrzeć jest szerzej niż czy dana fraza będzie konwertować i skupić się po prostu na budowie ruchu.
Większy ruch często przełoży się na wzrost konwersji. Może jeśli będzie to ogólniejszy ruch to konwersja nie będzie tak wysoka. Jednak w przypadku gdy jest to ruch bezpłatny to nie stanowi to dużego problemu.
Dlaczego różne źródła są tak ważne?
Nie chodzi tu o samo zwiększenie sprzedaży, a bardziej o uniezależnienie się od jednego czy dwóch źródeł przynoszących nam klientów.
Tak, pięknie jest mieć duży ruch z fraz będących na pierwszych miejscach, czy ruch z długiego ogona. Google jednak cały czas zmienia swój algorytm, nie zawsze może to być na naszą korzyść. To samo tyczy się reklam. Od lat można zaobserwować, że ceny kliknięć reklam w Adwords idą regularnie mocno w górę. Jest możliwe i widzieliśmy to w kilku przypadkach, że sklepy uzależnione od jednego kanału traciły po większej zmianie nawet kilkadziesiąt procent przychodów.
Jak widać na liście z tej części, możliwych kanałów ruchu jest sporo. Rozwój wszystkich od początku może być trudny lub wręcz niemożliwy. Można zacząć od kilku z nich, a później, razem z rozwojem sklepu dodawać kolejne. Ważne, by nie zapominać i nie stawać w miejscu jeśli chcemy by nasz sklep internetowy przetrwał kolejne zmiany w wyszukiwarkach.
YouTube
Popularność i liczba wejść na YouTube rośnie z roku na rok. Dzieje się tak w dużej mierze za sprawą urządzeń mobilnych – smartfony stanowią już od jakiegoś czasu większą część sprzedawanych telefonów. Potwierdzają to wyniki użytkowania gdzie w Stanach ponad połowa wyszukań dokonana jest z telefonów, a jedną z trzech najpopularniejszych aplikacji na telefony to właśnie YouTube.
Jak widać rozwój nowych technologii stał się podstawą do dalszej dominacji YT. Oznacza to jedno – z roku na rok jest tam coraz więcej użytkowników, warto zatem inwestować w ten kanał jako źródło ruchu.
Czy YT nadaje się dla sklepu internetowego? W naszej ocenie tak. Jest to dodatkowa szansa, by np. zaprezentować recenzje, porady ekspertów, by zbudować autorytet wokół naszej marki. Tak np. robi cyfrowe.pl na swoim kanale:
Realizacja filmików nie jest prosta, wymaga pewnych umiejętności i wprawy. Wiąże się często też z kosztami. Ale raz poniesiona inwestycja na realizację danego filmiku powinna stale generować wyświetlenia i ściągać ruch. Przykładem są wspomniane recenzje, porównania produktów czy nawet serie unboxing.
Grafiki
Do wielu zapytań Google prezentuje również sugestie grafik. Szukający wtedy sam zdecyduje czy interesuje go zdjęcie czy też dalsze informacje na dany temat (wtedy od razu kliknie np. link do strony Wikipedii).
Grafiki nie są prezentowane przy każdej frazie, ale mimo to można je spotkać bardzo często w wynikach wyszukiwania.
Nie zapominajmy też, że druga zakładka wyników to właśnie Grafika, gdzie możemy przejrzeć wyniki zapytania w formie dopasowanych zdjęć.
Dla niektórych stron zauważalna część ruchu pochodzi z grafik. Należy zadbać o dobrą optymalizację grafik, o dobrą jakość zdjęć a może to przerodzić się w całkiem zauważalne źródło ruchu.
Twitter
O Twitterze pisaliśmy już przy okazji reklam. To też dobre źródło, by zbudować bazę followersów. Może to zająć trochę czasu, dlatego warto zacząć jak najszybciej.
Nawet jeśli nie uda się zdobyć od razu dużej bazy followersów to jest szansa, że niektóre z naszych twittów będą podawane dalej.
Instagram
Wygląda na to, że po skopiowaniu niektórych funkcjonalności od Snapchata to właśnie Instagram ma największe szanse na utrzymanie pozycji lidera.
Do świetna platforma dla sklepów, które mogą promować tu swoje produkty i nawiązywać relacje z klientami.
Facebook
Był czas, że pojawiały się hasła o odchodzeniu FB do przeszłości, że tam siedzą już nasi rodzice a młodzież przenosi się na inne aplikacje socialowe. Tymczasem nadal jest to najważniejsza platforma, na której powinien być również obecny nasz sklep. To nie tylko znakomite źródło do promocji nowych produktów czy aktualności ze sklepu, ale także do pozostawania w kontakcie z naszymi klientami i potencjalnymi zainteresowanymi.
Newsletter
Może nieco stracił na ważności w dobie wyboru różnych aplikacji, ale nadal warto budować bazę czytelników. Doświadczenie pokazuje, że to często może przełożyć się na zwiększenie sprzedaży.
Podsumowanie
Temat promocji sklepów internetowych jest bardzo obszerny. W zasadzie każda z części tego poradnika mogłaby służyć za temat osobnego, wyczerpującego przewodnika.
Naszym celem było pokazanie, że poza pozycjonowaniem (które jest bardzo ważne) istnieją też inne metody ściągania ruchu.
Nie każde źródło ruchu będzie się sprawdzało w każdej kategorii, nie od razu jest też możliwość działać szeroko. Zachęcamy jednak do testowania. Wracając jeszcze raz do wykresu z części I:
Nawet jeśli mamy połowę ruchu organicznego to jednak pozostaje ta druga połowa tortu, na którą składa się wiele innych, również ważnych źródeł. Dopiero gdy mamy zróżnicowane źródła ruchu, które sprzedają, możemy mówić że marketing sklepu jest dobrze prowadzony.
Pozycjonowanie sklepu producenta rajstop, pończoch Pokazujemy proces pozycjonowania oraz efekty uzyskane dla sklepu e-commerce producenta rajstop. Więcej o kliencie i współpracy: polski sklep internetowy, sprzedający …
iPhone a marketing – jak i dlaczego sprawdzić działanie strony sklepu na iPhone Działanie strony na smartfonach to w dzisiejszych czasach oczywista sprawa. Co już …
Tworzenie sklepów internetowych WooCommerce Tworzenie sklepów internetowych WooCommerce to nasza mocna strona od lat. W Carted zatrudniamy specjalistów z wieloletnim doświadczeniem, którzy przygotowują wysokiej jakości …