SEM i SEO – jak robić to dobrze w 2017

SEM i SEO 660x330

fot. pixabay.com

Optymalizacja i pozycjonowanie to terminy, które do słownika polskiego marketingowca weszły jeszcze w latach 90. Po wielu latach spędzonych w tzw. SEO (Search Engine Optimization) dziś, przy okazji różnych konferencji i spotkań biznesowych, zdarza mi się słyszeć pytania, które same w sobie sugerują jakoby ruch organiczny i działania związane z jego pozyskiwaniem odeszły dawno do lamusa.

„Czy warto jeszcze robić SEO?”
„Czy SEO umarło?”
Zdarzają się także oznajmienia: „Pozycjonowanie to przeszłość”.

Przyjmowanie takiego założenia jest błędem i pośrednio daje lepszą pozycję wyjściową konkurencji. Wyobraź sobie, że Expedia czy Booking.com zrezygnowaliby z aktywnego podejmowania działań dla polepszenia rezultatów w ruchu organicznym. W krótkim czasie okazałoby się, że ci którzy zwykle byli drudzy w wynikach, teraz wyszli na prowadzenie.

CMS

Aby porządnie zabrać się do optymalizacji witryny, należy pamiętać o kilku istotnych rzeczach. Pierwsza to CMS, czyli system zarządzania treścią. Jeśli jest to WordPress lub inny na bieżąco wspierany OpenSource’owy (lub zamknięty) CMS, to jesteśmy na dobrej drodze. Wspominam o WordPressie, bo (jak pisze Codeinwp.com, w artykule z początku 2017 roku) napędza on około 27% wszystkich witryn internetowych.

Głównymi zaletami WordPressa są:

  • modułowa budowa (możliwość wykorzystania wtyczek),
  • częste aktualizacje,
  • niskie wymagania dot. hostingu,
  • możliwość uruchomienia w domenie WordPress.com przy braku własnego hostingu,
  • przyjazność dla wyszukiwarki.

Wspominając strukturę modułową CMS-a WordPress, trzeba również zwrócić uwagę na kilka niezbędnych wtyczek, które powinno się zainstalować:

  • Yoast SEO – pozwala m.in. na lepsze zarządzanie treścią w obrębie title tagów i meta description,
  • W3 Total, SG Cache, Total Cache – poprawiają wydajność i szybkość działania dzięki tzw. cachowaniu (nie należy używać więcej niż jedną na danej witrynie),
  • 404 to 301 – przekierowuje wszystkie błędy 404 na wybraną stronę (należy używać z rozwagą),
  • Gonzalez – polska komercyjna wtyczka, która również przyspiesza działanie strony,
  • SEO Image Toolbox – pozwala hurtowo rozwiązywać problem ALT tagów przy plikach graficznych,
  • WP Smush – służy do kompresji grafiki, a co za tym idzie skraca również czas ładowania strony.

Inne systemy zarządzania treścią, które warto wspomnieć to np. Drupal czy Magento, a także rozwiązania e-commerce takie jak Shopify.

Certyfikat SSL

Jeśli mamy już stronę, dobrze jest dokonać przejścia na SSL. Aby wykonać taką zmianę prawidłowo, należy przeprowadzić konsultacje SEO. Samo przejście na SSL nie jest szczególnie skomplikowane. W dużym uproszczeniu (bo proces ten jest indywidualny dla każdej strony WWW) wiąże się z zakupem (np. na GoDaddy lub Comodo) i prawidłowym zainstalowaniem certyfikatu na serwerze oraz ujednoliceniem linków wewnętrznych i przekierowaniem struktury strony z „http://” na „https://”.

Następnie dochodzi konfiguracja Google Analytics i kilkutygodniowa obserwacja czy wszystko jest w porządku oraz czy nie tracimy ruchu organicznego. Drobny błąd na tym etapie może nas sporo kosztować. Utrata ruchu i przychodu z konwersji jest tym, czego chcemy uniknąć. Jeśli czujemy się niepewnie, proces przekierowania powinien być „ubezpieczany” przez osobę doświadczoną w temacie.

W przypadku nowych stron, dopiero zakładanych, warto od razu zainstalować SSL (sugerowany byłby certyfikat Extended Value). Trzeba tu też wspomnieć, że niektóre firmy hostingowe dają w pakiecie darmowy SSL. Jest to dobra opcja na początek i redukuje całkowite koszty uruchomienia serwisu WWW.

Hosting

Mamy do wyboru całą gamę dostawców hostingu. Z doświadczenia wspomnę o Hostgator.com i Siteground.com.

Pierwszego używałem osobiście kilka lat temu w formie VPN, czyli prywatnego serwera wirtualnego, na którym uruchamiałem właściwe konta hostingowe. W wersji VPN operuje się panelami WHM oraz bardzo popularnym tzw. cPanel.

Drugi z wymienionych – Siteground.com – dwa lata młodszy konkurent Hostgatora. W testach szybkości z kwietnia 2017 roku, opublikowanych na Wpsitecare.com, uzyskał najlepszy wynik. Tu również znajdziemy cPanel i wygodną obsługę parkowania domen, szybkiej instalacji CMSów i nie tylko.

Do dwóch opisanych wyżej dodałbym jeszcze WpEngine, który (mimo że trzykrotnie droższy) oferuje wiele ciekawych i przydatnych funkcji wspierających i dedykowanych WordPressowi.

Wracając do WordPressa, wszystkie trzy platformy hostingowe posiadają w swojej ofercie usługi dedykowane właścicielom stron opartych o ten właśnie CMS. Będą tu między innymi takie funkcje jak automatyczne aktualizacje czy cachowanie strony dla poprawy jej szybkości ładowania. Dlaczego to takie ważne? Szybkość ładowania strony to istotny współczynnik, mający wpływ na pozycję w wyszukiwarkach.

zelezny1

Dzięki temu użytkownik, najszybciej jak to możliwe, otrzymuje szukaną informację. Strony ładujące się długo, kilka lub kilkanaście sekund, będą miały mniejsze szanse pojawienia się w czołówce wyników wyszukiwania na wybrane słowa kluczowe (szczególnie te bardzo konkurencyjne).

Następnym krokiem jest podjęcie działań związanych z tzw. uptime, czyli czasem, w jakim strona WWW jest dostępna online. Awarie hostingów zdarzają się nawet najlepszym dostawcom. Dlatego, dzięki takim narzędziom jak np. Siteuptime.com, będziemy informowani o wszelkich zakłóceniach w działaniu naszej strony. Jeśli zdarzają się zbyt często, warto napisać do usługodawcy lub rozważyć zmianę hostingu, ponieważ takie sytuacje również negatywnie odbijają się na pozycjach w wyszukiwarkach.

OnPageSEO

Kiedy hosting, CMS i certyfikat SSL mamy już na swoim miejscu, czas na OnPage SEO. Pierwszym krokiem jest zainstalowanie Google Analytics. Bez niego nie będziemy wiedzieć, co zyskujemy z inwestowania swojego czasu lub pieniędzy w działanie związane z marketingiem organicznym. Naszymi głównymi KPI (tzw. Kluczowymi Wskaźnikami Efektywności) będą:

  • liczba konwersji i ich przyrost w ujęciu rok-do-roku,
  • ruch organiczny i jego przyrost w ujęciu rok-do-roku.

Następnie należy przejść od tzw. OnPage SEO, czyli działań, które poprawią nasze wyniki, a skupiają się wyłącznie na naszej witrynie WWW. Aby zrobić to dobrze i w sposób zorganizowany, potrzebny będzie nam tzw. Crawler. Jest to robot podobny do bota Google, który poruszając się po naszej stronie, będzie w stanie zebrać informacje i w przystępny sposób nam je pokaże. Wybór jest szeroki i pozwolę sobie wymienić tylko kilka:

  1. SEMRush,
  2. DeepCrawl,
  3. Searchmetrics,
  4. OnCrawl,
  5. OnPage,
  6. Sistrix,
  7. Botify,
  8. ScreamingFrog.

Dla osób lubiących kompleksowe rozwiązania, pierwszy z wymienionych – SEMRush – może okazać się najlepszy z racji bycia uniwersalną platformą, której jedna z funkcji to wspomniany crawling. Nieco droższy DeepCrawl będzie natomiast doskonały dla osób lubiących mieć narzędzie dedykowane do jednego zadania, które bardzo szczegółowo sprawdzi stronę WWW. DeepCrawl wygeneruje nam również Sitemap.xml – plik XML z mapą strony, który możemy załadować do głównego katalogu strony (root), a następnie, po wykonaniu tzw. crawlingu, otrzymamy informację o problemach istniejących na stronie WWW. Są to rzeczy zwykle niewidoczne na pierwszy rzut oka, ale ważne dla ogólnego powodzenia kampanii SEO, np.:

  • zbyt długi/ zbyt krótki/ zduplikowany title tag i meta description,
  • brak nagłówka H1,
  • linki wewnętrzne lub zewnętrzne prowadzące do nieistniejących podstron (zwracające 404),
  • brak ALT tagów.

Problematyczne strony mogą zostać wyeksportowane do Excela, a następnie osoba odpowiedzialna za treści na stronie, w większości przypadków, będzie mogła we własnym zakresie nanieść niezbędne korekty. Przy specyficznych sytuacjach może być potrzebna pomoc dewelopera.

Wspomniany onPage audyt należy powtarzać najlepiej co tydzień, gdyż większość stron WWW często się zmienia w mniejszym lub większym zakresie. Dochodzą zmiany w layoucie, nowe artykuły, nowe produkty i wszystkie te rzeczy należy optymalizować pod kątem SEO.

Content marketing

Marketing treści to temat rzeka, więc wspomnę tylko o dwóch metodach:

  1. GAP (czyli szukanie luk) – jest to metoda, która pozwala za pomocą narzędzi takich jak SEMRush (Domain vs. Domain) odkryć, na jakie słowa kluczowe strony konkurencji pojawiają się w wyszukiwarkach przy jednoczesnym braku w nich naszej strony.

Dobrym sposobem jest łączenie narzędzi (SemRush, Sistrix, Searchmetrics, SpyFu) dla pozyskania większej liczby danych i ich obróbki w Excelu. Następnie wystarczy stworzyć i odpowiednio zoptymalizować treści, które „załapią się” na znalezione w trakcie obróbki danych słowa kluczowe.

2. Snapshot – to, jak mówią Anglicy: low hanging fruits (nisko wiszące owoce). To sprawdzenie, na jakie słowa kluczowe nasza strona już się pojawia       i to w miarę wysoko (np. top 10), ale jeszcze nie na pozycji top 1.

Mamy więc przestrzeń do polepszenia rankingu w wyszukiwarce, a co za tym idzie, zwiększenia ruchu organicznego. Metoda ta jest przeznaczona dla stron z historią, będących na rynku co najmniej kilka lat.

Łatwa w implementacji i generująca niskie koszta okazuje się być bardzo efektywna, jeśli jest systematycznie używana. Optymalizacja może ograniczać się do dopisania akapitu zawierającego w treści słowo klucz, dodaniu zdjęć, zmiany nagłówków lub przemodelowaniu title tag tak, aby zawarła się w nim fraza, na którą chcemy pojawiać się wyżej w wynikach wyszukiwania.

Kiedy wyjść na zewnątrz

Wcześniej mówiliśmy o OnPage SEO. Współbieżnie należy pamiętać o tzw. OffPage SEO – czyli wszystkim tym, co dzieje się poza naszą stroną WWW, a ma wpływ na ruch organiczny, jaki otrzymujemy z wyszukiwarek.

W tym artykule chciałbym też wspomnieć o linkach. Linki z zewnętrznych stron, prowadzące do naszej strony, ich jakość, liczba, rozkład w czasie, również są sygnałem dla Google, ile warta jest nasza strona i gdzie powinna się pojawiać.

O tym, w jaki sposób je pozyskiwać, można mówić wiele, dlatego napiszę tylko, jak ich nie pozyskiwać. Zdecydowanie wystrzegać się wszystkich „magicznych” narzędzi typu: „Damy Ci 100 linków w dzień”. To samo tyczy się kupowania linków. Takie działania mogą skutkować karami ręcznymi (obniżeniem pozycji) nakładanymi przez Google na strony, które stosują tego typu taktyki.

Linki należy pozyskiwać naturalnie. Na przykład za pomocą narzędzi takich jak Brand24 czy TalkWalker. Umożliwiają śledzenie, na jakich portalach i stronach WWW pojawiły się wzmianki o naszej marce. Wówczas, kontaktując się bezpośrednio z autorem lub właścicielem strony, możemy zarówno podziękować, jak i zapytać, czy nazwa naszej marki może zostać zamieniona na link.

Innym sposobem jest sprawdzenie, czy linki obecnie przez nas posiadane, nie trafiają na strony nieistniejące (tj. te, które zwracają błąd 404). Jeśli taka sytuacja zaistniała, możemy przekierować wybrane adresy w bardziej właściwe miejsce. Linki, które wcześniej nie wpływały na naszą pozycję, znowu będą mogły uczestniczyć w naszym SEO.
Zainteresowanych tematem odsyłam na blog http://pointblankseo.com/. Warto zainwestować w narzędzia pozwalające śledzić przyrost linków w czasie. Może być to wspomniany już SEMRush, lepiej jednak sprawdzi się wyspecjalizowane narzędzie, takie jak Majestic lub Ahrefs.

Na koniec

SEO to nie jest sprint. To maraton, który wygrywają cierpliwi. Zwrot z inwestycji dla ruchu organicznego jest zwykle bardzo wysoki, ale wymaga czasu. Dobrze okiełznane SEO to często podwójny, potrójny (i większy) zysk dla biznesu. Opisane metody są łatwe do wdrożenia i mogą być wprowadzane na etapie budowania zespołu odpowiedzialnego za działania online. Co bardziej skomplikowane działania mogą być (wg precyzyjnych ustaleń) przejęte przez agencję lub konsultanta.

O autorze:

Łukasz  Żelezny

Łukasz  Żelezny -podróżuje po całym świecie jako specjalista ds. SEO i mediów społecznościowych. Bloguje na https://zelezny.uk. Kieruje zespołem ruchu organicznego w uSwitch, brytyjskiej porównywarce cen usług. Juror tegorocznych edycji European Search Awards oraz UK Search Awards. W 2015 roku uznany za jednego z dziesięciu najbardziej wpływowych influencerów w Wielkiej Brytanii.

Komentuj za pomocą Facebook'a

Komentarze (5)

    • deduch

      12 października 2017r. 13:59

      Niestety pod pewnymi względami poradnik niepraktyczny (choć teoria jest prawidłowa oczywiście) dla małych i średnich firm. Koszt samodzielnego wykorzystania wspomnianych narzędzi w wersjach zapewniających pełną funkcjonalność jest bardzo wysoki, możliwy do zaakceptowania chyba tylko w korpo i e-commerce.

    • Dawid

      7 sierpnia 2017r. 21:48

      Artykuł porusza ważne kwestie. Należy jednak powiedzieć wyraźnie, że linki są wciąż najsilniejszym czynnikiem rankingowym, a tzw. naturalne pozyskiwanie linków to dla wielu witryn pobożne życzenia. Proszę spróbować poczekać na pozyskanie „naturalnych linków” np. na frazę „tanie noclegi w górach” albo „hydraulik kraków” dla nowej firmy, ciekawy jestem efektów tego „naturalnego linkowania” 🙂

      • Firmy.net

        Firmy.net

        8 sierpnia 2017r. 8:43

        Dziękujemy za Twoją opinię 🙂

        Pozdrawiamy

        Zespół Firmy.net

    • Daniel

      19 lipca 2017r. 14:49

      Widać, że wysokiej jakości treści oraz strona działające w sposób niezakłócony i umożliwiająca bezbłędną nawigację, to w dalszym ciągu podstawa działań marketingowych prowadzonych w Sieci. Co do masowego pozyskiwania linków trudno się nie zgodzić. Sam się swego czasu przekonałem, że ilość linków nie gwarantuje sukcesu, a czasami – jeśli z tym przesadzimy – może przynieść skutki odwrotne od zamierzonych.

      • Firmy.net

        Firmy.net

        20 lipca 2017r. 10:26

        Panie Danielu,
        dziękujemy za opinię – zwłaszcza sformułowaną w oparciu o własne doświadczenia.

        Pozdrawiamy
        Zespół Firmy.net

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *