Branża związana z pozycjonowaniem stron jest stosunkowo młoda, a ma już więcej mitów, niż przydatnych informacji, jak dla mnie. Wierząc w sporą część porad, można stronie wyrządzić krzywdę.

Jak zapewne wiecie, co jest powtarzane do znudzenia – na pozycję strony ma wpływ wiele czynników. Ja od siebie dorzucę i zawsze będę to promować, aby w pierwszej kolejności patrzeć na użytkownika, potem na wyszukiwarki. Roboty doskonale wiedzą, ile kto spędza czasu na danej stronie. Więc jeżeli użytkownik ma problem z poruszaniem się po stronie, treści są kiepskiej jakości czy informacje się duplikują, nawet wyszukiwarki przestaną się stroną interesować. Grzechów jest o wiele więcej i nie mówię, że sama ich nie popełniam. Warto jednak starać się je eliminować z korzyścią dla każdego. Czy to autor, czy czytelnik, czy wyszukiwarka – każdy może wygrać.

Mity o SEO

Mobilna wersja strony

Wydawałoby się, że jest to oczywiste, ale… Chyba jeszcze nie zdajemy sobie sprawy, jak ogromny wpływ ma to na pozycjonowanie. Jako użytkownicy częściej przymkniemy na to oko.

Jakiś czas temu wpadł mi artykuł właśnie o mobilnej wersji strony. Konkretnie chodziło o portfolio ze zdjęciami. Autor upierał się, że ważne jest to, aby zdjęcia wyglądały dobrze na np. telefonie. O zgrozo, ktoś w komentarzu starał się udowodnić, że to bzdura, bo użytkownicy takie strony i tak np. na laptopie tylko przeglądają. Taki przykład, że akurat użytkownik nie miał racji.

Wpadła mi też sytuacja odwrotna. Ktoś napisał, co konkretnie nie działa w wersji mobilnej. Autor strony co prawda napisał, że postarają się to poprawić, ale… Usilnie starał się udowodnić, że przecież wszystko działa i o co ten ambaras.

Sama zauważyłam, że wiele stron, które posiadają aplikację, zaniedbuje wersję mobilną. Nawigacja działa kiepsko, stronę ciężko się przewija. Potrafi też uciekać treść, jeżeli człowiek chce się w głębić. O zdjęciach już lepiej nie wspominać, bo ich nie ma. Zmuszanie mnie do posiadania aplikacji, na rzecz przeglądania.

Szybkość ładowania strony

Google tak samo, jak my, nie lubi wolnych stron. Co ciekawe w przypadku żywego człowieka treść da się obronić, roboty już nie koniecznie dadzą się przekupić. Wolna witryna dostanie mniej punktów w rankingu.

UX to dodatkowe punkty w rankingu

User Expirience, czyli nasze wizualne odczucia względem strony. Mówimy tu o ogólnym wyglądzie, o swobodzie poruszania się po stronie, czy menu jest intuicyjne i tym podobne. Chodzi też o to, jak treści są przekazywane, jak pokazane.

Bez mapy strony mam niższą pozycję

Mapa strony jest statycznym elementem zbudowanym na kodach HTML lub XML. I chociaż ona się zmienia, mówi się o statyczności ze względu na kodowanie.

Dla robotów mapa jest takim spisem treści strony. Spis treści nie ma bezpośredniego wpływu na książkę, ale ułatwia poruszanie się po niej. Tak samo wyszukiwarki odbierają mapę strony. Lepiej jest ją posiadać, ale pozycja w rankingu bez niej nie ucierpi. Dłużej będzie trwało jej zindeksowanie.

Koniec z SEO, jestem na szczycie

Jeżeli nie dbamy o dom, nie inwestujemy w remont, popada on w ruinę. Strona np. z niedziałającymi linkami będzie spadać w rankingu.

Treść obroni się sama

Uwielbiam, uwielbiam i jeszcze raz uwielbiam to powiedzenie. Samo to się nic nie zrobi. Faktem jednak jest, że dobra treść jest wyjściem do szeptanej reklamy. Kiedyś (do dzisiaj) sąsiadki sobie coś polecały, produkt miał reklamę. W sieci taką reklamą będą udostępnienia treści czy komentarze. Jest to już jakiś plus, ale nadal obracamy się w zamkniętym kręgu.

Jeżeli krąg odbiorców chcemy poszerzyć, wychodzimy z jakimś banerem na ulicę, ulotkami reklamowymi. SEO to właśnie takie wyjście na ulicę z reklamą. Tą ulicą są dla nas wyszukiwarki. One zobaczą w tłumie naszą reklamę i jeżeli będziemy ją dalej rozwijać, roboty zrobią nam miejsce, aby więcej ludzi ją zobaczyło – konkretnie treść, do jakiej ona kieruje.

Kilka słów o linkach

W 2014 roku Google zrobiło eksperyment z nie uwzględnianiem linków, które do danej stron z innych prowadzą. W efekcie linki nadal mają znaczenie na pozycję strony. Trzeba tylko pamiętać, że ten miecz jest obusieczny. Linki z wartościowych stron punktów dodadzą, a z podejrzanych odejmą.

EDIT: Linki prowadzące z bardzo podejrzanych miejsc mogą stronę w całości pogrzebać, co stało się w moim przypadku. Google posądziło moją witrynę o tworzenie treści typu spam.

Linki typu nofollow w sumie nie mają konkretnego wpływu na pozycję witryny. Z jednej strony linki są naturalne w Internecie i jako użytkownicy ich nie opisujemy w kodach. Ten opis to  fachowo atrybut, czyli w kodach dodane nofollo do linku. Trzeba jednak pamiętać, że bez tego atrybut przy dużej ilości linków mogą być podejrzane. Robione okazjonalnie nie podpadną, ale robot trafiając na link, idzie za nim i zostawia dalsze czytanie naszej strony.

I jeszcze to, co pewnie jeszcze nie raz się przewinie, czyli ilość kontra jakość. Zawsze lepsze będzie mniej linków dobrej jakości niż tysiące słabej. Dla mnie to jednak sprawa do indywidualnego rozpatrzenia przez autora strony. Nie oceniam, jeżeli w życiu ktoś woli ilość nad jakością. Co ciekawe Google nakłada dotkliwe sankcje na strony, które w krótkim czasie zdobyły dużo linków kiepskiej jakości.

Gwarancja wysokiej pozycji

Oczywiście, że tego zabraknąć nie mogło, czyli reklama dźwignią handlu. Praktycznie każda firma zajmująca się pozycjonowaniem ma epizod z reklamą, że tylko ona zagwarantuje wysoką pozycję. Zgłaszamy się i mamy ją jak w banku. Niezła bzdura, bo algorytmy podczas ustalania pozycji strony biorą pod uwagę ponad 200 różnych czynników, które są objęte patentem. Chociaż może firma ma jakieś przecieki lub ktoś zaprzedał dusze diabłu.

Sukces każdego słowa kluczowego przy odpowiedniej cenie

Tak w sprawie zaprzedania duszy diabłu, mamy kolejną bzdurę. Logiczne jest, że im wyższa cena, tym więcej oferowanych usług. Czym więcej działań, tym jest większe prawdopodobieństwo usypiania wysokiej pozycji dla każdego słowa kluczowego. Do tych ponad 200 czynników dochodzi jeszcze konkurencja, historia strony czy też reputacja. Chyba że wypuszczamy coś jako pierwsi na świecie.

AdWords a wyższa pozycja

Bez względu w zasadzie, o jakich algorytmach mówimy względem reklamy, nie ma to bezpośredniego wpływu na pozycję strony. Sprawa jest odrobinę podobna do faktu, że dobra treść obrobi się sama.

Jeżeli inwestujemy w reklamę, inwestujemy w coś, co pozwoli nam stanąć wyżej. Podnosząc baner np. o metr wyżej, więcej ludzi go zobaczy. W Internecie wyświetli się reklama w miejscu na to przeznaczonym i może jakaś część ludzi zostanie na dłużej. Reklama staje się pośrednim czynnikiem wzrostu pozycji.

Tych punktów znajdzie się więcej, ale trzeba wchodzić w bardziej szczegółowe i techniczne zagadnienia. Choć znając życie, pewnie i z ogólnych spraw coś się jeszcze znajdzie.

Jedno co będę niezmiennie powtarzała, to patrzenie na czytelnika. Algorytmy są stworzone tak, aby się uczyć naszego zachowania. Im my więcej z realnego życia przeniesiemy do wirtualnego, tym bardziej promowane będzie naturalne zachwianie. Oczywiście warto patrzeć na roboty, ale nie kosztem np. zmiany budowy zdania, bo roboty to lepiej odbiorą. A czytelnik? Niech się męczy z czytaniem.