paweł budynek metody optymalizacji i pozycjonowania stron
TRANSCRIPT
Paweł Budynek
Metody optymalizacji i pozycjonowania stron internetowych
Methods of search engine optimization
Praca licencjacka
Promotor: dr inż. Rafał Wojciechowski
KIERUNEK: Informatyka i ekonometria
SPECJALNOŚĆ: E-biznes
KATEDRA: Technologii Informacyjnych
Poznań 2015
2
Spis treści
Wstęp 3
1 Narzędzia wspomagające efektywne pozycjonowanie 5
1.1 Podstawowe informacje o pozycjonowaniu stron internetowych 5
1.2 Google AdWords 7
1.3 Google Webmaster Tools 10
1.4 Google Analytics 13
1.5 Screaming Frog SEO Spider 14
2 Analiza metod optymalizacji stron internetowych w celu zwiększenia jakości pozycjonowanego
serwisu 16
2.1 Naprawianie złego profilu linkowego domeny 16
2.2 Usuwanie duplikatów treści występujących na stronie 17
2.3 Tworzenie znaczników META w sekcji HEAD 19
2.4 Tworzenie atrybutów ALT 23
2.5 Nawigacja wewnątrz strony internetowej 24
2.6 Nagłówki Hx w treści strony WWW 25
2.7 Nawigacja okruszkowa (breadcrumb) 25
3 Linkowanie 27
3.1 Linkowanie naturalne 28
3.2 Systemy wymiany linków 31
3.3 Prywatne zaplecza 42
Zakończenie 44
Bibliografia 46
3
Wstęp
Idea sieci komputerowej, za pomocą której wielu użytkowników różnych komputerów
mogłoby komunikować się ze sobą, zaczęła rozwijać się już w latach 50. Pierwszą działającą
siecią był ARPANET, który został uruchomiony w 1969 roku. Powstał on jako inicjatywa
Departamentu Obrony USA i był prekursorem Internetu. Początkowo komercyjne
wykorzystanie Internetu było zabronione. Stało się to tematem dyskusji, ponieważ nie zostało
jasno sprecyzowane co można uważać za komercyjne wykorzystanie sieci. Dlatego też w 1994
roku ograniczenia dotyczące komercyjnego wykorzystywania Internetu zostały całkowicie
zniesione [1].
Jednymi z najwcześniejszych zastosowań Internetu były: poczta elektroniczna, wymiana
plików za pomocą File Transfer Protocol (FTP) oraz World Wide Web, czyli sieciowy system
informacyjny oparty na publicznie dostępnych standardach opracowanych przez W3C, ISO i
IETF. System ten również często jest określany jako WWW lub Web [2]. Pierwotnym oraz
głównym zadaniem WWW jest publikowanie informacji.
We wczesnych latach 90 oczywistym stało się, że coraz bardziej jest potrzebne narzędzie do
wyszukiwania plików i informacji. W tym celu powstał protokół HTTP ułatwiający i
przyspieszający odwoływanie się do plików. W 1992 roku Berners-Lee opracował przeglądarkę
o nazwie WorldWideWeb, która potrafiła wyświetlać strony HTML zawierające grafikę.
Funkcja to została również zaimplementowana w przeglądarkach takich jak Viola, czy też
Mosaic [3]. Wszystkie te funkcje przyczyniły się do wzrostu zainteresowania użytkowników
Internetu tworzeniem stron internetowych.
Wraz z rozwojem WWW zaczęła rosnąć liczba stron internetowych zaindeksowanych przez
wyszukiwarkę Google. Wyniki zapytań musiały zostać uporządkowane w taki sposób, aby
najpierw zostały zwracane wyniki najbardziej pożądane przez użytkownika, a dopiero później
te mniej potrzebne, a na końcu zupełnie zbędne. W celu posortowania wyników zapytań firma
Google stworzyła PageRank. Jest to algorytm nadawania zaindeksowanym witrynom
określonej wartości liczbowej. PageRank jest miarą wartości strony w kontekście danego
zapytania użytkownika [4]. Im większa to liczba tym wyższa potencjalna wartość strony.
Szczegóły właściwego algorytmu nigdy nie zostały upublicznione i są ściśle chronione przez
Google. PageRank nadawany stronie internetowej zależy od wielu czynników. Jednym z nich
4
może być ilość treści zawartej na stronie (nie będącej duplikatem treści już istniejącej), a także
od liczby stron o wysokim wskaźniku PageRank, które zawierają odnośniki do danej strony.
Problem kolejności wyświetlania wyników zgodnie z wartościami wskaźnika PageRank
doprowadził do powstania dziedziny pozycjonowania stron w systemach wyszukiwawczych
(ang. SEO – Search Engine Optimalization). Jest to technika polegająca na zoptymalizowaniu
kodu strony internetowej w taki sposób, aby wyszukiwarka internetowa wyświetlała ją wśród
pierwszych wyników dla słów kluczowych ściśle związanych z główną tematyką danej strony
[4][4]. Jeżeli firma lub organizacja inwestuje pieniądze w utworzenie własnego miejsca w
Internecie będącego przede wszystkim twarzą i wizytówką firmy, nie może sobie pozwolić na
straty jakie wygeneruje strona jeżeli nie będzie regularnie odwiedzana przez klientów.
Celem tej pracy jest przedstawienie problemu efektywnego pozycjonowania stron WWW.
Praca ma charakter studium przypadku i składa się z trzech rozdziałów. Każdy rozdział opisuje
możliwie najdokładniej osobny etap prawidłowego pozycjonowania stron WWW. W rozdziale
pierwszym przedstawiono najważniejsze informacje niezbędne do rozpoczęcia jakichkolwiek
działań oraz etap pierwszy jakim jest przygotowanie kampanii SEO przy pomocy
ogólnodostępnych narzędzi. Drugi etap został przedstawiony w rozdziale drugim i opisuje jakie
działania należy podjąć, aby strona internetowa została pozytywnie oceniona przez algorytmy
firmy Google. Ostatni etap został zawarty w rozdziale trzecim. Rozdział ten zawiera opis metod
umieszczania linków na portalach zewnętrznych w celu wzmocnienia pozycji serwisu w
rankingu Google.
Praca jest oparta głównie na doświadczeniach i wiedzy autora tej pracy, które zostały nabyte
w trakcie praktycznego pozycjonowania różnych serwisów internetowych.
5
1 Narzędzia wspomagające efektywne pozycjonowanie
1.1 Podstawowe informacje o pozycjonowaniu stron internetowych
Prawidłowe pozycjonowanie stron może przynieść efekty już w ciągu pierwszego miesiąca
od rozpoczęcia tego procesu. Zgodnie z badaniami przeprowadzonymi w maju 2013 roku przez
firmę Chitika doprowadzenie domeny do pierwszego miejsca w wyszukiwarce sprawia, że
witryna jest w stanie zebrać aż 33% liczby kliknięć dla danej frazy wpisanej w wyszukiwarce,
18% w przypadku drugiej pozycji oraz 11% w przypadku trzeciej pozycji. Na rysunku 1
przedstawiono zależność liczby wejść od posiadanej pozycji w Google [5].
Źródło: opracowanie własne na podstawie raportu firmy Chitika [5].
Rysunek 1. Wykres ilości wejść na stronę w zależności od posiadanej pozycji w Google.
32,5%
17,6%
11,4%
8,1%
6,1%4,4%
3,5% 3,1% 2,6% 2,4%
0,0%
5,0%
10,0%
15,0%
20,0%
25,0%
30,0%
35,0%
1 2 3 4 5 6 7 8 9 10
% U
DZI
AŁU
POZYCJA TOP W GOOGLE
Średni udział w ruchu
6
Proces pozycjonowania opiera się na ciągłym poznawaniu mechanizmów rządzących
wyszukiwarkami i dostosowaniu serwisów internetowych do tych mechanizmów. Niezwykle
ważne jest bycie na bieżąco ze wszystkimi zmianami jakie publikuje firma Google,
niedostosowanie się do zmieniających się algorytmów może przeszkodzić w uzyskaniu
pożądanego efektu. Dwa najbardziej popularne algorytmy mające uniemożliwiać nieetyczne
pozycjonowanie to Panda i Pingwin. Algorytm Panda ma za zadanie zwiększać widoczność
witryn wysokiej jakości. Są to witryny, które mogę potencjalnie zainteresować użytkownika.
Algorytm Pingwin obniża w rankingu strony, które są pozycjonowane w nieetyczny sposób
(np. upychanie za dużej ilości słów kluczowych w treściach lub zamieszczanie dużej ilości
niskiej jakości linków zwrotnych) [6]. Oba algorytmy mogą zmienić pozycję danej strony na
niekorzyść pozycjonera. Zignorowanie aktualizacji tych algorytmów może zniszczyć efekty
wielomiesięcznego pozycjonowania.
Kolejną ważną zmianą wdrożoną przez firmę Google 21 kwietnia 2015 roku było oznaczanie
witryn etykietą „przyjazna dla urządzeń mobilnych”, ponieważ jak twierdzi sama firma,
Internet mobilny staje się coraz ważniejszy [7]. Na stronie przyjaznej dla urządzeń mobilnych
tekst powinien być widoczny bez dodatkowego powiększenia. Odnośniki powinny być
odpowiednio od siebie oddalone w taki sposób, aby kliknięcie w link nie sprawiało trudności.
Grafiki powinny mieścić się na wyświetlaczu urządzenia bez dodatkowego przewijania strony
itp. Gdy witryna nie spełniała tych wymagań, nie zostawała nagradzana etykietą co w efekcie
końcowym może oznaczać utratę cennych wejść na stronę z urządzeń mobilnych. Mniejsza
ilość wejść mobilnych może również oznaczać utratę ruchu z laptopów i komputerów
stacjonarnych.
Firmie Google zależy na tym, aby wyświetlane wyniki były bardzo mocno
spersonalizowane. Każdy wynik powinien na pierwszej pozycji wyświetlać stronę najbardziej
dopasowaną do potrzeb użytkownika. Jest to główny powód dla którego Google walczy z
pozycjonowaniem stron. Dlatego też w branży SEO nie ma miejsca na błędy. Pomyłka
pozycjonera może doprowadzić do nałożenia przez Google kary ręcznej (filtru ręcznego) na
domenę, w której znajduje się pozycjonowana strona. Kara ręczna oznacza, że ukarana strona
przez długi czas będzie widoczny na niskich pozycjach w rankingu [8]. Kary ręczne są bardzo
uciążliwe, ponieważ osoba pozycjonująca nie zawsze dostaje stosowną informację o nałożeniu
takiej kary. Najczęściej da się zauważyć zastosowanie przez Google tej praktyki dopiero w
momencie, gdy pozycja domeny w rankingu nie zmienia się mimo stosowania różnorakich
czynności mających na celu polepszenie wyników. W takim przypadku należy pozbyć się
7
wszelkich problemów występujących na stronie, a następnie wysłać do Google prośbę o
ponowne rozpatrzenie zgłoszenia. Takie prośby są rozpatrywane w ciągu kilku dni i mogą
zarówno zostać zaakceptowane jak i odrzucone [9]. Innymi metodami karania sztucznego
pozycjonowania jest chwilowe lub trwałe wyindeksowanie domeny z wyszukiwarki. Brak
domeny w katalogach Google może mieć negatywne konsekwencje dla pozycjonującej się
firmy, a zmiana domeny na nową może okazać się ciężka do zrealizowania z powodu setek
rozdanych wizytówek bądź materiałów reklamowych zawierających adres URL danej witryny.
Ponadto istnieją inne istotne przeszkody, takie jak wieloletnie przyzwyczajenie do adresu URL
dotychczasowych klientów firmy.
W związku z tym, bardzo ważną zasadą pozycjonowania jest to, że nigdy nie powinno się
pozycjonować bezpośrednio adresu domeny, ale tylko i wyłącznie jej podstrony. Na przykład
nazwę podstrony „kontakt” łatwo można zmienić na „skontaktuj_sie”, co w przypadku całej
domeny nie jest już takie łatwe.
W dalszej części rozdziału zostanie przedstawiony pierwszy – wstępny etap pozycjonowania
stron internetowych. Głównie polega on na przygotowaniu efektywnej kampanii SEO oraz
przeprowadzeniu wstępnego audytu strony, czyli przebadaniu jej pod względem
najpopularniejszych błędów.
1.2 Google AdWords
Google AdWords jest portalem udostępnianym przez firmę Google w celu zbudowania
kampanii SEO [10]. Głównie portal ten służy do tworzenia płatnych kampanii reklamowych.
Za każde kliknięcie w ramach kampanii Google należy zapłacić. Stawki są podawane są za
każde kliknięcie w link prowadzący do portalu internetowego biorącego udział w kampanii
reklamowej AdWords. Stawki są różne i zależą od popularności danej frazy. Frazy lub słowa,
które posiadają małą ilość wyszukań w ciągu miesiąca mogą być stosunkowo tanie. Cena za
każde kliknięcie rośnie wprost proporcjonalnie do ilości miesięcznych wyszukań. Firmy, które
dopiero zaczynają działać na rynku lub nie prosperują zbyt dobrze nie mogą pozwolić sobie,
aby rozliczać się osobno za każde kliknięcie. Warto pamiętać, że użycie tych narzędzi nie
obliguje do wykupienia kampanii reklamowej.
8
Bardzo ważnym i przydatnym narzędziem jest planer słów kluczowych, który jest
ogólnodostępny w Google Adwords. Jest on niezmiernie pomocny we wstępnym planowaniu
kampanii i właśnie od tego narzędzia powinno zacząć się każde pozycjonowanie.
Planer słów kluczowych może stać się pomocny w przypadku, gdy jest znana dziedzina w
której obraca się pozycjonowana firma, ale nie są znane frazy pod jakimi strona firmy powinna
się znajdować. W takich sytuacjach jest przydatne „szukanie propozycji nowych słów
kluczowych”. Po wpisaniu nazwy produktu lub usługi, planer słów kluczowych wyświetli
propozycję popularnych grup reklam pod którymi można zacząć pozycjonować portal
internetowy. Dodatkowo zwracane są informacje o sugerowanej stawce za kliknięcie (wyrażaną
w złotówkach), wysokości konkurencji, a także średnią ilość miesięcznych wyszukań w
Google. Na rysunku 2 przedstawiono wyniki zwrócone przez narzędzie AdWords dla frazy
„SEO”.
Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google AdWords [10].
Rysunek 2. Zrzut ekranu portalu AdWords dla frazy „SEO”.
W przypadku, gdy jest gotowa ściśle określona lista fraz, pod którymi strona powinna być
widoczna warto skorzystać z możliwości „pobrania prognozy natężenia ruchu dla listy słów
kluczowych”. Ta opcja zwraca dokładne wyniki dla każdej z pożądanych fraz. W ten łatwy
sposób można uzyskać informacje, ile średnio strona pozyska kliknięć i wyświetleń w
przeciągu jednego miesiąca przy limitach wyznaczanych przez budżet. Czy frazy są w ogóle
9
możliwe do wypozycjonowania oraz czy istnieje sens je pozycjonować w przypadku, gdy nie
generują żadnego ruchu.
Poważnym błędem jest szukanie łatwych fraz, czyli takich, które można wypozycjonować
stosunkowo szybko. Takie praktyki są z pewnością sposobem na zdobycie zaufania
pozycjonowanej firmy. Warto jednak pamiętać, że wyświetlanie się strony na pierwszym
miejscy w rankingu Google, wcale nie oznacza generowania dużej ilości wejść. Fraza ta może
być zbyt skomplikowana lub sformułowana w zły sposób. Tworząc frazy trzeba przede
wszystkim myśleć o tym, w jaki sposób mógłby sformułować zapytanie potencjalny klient
pozycjonowanej firmy. Mało istotna jest wysoka pozycja, gdy ilość wejść na stronę w skali
miesiąca jest bliska zera. Na rysunku 3 przedstawiono wyniki zwrócone przez Google Adwords
dla wpisanej frazy „SEO” oraz przy założeniu dziennego budżetu w wysokości 100zł.
Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google AdWords [10].
Rysunek 3. Zrzut ekranu dla frazy „SEO” przy założeniu dziennego budżetu w wysokości 100zł.
10
1.3 Google Webmaster Tools
Po wstępnym zapoznaniu się z przydatnością i istotnością fraz, przydatnymi stają się Google
Webmaster Tools [11]. Jest to zestaw darmowych narzędzie dla webmasterów. Internetowy
gigant z Mountain View wręcz zachęca wszystkich do korzystania z możliwości jakie dają te
narzędzia za pomocą wielu krótkich filmów instruktażowych mających zachęcić nie tylko
pozycjonerów, ale także zwykłych użytkowników do przeprowadzenia optymalizacji swojej
strony internetowej. Korzystanie z tego narzędzia może znacznie usprawnić proces
pozycjonowania, ponieważ w łatwy sposób można odnaleźć tam najbardziej istotne błędy
występujące na pozycjonowanej stronie. W dalszej części tego rozdziału przedstawiono
przegląd najważniejszych funkcji narzędzi Google Webmaster Tools.
Zakładka: „Status w wyszukiwarce”.
Ta zakładka informuje użytkownika o braku niektórych elementów na stronie, takich jak na
przykład dane strukturalne. Można również dowiedzieć się o istotnych błędach
(niedozwolonych przez Google) takich jak, powtarzające się opisy strony, zbyt krótkie lub za
długie opisy, niemożności indeksacji strony przez robota, czy też problemach z tagami na
stronie. Rysunek 4 przestawia zrzut ekranu, na którym narzędzie zwraca komunikat o zbyt
krótkich opisach meta.
11
Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google Webmaster Tools [11].
Rysunek 4. Zrzut ekranu dla przypadku z za krótkimi opisami meta.
Zakładka: „Ruch związany z wyszukiwaniem”
W tej zakładce widnieją kolejne przydatne informacje. Na pierwszym planie można
zaobserwować wyszukiwane hasła. Dokładniej mówiąc Google informuje jakie frazy
wpisywali użytkownicy, aby dostać się do pozycjonowanej witryny. Jest to niezmiernie
przydatne, w przypadku ustalenia fraz, ale tylko w przypadku, gdy domena ma już jakąś
historię. Gdy strona jest nowa, te informacje mogą być zwyczajnie mylące.
Można również sprawdzić linki wewnętrzne i zewnętrzne, które znajdują się na
pozycjonowanej stronie. Pozornie może wydawać się to zbędne, jednakże warto monitorować
tą pozycję, gdyż mogłoby zdarzyć się tak, że ktoś działając świadomie na niekorzyść
pozycjonowanej strony zamieści w czeluściach pozycjonowanego portalu linki do innych stron
nie związanych z tematyką strony. Będąc przy tej zakładce warto również sprawdzić, czy strona
jest oznaczona przez Google jako przyjazna dla urządzeń mobilnych oraz czy nie zostały
wykryte jakiekolwiek błędy. Rysunek 5 przedstawia komunikat o nieprzystosowaniu strony
internetowej do urządzeń mobilnych.
12
Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google Webmaster Tools [11].
Rysunek 5. Zrzut ekranu dla witryny nieprzystosowanej do urządzeń mobilnych.
Zakładka: „Indeks Google”
Jest to prawdopodobnie najważniejsza pozycja w narzędziach Google dla Webmasterów. W
tym miejscu można monitorować stan indeksowania strony w katalogu Google. Sprawdzenie
ile podstron zostało zaindeksowanych jest niezmiernie ważne, gdyż pozycjonowanie podstrony
niezaindeksowanej zwyczajnie mija się z celem. Można również sprawdzić słowa kluczowe
jakie robot odnalazł w treści strony oraz zablokowane zasoby. Ostatnia pozycja umożliwia
usuwanie adresów URL z katalogu. Warto użyć tej opcji w przypadku, gdy Google dalej
posiada zaindeksowane w swoim katalogu podstrony, które już dawno temu zostały skasowane,
ponieważ w takim przypadku robot widzi błąd 404, a to prowadzi do osłabienia mocy
pozycjonowanego portalu.
Zakładka: „Indeksowanie”
Ostatnia, ale nie mniej ważna zakładka umożliwia sprawdzenie, czy podczas indeksowania
strony doszło do jakichś błędów oraz sprawdzić zaawansowane statystyki indeksowania. Ta
13
sekcja umożliwia również przetestowanie pliku robots.txt. Plik ten ma charakter informacyjny.
Informuje on o tym które z katalogów znajdujących się na serwerze robot powinien
zaindeksować. Robot jest to termin określający program, który samodzielnie potrafi poruszać
się po stronach internetowych podążając za odsyłaczami. Program ten potrafi analizować i
indeksować strony WWW [12]. Dużym ułatwienie dla robota Google jest mapa strony, którą
można zgłosić za pomocą zakładki „Indeksowanie”. Powinna ona posiadać nazwę sitemap o
rozszerzeniu xml i zawierać wszystkie podstrony, które powinny zostać zaindeksowane. Jest to
niezmiernie ważne w przypadku, gdy serwis jest bardzo duży, bądź prowadzi do niego niewiele
linków z zewnętrznych portali. Warto pamiętać, że roboty indeksują Internet podążając za
kolejnymi linkami zewnętrznymi. Jeżeli do pozycjonowanej strony nie prowadzi żaden z
linków, strona może pozostać niezaindeksowana przez bardzo długi czas [13].
1.4 Google Analytics
Bardzo przydatnym narzędziem jest Google Analytics. Jest to serwis za pomocą którego
można uzyskać informacje o ilości wejść na stronę internetową. Wyniki dzielone są na różne
lokalizacje (z dokładnością do miast), grupy wiekowe oraz płeć [14]. Po wprowadzeniu
koniecznych danych, takich jak nazwa domeny i strefę czasową generowany jest kod w Java
Script, który należy umieścić na każdej podstronie która powinna być śledzona (lub
bezpośrednio w szablonie strony, jeżeli ten jest powielany na każdej podstronie). Analytics
bardzo precyzyjnie ocenia wejścia na stronę internetową. Ilość sesji, użytkowników, odsłon,
średni czas trwania jednej sesji, czy też współczynnik odrzuceń. Dodatkowo dane te mogą
zostać podzielone na użytkowników desktopowych i mobilnych. Taka informacja może okazać
się przydatna przy podjęciu decyzji o utworzeniu wersji mobilnej dla danej strony internetowej.
Rysunek 6 przedstawia zwrócone dane przez Google Analytics dla strony internetowej nie
posiadającej wejść z urządzeń mobilnych.
14
Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google Analytics [14].
Rysunek 6. Zrzut ekranu dla witryny, która nie posiada odwiedzin z urządzeń mobilnych.
Informacje o miejscu ilości odwiedzin z innych miast lub państw także są bardzo przydatne.
Może się nagle okazać, że jest opłacalna sprzedaż usług przez Internet, bądź budowa angielskiej
wersji językowej portalu itp. Informacje o grupie społecznej do jakiej trafiamy mogą pomóc
nam podjąć decyzje o zmianie pozycjonowanych fraz.
1.5 Screaming Frog SEO Spider
Obowiązkowym narzędziem w rękach każdego pozycjonera jest program o nazwie
Screaming Frog SEO Spider [15]. Jest on pomocny przy wykonywaniu optymalizacji strony
internetowej pod kontem wyszukiwarek internetowych (optymalizacja zostanie przybliżona w
kolejnym rozdziale). Po wklejeniu odsyłacza do strony internetowej w górnym pasku programu
i naciśnięciu przycisku „Start” program przeanalizuje daną stronę internetową w podobny
sposób jak robią to roboty. Czas wykonywania analizy jest zależny głównie od wielkości
badanego serwisu. Rysunek 7 przedstawia analizę wykonaną przez program Screaming Frog
SEO Spider dla witryny internetowej dostępnej pod adresem http://pawelbudynek.pl.
15
Źródło: Opracowanie własne na podstawie wyników zwróconych przez Screaming Frog SEO Spider [15].
Rysunek 7. Zrzut ekranu dla witryny http://www.pawelbudynek.pl
Z programu w łatwy sposób można dowiedzieć się czy badana strona posiada duplikaty
treści, czy znaczniki meta są unikalne, czy strona zawiera błędy, jak wyglądają tytuły podstron,
czy obrazki posiadają atrybuty ALT i wiele innych przydatnych informacji. Właściwe
użytkowanie programu powinno zwrócić wszystkie niezbędne informacje. Darmowa licencja
programu pozwala na przeskanowanie maksymalnie 500 linków podczas jednej sesji [16]. W
przypadku potrzeby przeskanowania większego serwisu, należy wykupić licencję lub polegać
na przeskanowanej ilości linków i potraktować je jako statystyczną próbę. Nie jest to najlepsze
rozwiązanie, aczkolwiek warto pamiętać, że w przypadku gigantycznych serwisów lub sklepów
internetowych ciężkie jest rozwiązanie wszystkich występujących problemów z powodu braku
czasu i budżetu. W takich sytuacjach najlepiej przebadać tylko poszczególne linki, które będą
pozycjonowane.
16
2 Analiza metod optymalizacji stron internetowych w celu zwiększenia
jakości pozycjonowanego serwisu
Etap drugi jest niezmiernie ważny w pozycjonowaniu stron internetowych. Polega on na
przeprowadzeniu optymalizacji strony internetowej w taki sposób aby była zgodna z
wymogami, według których firma Google ocenia wartość serwisu. Strona powinna również być
zgodna ze standardami wyznaczanymi przez W3C, czyli World Wide Web Consortium. Jest to
organizacja założona w 1994 roku przez Tima Berners-Lee. W3C skupia na obecną chwilę
ponad 400 organizacji. Poczynając od uczelni z całego świata, przez różne firmy i korporacje,
a kończąc na agencjach rządowych [17].
Standardy publikowane przez W3C nie mają mocy prawnej nakazującej ich użycie, jednakże
warto się do nich stosować. Co prawda błędy wynikające ze złego zastosowania danych
standardów nie usuwają całkowicie strony z wyszukiwarek internetowych, ale mogą
doprowadzić do wolniejszego zaindeksowania przez robota Google, a co za tym idzie – niższą
pozycję w wyszukiwarce.
2.1 Naprawianie złego profilu linkowego domeny
Zanim rozpocznie się optymalizować stronę warto sprawdzić profil linkowy domeny.
Analizę profilu linkowego można wykonać za pomocą dostępnych stron internetowych (np.
http://www.backlinkwatch.com/) lub poczekać, aż Google sam wyświetli komunikat w
Narzędziach dla Webmasterów o złym profilu linkowym. Często bywa tak, że do danej domeny
prowadzi duża liczba linków, które w oczach Google’a wyglądają po prostu źle. Są to linki
zamieszczane na niewyświetlających się poprawnie stronach, katalogach SEO, forach i innych
podobnych portalach tworzonych tylko i wyłącznie w celu zamieszczania linków i podbijania
PageRanków innych witryn internetowych. Zazwyczaj jest to spowodowane nieumiejętnymi
próbami pozycjonowania poprzednich właścicieli domeny. Google zaleca usunięcie jak
największej ilości punktów spamerskich i niskiej jakości linków [18].
17
Gdy niemożliwym staje się wykasowanie złej jakości linków warto wysłać za pomocą
Google Webmaster Tools plik o rozszerzeniu „txt”, a w nim listę linków, które wyszukiwarka
ma ignorować. Każdy link powinien zaczynać się od nowej linii, a w przypadku, gdy istnieje
potrzeba zignorowania całej domeny wystarczy nazwę domeny poprzedzić słowem „domain:”.
Warto również wiedzieć, że wiersze poprzedzone znakiem „#” zostaną pominięte. Kodowanie
znaków jakiego powinniśmy użyć w celu uniknięcia jakichkolwiek błędów to UTF-8.
Przykładowy wygląd pliku został przedstawiony na rysunku 8.
# Z witryny example.com usunięto większość linków, ale pominięto te:
http://spam.example.com/rzeczy/komentarze.html
http://spam.example.com/rzeczy/linki-platne.html
# Skontaktowałem się z właścicielem przebieglyseo.pl dnia 07.01.2012,
# prosząc o usunięcie linków, ale nie otrzymałem odpowiedzi
domain:przebieglyseo.pl
Źródło: Opracowanie własne na podstawie Google Support [18][18].
Rysunek 8. Zrzut ekranu treści przykładowego pliku zrzekającego się złej jakości odsyłaczy.
2.2 Usuwanie duplikatów treści występujących na stronie
Gdy strona internetowa zostanie już poprawnie zaimplementowana, przychodzi czas na
dodanie treści. Poważnym błędem może okazać się skopiowanie tekstu z konkurencyjnej strony
internetowej. Google bardzo agresywnie kara takie zachowanie. Gdy robot Google wykryje na
stronie duplikat treści, może ją umieścić na niższej pozycji niż byśmy tego chcieli, bądź też w
przypadku dużej ilości duplikatów wyindeksować stronę tymczasowo bądź na stałe.
Problemem może się okazać nie tylko skopiowanie treści z innego portalu, ale także
zamieszczenie danego tekstu dwukrotnie. Dzieje się tak również, gdy strona jest dostępna pod
kilkoma adresami jednocześnie. Przykład został przedstawiony na rysunku 9.
18
Źródło: Opracowanie własne.
Rysunek 9. Przykładowe rodzaje adresów prowadzących do tej samej strony internetowej.
W powyższym przypadku, aby uniknąć podstawowego błędu przy optymalizacji należy
zastosować stałe przekierowanie 301 [19]. Polega ono na zamieszczeniu odpowiedniego kodu
źródłowego w pliku .htaccess, który znajduje się w głównym katalogu strony internetowej, kod
ten został przedstawiony na rysunku 10.
RewriteEngine On
RewriteCond %{HTTP_HOST} ^strona.pl$
RewriteRule ^(.*) http://www.strona.pl/$1 [QSA,L,R=301]
Źródło: opracowanie własne na podstawie pomocy technicznej home.pl [20].
Rysunek 10. Przykładowy kod przekierowania 301.
Cały ten zabieg nie tylko przekierowuje użytkownika na odpowiedni adres, ale także
przenosi moc domeny przekierowywanej na domenę pozycjonowaną. Ta metoda okazuje się
również przydatna w momencie, gdy strona internetowa widnieje na kilku różnych od siebie
domenach.
Problematyczne może również okazać się ukośnik, który czasami jest dodawany
automatycznie, a czasami nie. Najczęściej w takich sytuacjach również treść jest dostępna w
http://strona.pl
http://www.strona.pl
http://www.strona.pl/
http://www.strona.pl/index.php
19
dwóch różnych miejscach. Rozwiązaniem jest zastosowanie kolejnego przekierowania, aby
ukośnik był wymuszany, bądź sztucznie go usuwać. Mimo, że oba rozwiązania powinny
zadziałać, to czysto technicznie bardziej poprawne jest usuwanie ukośnika, gdyż jego brak
wskazuje na plik, a dodatkowy ukośnik na folder.
Innym rozwiązaniem są linki kanoniczne. W dobie systemów CMS i sklepów internetowych,
bardzo łatwo o duplikaty treści, które stricte wynikają z paginacji (numeracji) stron i wielu opcji
dla danego przedmiotu, bądź samego artykułu [21]. W sytuacji, gdy zostaje otworzony sklep
internetowy z kubkami, często ten sam kubek istnieje w kilku wersjach kolorystycznych. Mimo,
że zdjęcie kubka, jego cena oraz wzór będzie inny, to prawdopodobnie sam tekst opisujący jego
właściwości będzie taki sam. W oczach Google’a to również jest plagiat. Nie można ustawić
przekierowania 301, ponieważ mijałoby się to z celem. Z pomocą przychodzą na kanoniczne
URLe. Dla każdej z podstron ustawiamy link kanoniczny na jedną i tą samą wersję danej
podstrony informując wyszukiwarkę, że plik html, który właśnie indeksuje jest koniecznym
plagiatem i kierujemy ją do pierwotnej wersji.
2.3 Tworzenie znaczników META w sekcji HEAD
Każda strona internetowa oprócz treści posiada również znaczniki META, które są zawarte
w sekcji HEAD. Odpowiednie wypełnienie znaczników jest kluczem do prawidłowej
optymalizacji strony. Znaczniki powinny mieć coś wspólnego z frazami pod którymi serwis ma
być pozycjonowany, ale musi to na pozór wydawać się naturalne. Zapełnienie znaczników nie
zawsze jest tak łatwe jak może się to wydawać na początku.
20
Title (tytuł strony)
Znacznik Title określa tytuł optymalizowanej strony. Tytuły zamieszcza się w sekcji HEAD
w następującym znaczniku:
<TITLE>tytuł</TITLE>
Wyświetla się on na karcie w przeglądarce internetowej. Sam znacznik tytułu powinien
zamykać się w granicach 55-60 znaków (wliczając w to znaki białe). Słowa kluczowe w tytule
powinny byś dobrane w taki sposób, aby ich kolejność była ułożona hierarchiczne względem
ważności danego słowa. Ważne jest także, aby słowa kluczowe tworzyły logiczną całość [22].
Przeciętny użytkownik, nie kliknie w mało ciekawy tytuł, a co za tym idzie – nie zostanie
wytworzony ruch na stronie. Każda podstrona musi mieć unikalny tytuł, który nie może być
skopiowany z istniejących już treści widocznych na stornie. Jest to przydatne przy
pozycjonowaniu wielu fraz dla jednej strony. O wiele łatwiej jest rozmieścić słowa kluczowe
w kilku tytułach, niż w jednym.
Description (opis strony)
Znacznik description odpowiada za opis, który jest wyświetlany w wynikach wyszukiwania
zaraz pod tytułem. Opis należy zamieścić w sekcji HEAD w znaczniku:
<META NAME=”description” CONTENT=”opis strony…”>
Długość meta description nie powinna być mniejsza niż 100 znaków. Google ma ściśle
określoną w pikselach długość opisu jaki maksymalnie może się wyświetlić na ekranie
monitora po wpisaniu odpowiedniej frazy. Długość ta zmienia się bardzo często, ponieważ
zależy ona chociażby od rozmiaru i rodzaju czcionki, która zostanie użyta do zaprezentowania
wyników wyszukiwania. Gdy opis jest zbyt krótki może nie zapełnić całego przeznaczonego
miejsca i w takich sytuacjach może zostać on źle oceniony przez firmę Google. Znacznik meta
21
description powinien średnio zawierać około 150 znaków. Opis ma mniejszą wagę dla robota
Google, niż sam tytuł, jednak w dalszym ciągu decyduje o tym, czy użytkownik wejdzie na
stronę czy nie. Opis również powinien być wysokiej jakości oraz unikatowy dla każdej
podstrony, aby zachęcić użytkownika do wejścia na pozycjonowaną stronę tym samym
wytwarzając ruch.
Keywords (słowa kluczowe)
Znaczniki Keywords nie są widoczne dla internauty. Powstały jako narzędzie mające na celu
informowanie przeglądarki o tematyce strony. Niestety ze względu na częste używanie
znacznika przez webmasterów w celu osiągnięcia wyższej pozycji w wyszukiwarce został on
zdegradowany do rangi czysto informującej. We wrześniu 2009 roku firma Google oficjalnie
poinformowała na swoim blogu, że znaczniki keywords nie mają już wpływu na pozycję strony
w wyszukiwarce [23]. Mimo to nadal warto umieszczać słowa kluczowe w sekcji HEAD.
Pozwala to bowiem zakwalifikować stronę do kategorii w jakiej powinna zostać wyświetlana.
W celu poprawnego zinterpretowania słów kluczowych przez robota Google należy zamieścić
je w znaczniku:
<META NAME=”keywords” CONTENT=”słowa kluczowe…”>
Robots (sterowanie robotem Google)
Znacznik robots jest informacją dla robota wyszukiwarki o tym w jaki sposób powinien się
zachować w stosunku do danej podstrony. Parametry, które może przyjmować ten znacznik
zostały przedstawione na rysunku 11.
22
all – wszystko zostanie zaindeksowane
index – strona zostanie zaindeksowana
noindex – strona nie zostanie zaindeksowana
follow – linki zostaną zaindeksowane
nofollow – linki nie zostaną zaindeksowane
none – roboty nic nie zaindeksują
Źródło: opracowanie własne na podstawie Google Support [24].
Rysunek 11. Rodzaje znaczników robots.
Znaczniki te można łączyć ze sobą, oddzielając je przecinkami. W przypadku nie
przypisania parametru do znacznika robots, przeglądarka automatycznie oznacza stronę
znacznikiem ALL [24]. Jest to ważne w przypadku, gdy użytkownik chce zabezpieczyć siebie
przed „uciekaniem” robota ze strony internetowej. Najpopularniejszym przykładek jest
wstawienie linku do swojej strony w stopce przez twórcę danego portalu. Takie praktyki, często
osłabiają moc pozycjonowanego serwisu i jedynym rozwiązaniem jest zamieszczenie atrybutu
nofollow. W celu poprawnego zinterpretowania przez wyszukiwarkę znaczniki robots
zamieszczamy w sekcji HEAD w następujący sposób:
<META NAME=”robots” CONTENT=”odpowiedni znacznik robots”>
Można również stworzyć na serwerze plik o nazwie robots.txt i za pomocą komendy
disallow zablokować robotom dostęp do jakiegoś pliku, bądź całego folderu. Jest to
zdecydowanie lepsze rozwiązanie w sytuacjach w których Google zaindeksował cały folder
zawierający wtyczki. Dobrym przykładem może być zaindeksowanie przez Google całego
folderu zawierającego panel administratora. W takich przypadkach łatwiej jest zablokować cały
folder, niż blokować za pomocą znaczników robots, każdy plik po kolei. Rysunek 12
przedstawia przykładową zawartość pliku robots.txt.
23
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /includes/
Disallow: /language/
Disallow: /libraries/
Disallow: /images/
Disallow: /templates/
Allow: /templates/css/template.css
Allow: /templates/jquery.js
Allow: /templates/script.js
Źródło: Opracowanie własne[18].
Rysunek 12. Zrzut ekranu treści przykładowego pliku blokującego dostęp do plików robotom indeksującym.
Pierwsza linijka zakończona znakiem „*” oznacza, że poniższe instrukcje dotyczą
wszystkich rodzajów robotów indeksujących. Komendy Disallow wyłączają z indeksowania
wskazane foldery. W momencie, gdy istotne jest, aby został zaindeksowany jeden plik z
folderu, który indeksować się nie powinien, pomocna staje się komenda Allow.
2.4 Tworzenie atrybutów ALT
Kolejnym krokiem do prawidłowego zoptymalizowania strony jest nadanie wszystkim
obrazkom atrybutów ALT. Atrybuty te są wyświetlane alternatywnie w momencie, gdy nie
może zostać poprawnie wczytany obrazek. Nadanie obrazkom tego atrybutu jest niezmiernie
ważne z perspektywy specyfikacji XHTML. Dodatkowo warto wiedzieć, że przeglądarki i ich
24
roboty nie analizują obrazków, dlatego posługują się opisom zawartym w atrybucie ALT [25].
Atrybuty te zamieszcza się w sekcji obrazka w następujący sposób:
<IMG SRC=”adres obrazka” ALT=”alternatywny opis obrazka”>
Istnieje również możliwość nadania obrazkom atrybutu TITLE. Jest on zawsze wyświetlany
w dymku po najechaniu na dany obrazek. Można również umieścić ten atrybut w odnośniku.
Powinien on wtedy opisywać zawartość strony do której odwołuje się hiperłącze. Te dwa
elementy z pewnością mogą pomóc w pozycjonowaniu danej frazy. Nie jest to jednak miejsce
na frazy lub słowa kluczowe, a na parę logicznych zdań opisujących zawartość obrazka, czy
też linku.
2.5 Nawigacja wewnątrz strony internetowej
Każda podstrona powinna mieć wewnętrzny odnośnik widoczny na stronie głównej. Mowa
tutaj o klasycznym menu. Za jego pomocą zarówno użytkownik jak i robot Google może
poruszać się po każdym zakątku strony internetowej. Ukryte podstrony mogą źle wpłynąć na
pozycję w wyszukiwarce. Jeżeli użytkownik chce uniknąć uwidaczniania niektórych treści (np.
treść polityki cookies), może utworzyć dwa menu nawigacyjne. Jedno główne w centralnej
części strony – dla użytkownika, oraz mapę strony z wszystkimi odnośnikami w stopce – dla
robota Google. Można oczywiście wybrnąć z sytuacji dodając do podstrony znacznik noindex,
bądź umieścić na serwerze plik robots.txt i nadać niechcianej podstronie parametr „disallow”.
Przy tworzeniu odsyłaczy wewnętrznych zaleca się zamieszczenie słów kluczowych
pomiędzy znacznikami <a></a>. W ten sposób można stworzyć estetyczne narzędzie
oprowadzające użytkownika po wszystkich zakątkach strony internetowej, a zarazem umieścić
dodatkową porcję słów kluczowych.
25
2.6 Nagłówki Hx w treści strony WWW
Niezmiernie istotne są również nagłówki (H1, H2, H3). Numery przy literze „h” oznaczają
jak ważny jest dany nagłówek, czyli H1 jest nagłówkiem najważniejszym, H2 nagłówkiem
mniej ważnym, H3 jeszcze mniej ważnym itd. Często niedoświadczone osoby, chcące
pozycjonować stronę na własną rękę nadużywają nagłówków, co może być fatalne w skutkach.
Ogólnie rzecz biorąc bezpiecznym podejściem jest potraktowanie cyferki przy literze „H” także
jako informację o maksymalnej ilości wystąpień na każdej podstronie. Uściślając: znacznik H1
umieszczamy jeden raz na każdą podstronę, znacznik H2 – dwa razy, H3 – trzy razy.
2.7 Nawigacja okruszkowa (breadcrumb)
Breadcrumb jest niezwykle ważne przy pozycjonowaniu sklepów internetowych i bardziej
rozbudowanych blogów. Za pomocą nawigacji okruszkowej można stworzyć tzw. breadcrumb
trail, czyli zbiory linków wyznaczających ścieżkę po jakiej użytkownik dotarł do danego
miejsca pozycjonowanego portalu. Jak twierdzi sam Google nawigacja okruszkowa zbudowana
w odpowiedni sposób pomaga zrozumieć i zaprezentować informacje występujące na stronie
internetowej w wynikach wyszukiwania [26]. Przykładowa nawigacja okruszkowa
prezentowana jest, nie za pomocą linków, a za pomocą słów (nazewnictw) wybranych przez
osobę tworzącą nawigację okruszkową. Słowa te są oddzielane znakiem „>” co dodatkowo
ułatwia użytkownikowi zrozumienie do którego miejsca na pozycjonowanej stronie odnosi się
wyświetlony wynik zapytania. Rysunek 13 przedstawia zrzut ekranu przykładowego wyniku
wyszukiwania strony używającej breadcrumb trail.
26
Źródło:
opracowanie własne na podstawie Google Developers [26][18].
Rysunek 13. Zrzut ekranu przykładowego wyniku wyszukania strony używającej breadcrumb trail.
Nawigacja okruszkowa bardzo pozytywnie wpływa na ocenę pozycjonowanego portalu
przez robota Google. Istotną informacją jest to, że po wejściu na stronę nie powinno być tzw.
selflinków. Oznacza to, że ostatni człon nawigacji okruszkowej, który wyświetla miejsce w
którym znajduje się użytkownik nie powinien być aktywny. Warto zadbać o dobrze
skonstruowaną nawigację okruszkową przy pozycjonowaniu większych serwisów
internetowych. Rysunek 14 przedstawia w jaki sposób poprawnie skonstruować nawigację
okruszkową na przykładzie produktów znajdujących się na stronie internetowej zajmującej się
sprzedażą damskich ubrań.
Źródło: opracowanie własne na podstawie Google Developers [26][18].
Rysunek 14. Zrzut ekranu przykładowego kodu HTML konstruującego nawigację okruszkową
27
3 Linkowanie
Linkowanie jest trzecim etapem pozycjonowania stron. Często zdarza się tak, że sama
optymalizacja strony wystarcza, aby osiągnąć pożądaną pozycję. Jednak, gdy pozycjonowana
strona została już poprawnie zoptymalizowana, a mimo to nadal nie udało się osiągnąć
odpowiedniej pozycji strony w wynikach wyszukiwania oznacza to, że konkurencja pod daną
frazą jest zwyczajnie zbyt duża. W takich sytuacjach odpowiednim rozwiązaniem jest
rozpoczęcie budowy mocnego profilu linkowego dla pozycjonowanej domeny. Profil linkowy
są to wszystkie odsyłacze, które prowadzą z innych domen do domeny pozycjonowanej. Na
profil linkowy składają się zarówno linki naturalne uzyskane ręcznie z mocnych i dobrze
ocenianych przez algorytmy Google stron, jak i te pozyskiwane sztucznymi metodami. Do
sztucznych metod można zaliczyć odsyłacze stworzone na przykład przez Systemy Wymiany
Linków lub zaplecza pozycjonerskie, które zostaną opisane w tym rozdziale.
Przy budowaniu profilu linkowego warto zwrócić uwagę, aby odnośniki prowadzące do
pozycjonowanego serwisu pochodziły ze stron możliwie jak najmniej zaspamowanych. Jeżeli
strona internetowa powstała tylko i wyłącznie po to, aby gromadzić linki do innych stron to jest
ona mało wartościowa. Odnośnik z takiej strony, może zamiast podwyższyć pozycję
pozycjonowanej strony w rankingu, pogorszyć ją. W takich przypadkach najlepiej jest na
bieżąco zrzekać się linków nienaturalnych jeżeli pozycjoner chce prowadzić politykę White
Hat SEO. Polityka to powstała wraz z zaostrzeniem filozofii Google dotyczącej
pozycjonowania. W momencie, gdy portal ten zaczął rygorystycznie karać pozycjonerów za
linki nienaturalne popularnymi zaczęły stawać się metody White Hat SEO do których zalicza
się między innymi linkowanie ręczne (naturalne). Wraz z powstaniem terminu White Hat SEO
naturalnie powstał termin przeciwny. Wszelkie metody niezgodne z filozofią firmy Google
zostały zgrupowane i określone terminem Black Hat SEO. Do grupy tej można zaliczyć między
innymi linki pozyskane za pomocą katalogów SEO lub stron internetowych szeroko
rozumianych jako Systemy Wymiany Linków.
Najlepsze efekty przynoszą ręczne formy zamieszczania odnośników na stronach
internetowych bardzo mocno zbliżonych tematycznie. Skuteczność zamieszczonego linku w
uzyskaniu wysokiej pozycji w rankingu zależy od popularności serwisu na którym ten link
zamieścimy. Dobrym przykładem może być serwis internetowy onet.pl [27]. Pozyskiwanie
linków na tego typu serwisach może być bardzo trudne. Jednakże, właśnie takie linki są
28
najbardziej wartościowe dla robota Google. W dalszej części tego rozdziału zostaną
przedstawione metody pozyskiwania odsyłaczy prowadzących do pozycjonowanej strony
internetowej.
3.1 Linkowanie naturalne
Linkowanie naturalne jest najbardziej żmudną metodą linkowania do pozycjonowanej
strony internetowej. Metoda ta polega na ręcznym zamieszczaniu linków na różnych serwisach.
Warto jednak pamiętać, że zamieszczanie samych linków na stronach to nie wszystko.
Odsyłacze należy odpowiednio zaprezentować. W tym celu używa się tekstów których długość
nie powinna być krótsza niż 400-500 znaków. Takie teksty powinno się tworzyć mając na
uwadze frazy pod które serwis ma być pozycjonowany. Zalecaną taktyką jest zastosowanie
pozycjonowanej frazy w stosunku 2/3 na każde 500 znaków. Oznacza to, że na każde 500
znaków można użyć frazy dwa razy oraz dodatkowo zamieścić tę frazę w odmianie (zgodnie z
zasadami języka polskiego) dodatkowe 3 razy. Gdy tekst zostanie już stworzony należy
zamieścić w nim odnośniki. Zamieszcza się je jako teksty kotwicy (ang. anchor text). Technika
ta polega na stworzeniu odsyłacza do odpowiedniej zakładki pozycjonowanej strony w taki
sposób, aby odsyłacz był jednocześnie tekstem (najlepiej frazą).
Warto pamiętać o tym, że algorytm Pingwin został stworzony po to, aby obniżać w
rankingach strony do których prowadzą linki z portali niskiej jakości. Doskonałym przykładem
takich portali są katalogi SEO, czyli serwisy powstałe wyłącznie w celach pozycjonerskich.
Rysunek 15 przedstawia zrzut ekrany przykładowego katalogu SEO dostępnego pod adresem
internetowym http://darmowykatalogseo.pl
29
Źródło: opracowanie własne na podstawie Darmowy Katalog SEO [28].
Rysunek 15. Przykład Katalogu SEO.
Największą wartość mają odnośniki zamieszczane na popularnych stronach, ale nie zawsze
jest to możliwe. W takich przypadkach zaleca się zamieszczanie linków przykładowo na
stronach partnerskich, jednakże tylko na takich których tematyka jest zbliżona do tematyki
strony pozycjonowanej. W przypadku braku stron partnerskich można odnaleźć w Internecie
tematyczne strony, które dają możliwość zamieszczania artykułów. Popularne jest tworzenie
całych wątków na forach internetowych i udzielanie odpowiedzi samemu sobie zamieszczając
link do pozycjonowanej strony i wyjaśnienie dlaczego akurat ta strona będzie pomocna w
rozwiązaniu wyimaginowanego problemu. Takie wątki pozostają w Internecie na bardzo długo
oraz spełniają dodatkową funkcję. Nie tylko zwiększają wartość pozycjonowanej strony
poprzez anchor teksty, ale także nakłaniają innych użytkowników do odwiedzania danej strony.
Umiejętne tworzenie takich wątków na forach jest ważną umiejętnością. Niestety takie
działania są bardzo czasochłonne i dlatego też są używane tylko w sporadycznych sytuacjach.
Należy pamiętać o czasie indeksacji. Gdy domena jest nowa (użyta pierwszy raz, a nie
odkupiona od kogoś) prawdopodobnie nie prowadzą do niej żadne odnośniki. W momencie,
gdy w Internecie zaczną pojawiać się w krótkich odstępach czasowych duże ilości artykułów
może to zostać uznane za SPAM. Nie należy doprowadzić do sytuacji w której z zerowego
profilu linkowego w tydzień powstaje profil zbudowany z setek odsyłaczy. Prawidłowym i
bezpiecznym podejściem jest zamieszczanie od dwóch do trzech linków na tydzień. Sprawa
30
wygląda nie co inaczej, gdy domena była już kiedyś używana i posiada jakiś profil linkowy. W
takich sytuacjach można publikować w Internecie większe ilości linków w tym samym czasie
(na przykład 7 artykułów z linkami do różnych podstron na tydzień). Dozwolona jest większa
ilość, gdyż i tak, Google nie zaindeksuje wszystkie jednego dnia.
Inną metodą jest zamieszczanie linków w komentarzach. Tutaj również należy robić to
umiejętnie. Wątek opisywany w artykule, który ma zostać skomentowany musi perfekcyjnie
pasować do tematyki pozycjonowanej strony. Jest to niezmiennie ważne w przypadku gdy
artykuł jest zamieszczony na popularnym serwisie. W takich sytuacjach osoby moderujące
portale mogą skasować komentarz. Dlatego też zawsze powinien wnosić on do dyskusji coś
więcej niż sam odnośnik. Istotne są również posty zamieszczane na serwisach
społecznościowych typu Facebook [29], czy Tweeter [30].
Kolejnym krokiem, który można uznać za linkowanie ręczne, to założenie w serwisie
Facebook strony dla fanów (fanpage). Publikowanie ciekawostek na fanpage’u i pozyskiwanie
ludzi, którzy będą ten fanpage obserwować również pozytywnie wpływa na pozycję strony w
Internecie. Istotnym elementem jest, aby powiązać fanpage wraz ze stroną pozycjonowaną.
Oznacza to, że w ustawieniach fanpage’u należy dodać odnośnik do pozycjonowanej strony
internetowej, a na samej stronie zamieścić wtyczkę społecznościową, która będzie umożliwiała
polubienie fanpage’u bezpośrednio z pozycjonowanej strony internetowej.
Gdy optymalizacja i zamieszczone odnośniki nie przynoszą żadnych efektów i
pozycjonowana strona nadal znajduje się na niskiej pozycji może to oznaczać, że Google nie
dostrzega na pozycjonowanej stronie wystarczającej ilości unikalnego tekstu. W takich
wypadkach można rozważyć stworzenie tematycznego bloga. Ważnym aspektem jest, aby blog
ten znajdować się na tej samej domenie co pozycjonowana strona, czyli http://domena.pl/blog.
Zamieszczenie strony na subdomenie nie przyniesie żadnych efektów. Dlatego nie należy
zamieszczać bloga na adresie typu http://blog.domena.pl. Regularne publikowanie postów na
blogu może znacznie poprawić pozycję strony w rankingu, a także poprawić wartość
merytoryczną pozycjonowanej strony. Podczas publikacji tekstów można dodatkowo wstawiać
odnośniki wewnątrz pozycjonowanego portalu tym samym dodatkowo poprawiając nawigację.
Gdy zostanie podjęta decyzja o stworzeniu boga, trzeba koniecznie zamieścić w menu link do
niego prowadzący. Ukrycie bloga znacznie utrudni robotowi Google jego zaindeksowanie, a
oznacza to, że teksty nie zostaną zauważone. Teksty zamieszczane na blogu powinny być
napisane w sposób poprawny językowo. Warto zadbać o to, aby teksty były również ciekawe.
31
Teksty niskiej jakości mogą zniechęcić potencjalnych klientów do podjęcia współpracy z firmą,
której strona internetowa jest pozycjonowana. Na rysunku 16 przedstawiono przykładowy tekst
optymalizacyjny dostępny na blogu firmy zajmującej się serwisem i montażem anten
satelitarnych.
Źródło: opracowanie własne na podstawie bloga SEO [31].
Rysunek 16. Przykładowy tekst zamieszczony na blogu serwisu montażowego anten satelitarnych.
3.2 Systemy wymiany linków
Kolejną metodą linkowania stron internetowych jest używanie Systemów Wymiany
Linków. Systemy te polegają na zrzeszaniu za pomocą portalu internetowego dużych ilości
pozycjonerów. Każdy z nich dodaje do bazy danych systemy swoje strony internetowe. Za
dodanie stron do bazy są nagradzani w dany sposób. System nagród jest swego rodzaju walutą
w danym systemie. Tą walutą pozycjonerzy mogą zapewnić sobie linki na innych stronach, a
32
cały ten proces jest w pewnym stopniu zautomatyzowany. W dalszej części tego podrozdziału
zostanie przedstawiony System Wymiany Linków Statlink [32].
Statlink określa sam siebie mianem „Systemu reklamy i promocji w Internecie”. System ten
jako jeden z pierwszych w Polsce zaczął odrzucać serwisy internetowe popularnie określane
jako SPAM. Każda strona internetowa, zanim zostanie zapisana w bazie zostaje sprawdzona
pod kontem zaindeksowania w wyszukiwarce Google i pod kontem nielegalnych lub
niecenzuralnych treści oraz SPAM. Oznacza to, że użytkownicy Statlink, nie są narażeni na
kary ręczne od Google’a spowodowane niskiej jakości odnośnikami.
System Statlink oferuje dwa rodzaje stałych linków. Pierwszy rodzaj są to linki przydzielane
algorytmicznie. Jest to bardziej popularny sposób pozyskiwania odsyłaczy. Od użytkowników
pobierane są punkty za każdy link przydzielony przez algorytm systemu. Punkty te otrzymują
właściciele stron na których dany link został zamieszczony. Punkty pobierane są raz w
miesiącu, licząc od dnia zamieszczenia linku (włącznie).
System oferuje również przydzielanie linków metodą ręczną. Za te linki punkty nie są
pobierane, ponieważ istnieje możliwość zamieszczania odnośników tylko na własnych
zasobach. Te metoda jest raczej mało popularna, ponieważ nie każdy pozycjoner posiada na
tyle liczny zbiór własnych stron internetowych, aby móc zamieszczać na nich odnośniki do
stron pozycjonowanych.
W sytuacjach, gdy pozycjoner jest początkujący i nie posiada własnych zasobów jest
zmuszony do korzystania z obcych zasobów za które musi płacić punktami Statlink. Taka osoba
nie jest w stanie sama zarobić odpowiedniej ilości punktów. Odpowiedzią na takie problemy
ze strony Systemu Statlink jest transfer punktów. Użytkownicy odkupują od siebie punkty w
pakietach (po tysiąc punktów w pakiecie). Na chwilę obecną cena takiego pakietu kształtuje się
w okolicach dwudziestu złotych. Pakiety punktów można znaleźć chociażby na popularnym
serwisie aukcyjnym Allegro [33]. Istnieje również wiele stron internetowych założonych przez
ludzi, którzy odsprzedają punkty Statlink w atrakcyjnych cenach. Jednym z bardziej
popularnych jest serwis Punkty SEO [34].
Po zarejestrowaniu się w systemie Statlink i zakupieniu punktów można przystąpić do
tworzenia profilu linkowego pozycjonowanej domeny. W tym celu należy przejść do panelu
użytkownika i kliknąć w sekcję „Twoje linki”. W tym miejscu wszelkie operacje możliwe do
33
wykonania są zakwalifikowane do czterech różnych grup. Każda z tych grup zostanie dokładnie
opisana.
Grupa: „Nowy link”
W tym miejscu można dodać całą grupę linków dla danej frazy (anchor tekstu). W
pierwszym polu „adres url linka” wprowadzamy adres do podstrony która ma być
pozycjonowana. Standardowo w tym polu jest zamieszczony pierwszy człon odnośnika (www).
Jest on dobrym przypomnieniem o tym, aby nie zamieszczać odnośników do podstrony, która
przekierowuje na kolejną podstronę. Jeżeli optymalizując kod HTML zdecydowaliśmy się na
przekierowanie z adresy z przedrostkiem WWW na taki bez tego przedrostka można naturalnie
przedrostek WWW skasować z pierwszego pola.
Kolejne pole formularza służy do zamieszczenia frazy która ma być zamieszczona w
tekstach kotwicy. Jest ona również frazą na którą będzie pozycjonowana dana podstrona.
Podczas wprowadzania anchor tekstu należy pamiętać o polskich znakach. Zdecydowanie
lepiej jest zamieszczać frazę z polskimi znakami. W takich wypadkach, gdy ktoś wyszuka
odpowiednik danej frazy w wyszukiwarce nie używając polskich znaków to w najgorszym
wypadu dana strona wyświetli się 3 pozycje niżej niż powinna. Gdybyśmy postąpili inaczej i
zamieścili w tym polu adres strony bez polskich znaków, istniało by bowiem ryzyko, że
użytkownik, który tych znaków użyje w ogóle nie zobaczy w wynikach pozycjonowanej
domeny. Jednakże zdarzają się przypadki w których lepiej jest użyć mało dokładnej pisowni.
Świetnym przykładem jest sytuacja w której zadaniem pozycjonera jest pozycjonowanie nazwy
firmy, której pisownia jest na tyle skomplikowana, że klienci lubią ją sobie upraszczać.
Konieczną do zrobienia czynnością jest wybranie z listy kategorii takiej która najlepiej
opisuje pozycjonowaną podstronę. System będzie starał się zamieszczać odnośniki głównie w
wybranej przez użytkownika kategorii. W przypadku, gdy w danej kategorii zabraknie miejsca
Statlink automatycznie zacznie zamieszczać linki w stronach z innych kategorii. Można tego
uniknąć odznaczając opcję „Gry zabraknie miejsca w wybranej Kategorii przydzielaj w innych
Kategoriach”. Zaleca się zamieszczanie odnośników tylko na stronach zbliżonych tematycznie,
niestety nie zawsze jest to możliwe. Warto na początku spróbować wykluczyć linki nie
związane tematycznie, a gdy przyrost będzie zbyt wolny, można tę opcję ponownie zaznaczyć.
34
Dzięki dwóm kolejnym funkcjom można ustawić preferencje dotyczące wartości PageRank
stron na których będą publikowane odnośniki. Użytkownik może wybrać zarówno strony o
PageRanku wyższym od zera jak i równym zero. Słuszność wyboru tej opcji zależy od danej
sytuacji. W wypadku, gdy domena jest nowa, warto wybrać opcję umożliwiającą publikację
linków na stronach o zerowej wartości PageRank. Same odnośniki prowadzące ze stron o
wysokim PageRank mogą wyglądać na próbę oszustwa, a kilka mało wartościowych linków z
pewnością poprawi wiarygodność profilu linkowego domeny. Kolejnym aspektem na który
warto zwrócić uwagę jest to, że stron o zerowym poziomie PageRank jest znacznie więcej.
Dlatego też w przypadku wybrania opcji przydzielania linków ze stron o poziomie PageRank
równym zero przyrost odnośników z pewnością będzie o wiele szybszy.
Kolejna opcja okazuje się przydatna tylko w wypadku, gdy pozycjonowana domena posiada
już rozbudowany profil linkowy. W takich sytuacjach pozycjonerowi powinno zależeć tylko na
wartościowych linkach, gdyż opłacanie bezwartościowych (w tej sytuacji) odnośników może
mijać się z celem. System na prośbę użytkownika może wycofywać linki, które początkowo
zostały przydzielone z powodu posiadania PageRank powyżej zera. Gdy PageRank takiej
strony zostanie zmieniony na zero system automatycznie usunie wszystkie linki prowadzące do
pozycjonowanej podstrony.
„Przyrost/spadek dzienny” odpowiada za ilość linków która może zostać maksymalnie
przydzielona w ciągu jednego dnia lub tygodnia dla danej frazy. To pole umożliwia dokładne
sprecyzowanie wybranej przez pozycjonera strategii. Bezpiecznym rozwiązaniem jest
ustawienie publikacji na poziomie jednego odnośnika co 2 lub 3 dni. Taka częstotliwość
publikacji nie powinna okazać się szkodliwa dla pozycjonowanej domeny. W przypadku, gdy
konkurencja dla wyszukań pozycjonowanej frazy jest bardzo wysoka, można ustawić większą
częstotliwość. Niestety w przypadku wcześniej dokonanego wyboru o niepublikowaniu
odnośników na stronach o PageRank równym zero częstotliwość może okazać się mniejsza od
tej którą wybrał pozycjoner. Wynika to z ilości stron, które są zapisane w bazie danych systemu
dla wybranej przez pozycjonera kategorii.
Kolejne pole określa docelową liczbę linków która zostanie opublikowana dla danej frazy.
Warto ograniczyć ilość opublikowanych linków, ponieważ w przypadku pozostawienia
wartości „0” (która jest wpisana docelowo), system będzie publikował linki tak długo aż
skończą się posiadane punkty na koncie użytkownika. Ograniczeniem minimalnym jakie
można wprowadzić to 25 odnośników. Zawsze warto ograniczyć publikacje właśnie taką liczbą.
35
Publikacja 25 linków z ustawioną częstotliwością co 3 dni potrwa minimum 8 tygodni. Przez
taki czas może się okazać, że jest to optymalna ilość do uzyskania odpowiedniej pozycji dla
pozycjonowanej domeny. Gdy po osiągnięciu górnej granicy 25 odnośników, pozycja nadal nie
ulegnie zmianie, można zdecydowanie tę granicę zwiększyć.
Następna funkcja służy do wybrania ile z opublikowanych linków ma dodatkowo być
opatrzona parametrem nofollow. Wartość ta jest wyrażana w procentach, a linki wybierane są
losowo. W przypadku, gdy górna granica ilości opublikowanych linków wynosi 25, pozycjoner
nie powinien wprowadzać w tym miejscu żadnej wartości. Mała ilość linków nie potrzebuje
dodatkowo parametru, który nie będzie pozwalał robotowi Google dotrzeć do pozycjonowanej
strony. Sytuacja ulega zmianie, gdy liczba opublikowanych linków jest znacznie wyższa. W
takim przypadku zalecane jest wręcz zamieszczenie kilku procent linków nofollow.
Kolejna funkcja oferuje śledzenie pozycji linkowanej frazy w TOP100 rankingu Google’a
pod danym zapytaniem. Jest ona bardzo przydatna ponieważ przedstawia jak kształtował się
średnio wynik pozycjonowanej frazy na przestrzeni ostatnich 7 tygodni. Wyniki pozycji dla
pozycjonowanej frazy są jednak widoczne dopiero po osiągnięciu minimalnej ilości
przydzieleń odnośników, która wynosi 25. Dodatkowo po włączeniu funkcji śledzenia pozycji
w wyszukiwarce Google pojawia się opcja dodatkowa – „Pozycja STOP”. To narzędzie
zatrzyma publikacje linków w sytuacji, gdy pozycjoner obierze za górną granicę ilości
przydzieleń linków liczbę większą od 25, a po publikacji tych 25 linków system zwróci
informację, że linkowana domena osiągnęła już odpowiednią pozycję w rankingu. Dodatkowo
system automatycznie wznowi publikacje odnośników, gdy pozycja zmieni się na niekorzyść
osoby pozycjonującą domenę. System umożliwia również ustawienie powiadomienia o
uzyskaniu oczekiwanej pozycji.
Następna opcja oferowana przez Statlink umożliwia uzupełnianie brakujących linków. Do
takiej sytuacji może dojść w momencie, gdy odnośniki prowadzące do pozycjonowanej strony
zostały zamieszczone na stronach które, zostały usunięte z systemu z powodu zaprzestania
spełniania wymogów jakościowych serwisu Statlink. Zaleca się używanie tej funkcjonalności,
ponieważ może dojść do sytuacji w której ilość odnośników do pozycjonowanej podstrony
drastycznie spadnie, przy czym pozycja w rankingu Google pozostanie bez zmian. Jeżeli ilość
linków nie zostanie uzupełniona roboty mogą uznać, że jakość treści zawartej na
pozycjonowanej strony zmieniła się na gorszą co w efekcie obniży pozycję pozycjonowanej
strony. Używanie opcji uzupełniania odnośników zapobiega powstawaniu takich sytuacji.
36
Funkcja „Twoja Grupa” pozwala dodatkowo na utrzymaniu porządku w pozycjonowanych
frazach. Można utworzyć grupy według uznania i pozamieszczać w nich frazy. Ta funkcja nie
ma jednak żadnego wpływu na pozycję strony. Dodatkowo w sytuacji, gdy użytkownik
wprowadził od systemu własne strony internetowe warto zaznaczyć opcję „Nie promuj na
moich stronach”. Gdy użytkownik chce zamieścić odnośniki na własnych stronach z pewnością
lepiej jest zrobić to ręcznie, ponieważ takie zamieszczanie linków przynosi o wiele lepsze
efekty niż linki publikowane przez Systemy Wymiany Linków. Po odpowiednim wypełnieniu
całego formularza, można zaakceptować wprowadzone informacje za pomocą przycisku
„DODAJ”. Wygląd formularza został przedstawiony na rysunku 17.
Źródło: opracowanie własne na podstawie formularza dodawania linków [32].
Rysunek 17. Przykład prawidłowo wypełnionego formularza dodawania linków w systemie Statlink.
37
Grupa: „Statystki Disavow”
Grupa „Statystyki Disavow” odpowiada za usuwanie odnośników zamieszczonych na
niepożądanych stronach internetowych. Użytkownik może chcieć usunąć odnośniki z dwóch
powodów. Głównym powodem zazwyczaj jest pojawienie się komunikatu w panelu Google
Webmaster Tools o niewiarygodności danej domeny linkującej i o nałożeniu kary ręcznej do
momentu zrzeknięcia się odnośników z tej domeny. Drugim powodem może być samodzielna
decyzja użytkownika systemu o usunięciu odnośników. Bardziej doświadczeni pozycjonerzy
potrafią sami zidentyfikować mało wartościowe domeny, które mogą źle wpłynąć na pozycję
pozycjonowanej strony w rankingu Google’a.
Zgłoszenie z prośbą o usunięcie niechcianych linków może mieć charakter pojedynczego
zgłoszenia bądź listy zgłoszeń. W przypadku, gdy użytkownik otrzymał komunikat z Google
Webmaster Tools o wielu spamerskich adresach linkujących do pozycjonowanej strony to może
on jednorazowo zgłosić do 50 adresów lub domen. Adresy powinny zostać oddzielone znakiem
nowej linii.
Po wypełnieniu formularza i zaakceptowania go za pomocą przycisku „USUŃ
LOKALIZACJĘ LINKÓW” dochodzi do trzech rzeczy. Na początku zgłoszone linki zostają
usunięte z niechcianych adresów lub domen. Następnie niechciane adresy i domeny zostają
dodane do czarnej listy użytkownika, której zadaniem jest zapobieganie w przyszłości
powstawaniu takich sytuacji. Efektem końcowym jest zwrócenie użytkownikowi listy
odnośników, które do tej pory nie zostały zgłoszone właśnie przez tego użytkownika oraz te
które nie mogły zostać usunięte ponieważ nie znajdują się na liście odnośników linkujących do
pozycjonowanych stron internetowych. W przypadku, gdy zwrócony komunikat zawiera w
sobie jakieś linki, prawdopodobnie oznacza to, że przy zgłaszaniu niechcianych adresów doszło
do pomyłki i należy zweryfikować wszystkie zwrócone odnośniki.
Funkcja „Statlink Disavow” jest bardzo przydatna ponieważ nie zmusza użytkownika do
zrzekania się odnośników za pomocą Google Webmaster Tools. Dodatkowo, przed wysłaniem
zgłoszenia istnieje możliwość oznaczenia niechcianych adresów etykietą „adresy pochodzą z
powiadomienia GWT”, która dodatkowo zwiększa bezpieczeństwo pozycjonowanych stron,
ponieważ po głębszej weryfikacji, strony oznaczone tą etykietą mogą zostać usunięte ze stron
38
partnerskich Systemy Wymiany Linków Statlink. Wygląd formularza został przedstawiony na
rysunku 18.
Źródło: opracowanie własne na podstawie funkcji Disavow [32].
Rysunek 18. Wygląd formularza zrzekania się adresów zawierających odsyłacze do pozycjonowanej strony.
Grupa: „Statystyka”
Grupa „Statystyka” odpowiada za prezentację najpotrzebniejszych informacji, które zostały
podzielone są na trzy bloki. Pierwszy blok odpowiada za wyświetlanie informacji odnośnie
standardowych linków, drugi blok odpowiada za informacje dotyczące linków Gold. Warto
wiedzieć że funkcjonalność Gold różni się od Standard tym, że w przypadku Gold linki
publikowane są na wszystkich podstronach serwisu, a w przypadku Standard tylko na jednej z
podstron partnerskiego serwisu. Trzeci, ostatni blok przedstawia na wykresie poglądowy
wykres zużywanych przez użytkownika systemu zasobów.
W dwóch pierwszych blokach prezentowane są informacje o ilości stron, które użytkownik
wprowadził do systemu, a także ile Punktów za te wprowadzone strony otrzymał. Widoczna
jest również informacja o ilości punktów, które zostały przyznane za długość stażu danej strony
39
w systemie oraz za unikalne adresy IP serwerów na których strony te się znajdują. System
przedstawia także informację o tym, ile stron linkuje użytkownik i na ilu portalach te linki są
zamieszczane, a także ile łącznie pobranych zostało za odnośniki punktów w danym okresie
rozliczeniowym. Nie brakuje również informacji ile punktów zostało przetransferowane na
konto użytkownika. Dodatkowo system przedstawia informację o średnim koszcie za jeden link
(wyrażanej w punktach) oraz o maksymalnej ilości punktów uzyskanych za jedną stronę (wśród
wszystkich użytkowników systemu Statlink).
Trzeci blok prezentuje poglądowy wykres monitorujący zasoby użytkownika. Dane
widoczne są na przestrzeni trzech ostatnich miesięcy i dotyczą ilości linkowanych stron, a także
kosztów i ilości przydzielonych odnośników.
Grupa „Statystyka” jest nie mniej potrzebna od dwóch poprzednich. Dzięki niej użytkownik
może w szybki i łatwy sposób dowiedzieć się na przykład ile punktów może nadal wykorzystać
w danym miesiącu. Jest to bardzo istotna informacja, gdyż w momencie wykorzystania puli
punktów system wstrzymuje dalsze publikowanie odnośników. Wygląd grupy „Statystyka”
został przedstawiony na rysunku 19.
Źródło: opracowanie własne na podstawie statystyk Statlink [32].
Rysunek 19. Wygląd grupy „Statystyka” dla użytkownika pozycjonującego dwa adresy internetowe.
40
Grupa: „Lista linków”
Ostatnia grupa umożliwia podgląd wprowadzonych wartości za pomocą funkcji dodawania
nowych linków. W tej sekcji zostają zaprezentowane takie informacje jak globalny numer ID
przydzielony do pozycjonowanej strony oraz link, który do niej prowadzi. Obok można
zobaczyć frazę pod którą jest pozycjonowana dana strona internetowa. Następnie wyświetlana
jest informacja o tym, czy system nadal dodaje linki czy też automat został wstrzymany z
powodu osiągnięcia docelowej liczby linków lub odpowiedniej pozycji strony w rankingu.
Widoczne są również takie informacje jak ilość przydzielonych linków z parametrem nofollow,
ilość przydzielonych linków oraz datę ostatniego przydzielenia. Dalej można sprawdzić czy
strona jest promowana na domenach dodanych przez użytkownika, na stronach o jakim
PageRanku są publikowane linki oraz czy system reaguje za zmiany PageRank. Następnie
prezentowane są informację o tym, czy w razie ograniczonej ilości linków w wybranej przez
użytkownika kategorii system będzie przydzielał odsyłacze w innych kategoriach oraz czy w
przypadku wycofania odsyłaczy system będzie je uzupełniał. Prezentowana jest również łączna
ilość punktów jaką system pobiera za odsyłacze prowadzące do danej domeny, pozycja w
rankingu Google TOP100, pozycję przy której system zaprzestanie publikować linki oraz
kategorię do której zakwalifikowaliśmy pozycjonowaną domenę.
Statlink umożliwia również wyszukiwanie pozycjonowanych domen oraz sortowanie ich
względem grup użytkownika, które sam stworzył w celu zachowania względnego porządku na
liście pozycjonowanych adresów. W tej sekcji można również usunąć odnośniki prowadzące
do danego adresu internetowego, a także dowolnie je edytować. Edycja dodanych linków
okazuje się przydatna najczęściej w sytuacji, gdzie została osiągnięta górna granica przydzieleń
odnośników, a pozycjonowana strona nadal nie znajduje się na oczekiwanym miejscu w
rankingu Google. W takich sytuacjach należy zwiększyć dopuszczalną ilość przydzieleń linków
lub rozważyć powrót do etapu optymalizacji kodu HTML pozycjonowanego serwisu, gdyż być
może jakiś poważny problem został przeoczony lub celowo pominięty z powodu zbyt małej
ilości czasu lub funduszy. Warto dokonać edycji również w przypadku, gdy od rozpoczęcia
procesu tworzenia profilu linkowego domeny minęło dużo czasu, a górna granica przydzieleń
nadal nie została osiągnięta. W takim przypadku warto rozważyć przydzielanie odnośników ze
stron z innych kategorii tematycznych lub stron o poziomie PageRank równym 0. Przykładowa
lista linków została przedstawiona na rysunku 20.
41
Źródło: opracowanie własne na podstawie listy linków systemu Statlink [32].
Rysunek 20. Wygląd grupy „Lista linków” dla użytkownika pozycjonującego dwa adresy internetowe.
Wykaz stron emitujących linki
Niezwykle problematyczne okazują się odnośniki, których jakość znacznie odbiega od
standardowej jakości oferowanej przez System Statlink. Osoba pozycjonująca daną domenę ma
możliwość zweryfikowania wszystkich przydzielonych odsyłaczy za pomocą narzędzia
wykazującego strony emitujące linki. Pozycjoner powinien zdecydować się na weryfikacje
wszystkich odsyłaczy w przypadku, gdy pozycja w ranking nagle znacznie spadła.
Narzędzie „Wykaz stron emitujących linki” jest listą wszystkich domen wygenerowanych
przez System które zawierają odnośniki do pozycjonowanej strony internetowej. Dodatkowo
każdy z adresów ma przypisaną liczbę porządkową, datę przydzielenia odnośnika, wartość
PageRank domeny, pole umożliwiające wprowadzenie opisu niezgodności odsyłacza oraz
opcję usuwania linku.
Pole zawierające odnośnik prowadzący do pozycjonowanej domeny w wielu przypadkach
jest częściowo zakrywane przez „gwiazdki”. Odnośniki zostają całkowicie odkryte dopiero w
momencie, gdy na przestrzeni trzech miesięcy zostanie przydzielone minimum 5000
odnośników. Minimalna granica przydzieleń jest wysoka i nie każdy użytkownik potrzebuje,
aż tyle odsyłaczy (w przypadku fraz łatwych do wypozycjonowania zazwyczaj wystarcza 25
przydzieleń). Statlink zakrywa znaki w odnośnikach w sposób losowy. Dlatego też w celu
uzyskania pełnego adresu można zwyczajnie odświeżyć stronę ujawniając w ten sam sposób
brakujące wcześniej znaki.
42
W sytuacji wykrycia przez użytkownika przydzieleń niskiej jakości można je zwyczajnie
usunąć. W wielu przypadkach skasowanie linków niskiej jakości może polepszyć pozycję
strony internetowej. Warto jednak pamiętać, że niska pozycja nie zawsze jest spowodowana
nietrafnymi przydzieleniami. Często pozycję może polepszyć ponowna optymalizacja strony
internetowej. Warto również upewnić się, czy przypadkiem na pozycjonowanej stronie nie
zostały wprowadzone zmiany przez klienta. Przykładowa lista stron emitujących linki została
przedstawiona na rysunku 21.
Źródło: opracowanie własne na wykazu stron emitujących linki w systemie Statlink [32].
Rysunek 21. Wygląd listy stron emitujących linki dla przykładowego użytkownika.
3.3 Prywatne zaplecza
Linkowanie może odbywać się również za pomocą prywatnego zaplecza pozycjonerskiego.
Zaplecza działają w bardzo podobny sposób do Systemów Wymiany Linków. Różnica
pomiędzy nimi polega na tym, że prywatne zaplecza charakteryzują się o wiele wyższą jakością
odsyłaczy. Stworzenie i utrzymanie własnego zaplecza pozycjonerskiego wymaga dużych
nakładów pieniężnych i dlatego też mogą sobie na nie pozwolić tylko większe firmy
pozycjonerskie.
43
Zasady dodawania odnośników zależą głównie od tego w jaki sposób przygotuje je
programista, ale głównie działanie polega na stworzeniu bazy danych zawierającej wiele domen
na których można zamieszczać linki oraz zautomatyzowanie całego procesu za pomocą
odpowiednio napisanego kodu w języku wysokiego poziomu (np. PHP). W celu ułatwienia
dostępu do zaplecza prezentuje się wyniki jego działania za pomocą kodu HTML oraz
Kaskadowych Arkuszy Stylu. Dokładne opisanie działania prywatnego zaplecza
pozycjonerskiego niestety jest niemożliwe. Firmy dokładnie strzegą informacji dotyczących ich
prywatnych zaplecz. Pracownik chcący podjąć pracę w firmie zazwyczaj jest zobowiązany do
podpisania dokumentu świadczącego o tym, że nie będzie udostępniał zawartości i informacji
dotyczących danego zaplecza pod groźbą kary pieniężnej.
Efekty linkowania strony internetowej przy użyciu prywatnego zaplecza można porównać
do efektów uzyskanych linkowaniem ręcznym. Warto pamiętać, że samo zamieszczanie
odsyłaczy jest w pewnym stopniu zautomatyzowane i ogranicza się zaledwie do wypełnienia
kilku pól w formularzu publikującym linki. Dzięki temu samo przydzielanie odsyłaczy jest
znacznie szybsze niż w przypadku linkowania ręcznego, a dodatkowo bardziej skuteczne niż
używanie Systemów Wymiany Linków. Jednakże dostęp do zaplecz pozycjonerskich jest
ograniczony głównie do pracowników większych firm.
44
Zakończenie
Pierwszy etap pozycjonowania jakim jest przygotowanie listy fraz i zbadanie błędów
występujących na stronie często decyduje o tym, czy klient będzie zadowolony z uzyskanych
efektów. Nie zawsze uzyskanie pierwszego miejsca w rankingu Google’a oznacza, że sprzedaż
w firmie ulegnie zmianie na korzyść klienta. Dlatego ważne jest dokładne dobranie słów
kluczowych i fraz pod jakimi strona powinna być wyświetlana. W trakcie dobierania listy fraz
nie można zapomnieć o takich czynnikach, jak liczba kliknięć w link dla danej frazy oraz liczba
jej wyszukań na przestrzeni miesiąca. Warto również dokładnie zbadać błędy występujące na
stronie i jak najbardziej je zminimalizować. Ilość przychodów ze strony lub sklepu
internetowego często zależy od jakości oraz ilości prezentowanych informacji na stronie
internetowej. Warto wykorzystywać narzędzia, które udostępnia firma Google. Narzędzia dla
Webmasterów Google znacznie ułatwiają przeprowadzenie kolejnego etapu jakim jest
optymalizacja.
Etap drugi, czyli optymalizacja kodu strony internetowej jest najbardziej czasochłonnym
etapem. Czas włożony w optymalizację serwisu jest jednak adekwatny do uzyskanych efektów.
Sama optymalizacja kodu HTML często okazuje się kluczowa. Przed rozpoczęciem procesu
optymalizacji kodu warto najpierw odpowiednio przebadać stronę za pomocą narzędzia o
nazwie Screaming Frog SEO Spider Tool. Narzędzie to potrafi w przejrzysty sposób
zaprezentować wszystkie informacje na temat większości podstron pozycjonowanego serwisu
internetowego. W samej optymalizacji są elementy mniej i bardziej znaczące. Na początku
warto zadbać o zupełne wyeliminowanie duplikatów treści z pozycjonowanego serwisu
internetowego oraz o odblokowanie strony dla robotów Google. Następnie warto zadbać o
unikalne treści zarówno na stronie jak i w jej meta znacznikach (title, description). Dopiero po
dokonaniu tych kilku najważniejszych czynności warto zagłębić się w mniej znaczące rzeczy,
takie jak znaczniki keywords i alternatywne opisy obrazków (alt) czy też ulepszanie nawigacji
wewnątrz pozycjonowanej strony internetowej.
Trzeci etap, czyli budowanie profilu linkowego powinno odbywać się dopiero po kilku
tygodniach. Warto odczekać trochę czasu, aby dowiedzieć się jakie efekty przyniosła sama
optymalizacja serwisu. Czas potrzebny na zaindeksowanie zmian wprowadzonych na stronie
internetowej jest różny dlatego ciężko stwierdzić po jakim czasie warto rozpocząć budowanie
profilu linkowego domeny. Jednakże zazwyczaj zmiany są dostrzegane w pierwszym miesiącu
45
po dokonaniu zmian. Dopiero wtedy można rozpocząć linkowanie domeny. W przypadku, gdy
użytkownik nie ma dostępu do prywatnego zaplecza pozycjonerskiego powinien zamieszczać
zarówno linki metodą ręczną jak i za pomocą Systemów Wymiany Linków. Samo korzystanie
z Systemów Wymiany Linków może wydawać się o wiele szybsze i łatwiejsze, jednakże warto
pamiętać, że linki zamieszczone metodą ręczną zawsze będą wyższej jakości od tych
przydzielonych przez system. To właśnie linki wysokiej jakości decydują o tym, na której
pozycji znajdzie się pozycjonowana strona internetowa.
Pozycjonowanie stron internetowych to bardzo złożony i czasochłonny proces. Każdy z
opisanych etapów pozycjonowania jest istotny i żadnego nie powinno się omijać, ani
przyspieszać kosztem straty na jakości wykonywanych czynności. Wszystkie przedstawione
przez autora narzędzia, metody optymalizacji kodu HTML oraz sposoby budowania profilu
linkowego zostały wykorzystane przy pozycjonowaniu serwisów internetowych lokalnych
przedsiębiorców. Przy zastosowaniu wyżej opisanych metod autorowi udało się osiągnąć
pierwszą pozycję dla strony internetowej lokalnego serwisu AGD oraz drugie miejsce dla
strony internetowej krajowej firmy kurierskiej.
46
Bibliografia
[1] Encyklopedia Helionica, ARPANET, http://helionica.pl/index.php/ARPANET
(dostęp: 10 stycznia 2015r.)
[2] Encyklopedia Helionica, World Wide Web, http://helionica.pl/index.php/Www
(dostęp: 10 stycznia 2015r.)
[3] Encyklopedia Helionica, Historia Internetu,
http://helionica.pl/index.php/Historia_Internetu
(dostęp: 10 stycznia 2015r.)
[4] Google Support, Sprawdzanie jak ważna jest strona według PageRank,
https://support.google.com/toolbar/answer/79837?hl=pl
(dostęp: 15 stycznia 2015r.)
[5] Chitika, The Value of Google Result Positioning,
http://cdn2.hubspot.net/hub/239330/file-61331237-pdf/ChitikaInsights-
ValueofGoogleResultsPositioning.pdf
(dostęp: 18 stycznia 2015r.)
[6] Whitepress, Panda, Pingwin i inne zmiany w wyszukiwarce Google,
https://www.whitepress.pl/baza-wiedzy/24/panda-pingwin-i-inne-zmiany-w-
wyszukiwarce-google
(dostęp: 18 stycznia 2015r.)
[7] Google Support, Więcej informacji o programowaniu witryn na komórki,
https://support.google.com/webmasters/answer/72462?hl=pl
(dostęp: 18 stycznia 2015r.)
[8] Google Support, Wskazówki dla webmasterów,
https://support.google.com/webmasters/answer/35769?hl=pl
(dostęp: 18 stycznia 2015r.)
[9] Google Support, Prośby o ponowne rozpatrzenie zgłoszenia,
https://support.google.com/webmasters/answer/35843
(dostęp: 18 stycznia 2015r.)
[10] Google AdWords, Narzędzie, http://www.google.pl/adwords/
(dostęp: 05 marca 2015r.)
[11] Google Webmaster Tools, Narzędzie, https://www.google.com/webmasters/
(dostęp: 05 marca 2015r.)
47
[12] Google Support, Roboty Google
https://support.google.com/webmasters/answer/1061943?hl=pl
(dostęp 05 marca 2015r.)
[13] Google Support, Informacje o mapach witryny
https://support.google.com/webmasters/answer/156184?hl=pl
(dostęp 05 marca 2015r.)
[14] Google Analytics, Narzędzie, http://www.google.com/analytics/
(dostęp: 05 marca 2015r.)
[15] Screaming Frog SEO Spider, Narzędzie,
http://www.screamingfrog.co.uk/seo-spider/
(dostęp: 06 marca 2015r.)
[16] Screaming Frog SEO Spider, Licencja narzędzia,
https://www.screamingfrog.co.uk/seo-spider/licence/
(dostęp: 06 marca 2015r.)
[17] Encyklopedia Helionica, World Wide Web Consortium,
http://www.helionica.pl/index.php/W3C
(dostęp: 20 kwietnia 2015r.)
[18] Google Support, Zrzekanie się linków,
https://support.google.com/webmasters/answer/2648487?hl=pl
(dostęp: 20 kwietnia 2015r.)
[19] Google Support, Zmiana URL-i stron za pomocą przekierowań 301,
https://support.google.com/webmasters/answer/2648487?hl=pl
(dostęp: 27 kwietnia 2015r.)
[20] Pomoc home.pl, Przekierowanie 301 w pliku .htaccess,
https://pomoc.home.pl/baza-wiedzy/przekierowanie-301-w-pliku-htaccess/
(dostęp: 20 kwietnia 2015r.)
[21] Google Support, Stosowanie kanonicznych URL-i,
https://support.google.com/webmasters/answer/139066?hl=pl
(dostęp: 23 kwietnia 2015r.)
[22] Google Support, Sprawdzanie tytułów i fragmentów stron,
https://support.google.com/webmasters/answer/35624?rd=1
(dostęp 23 kwietnia 2015r.)
48
[23] Google Webmaster Central Blog, Google does not use keywords meta tag in
webranking, http://googlewebmastercentral.blogspot.com/2009/09/google-does-
not-use-keywords-meta-tag.html
(dostęp: 23 kwietnia 2015r.)
[24] Google Support, Metatagi, które Google potrafi zinterpretować,
https://support.google.com/webmasters/answer/79812?hl=pl
(dostęp: 23 kwietnia 2015r.)
[25] Google Support, Grafika,
https://support.google.com/webmasters/answer/114016?hl=pl
(dostęp: 23 kwietnia 2015r.)
[26] Google Developers, Breadcrumbs,
https://developers.google.com/structured-data/breadcrumbs
(dostęp: 23 kwietnia 2015r.)
[27] Onet.pl, Serwis Informacyjny, http://www.onet.pl/
(dostęp: 15 maja 2015r.)
[28] Darmowy Katalog SEO, Katalog SEO, http://darmowykatalogseo.pl/
(dostęp: 31 maja 2015r.)
[29] Facebook, Portal społecznościowy, https://www.facebook.com/
(dostęp: 31 maja 2015r.)
[30] Tweeter, Portal społecznościowy, https://twitter.com/?lang=pl
(dostęp: 31 maja 2015r.)
[31] Serwis Ansat, Telewizja DVB-T,
http://www.antenoweuslugiansatpoznan.com.pl/telewizja-dvb-t
(dostęp: 31 maja 2015r.)
[32] Statlink, System Wymiany Linków, http://www.statlink.pl/
(dostęp: 31 maja 2015r.)
[33] Allegro, Serwis aukcyjny, http://www.allegro.pl/
(dostęp: 31 maja 2015r.)
[34] Punkty SEO, Sklep z punktami Statlink, http://www.punkty-statlink.pl/
(dostęp: 31 maja 2015r.)