paweł budynek metody optymalizacji i pozycjonowania stron

48
Paweł Budynek Metody optymalizacji i pozycjonowania stron internetowych Methods of search engine optimization Praca licencjacka Promotor: dr inż. Rafał Wojciechowski KIERUNEK: Informatyka i ekonometria SPECJALNOŚĆ: E-biznes KATEDRA: Technologii Informacyjnych Poznań 2015

Upload: dinhtruc

Post on 11-Jan-2017

218 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: Paweł Budynek Metody optymalizacji i pozycjonowania stron

Paweł Budynek

Metody optymalizacji i pozycjonowania stron internetowych

Methods of search engine optimization

Praca licencjacka

Promotor: dr inż. Rafał Wojciechowski

KIERUNEK: Informatyka i ekonometria

SPECJALNOŚĆ: E-biznes

KATEDRA: Technologii Informacyjnych

Poznań 2015

Page 2: Paweł Budynek Metody optymalizacji i pozycjonowania stron

2

Spis treści

Wstęp 3

1 Narzędzia wspomagające efektywne pozycjonowanie 5

1.1 Podstawowe informacje o pozycjonowaniu stron internetowych 5

1.2 Google AdWords 7

1.3 Google Webmaster Tools 10

1.4 Google Analytics 13

1.5 Screaming Frog SEO Spider 14

2 Analiza metod optymalizacji stron internetowych w celu zwiększenia jakości pozycjonowanego

serwisu 16

2.1 Naprawianie złego profilu linkowego domeny 16

2.2 Usuwanie duplikatów treści występujących na stronie 17

2.3 Tworzenie znaczników META w sekcji HEAD 19

2.4 Tworzenie atrybutów ALT 23

2.5 Nawigacja wewnątrz strony internetowej 24

2.6 Nagłówki Hx w treści strony WWW 25

2.7 Nawigacja okruszkowa (breadcrumb) 25

3 Linkowanie 27

3.1 Linkowanie naturalne 28

3.2 Systemy wymiany linków 31

3.3 Prywatne zaplecza 42

Zakończenie 44

Bibliografia 46

Page 3: Paweł Budynek Metody optymalizacji i pozycjonowania stron

3

Wstęp

Idea sieci komputerowej, za pomocą której wielu użytkowników różnych komputerów

mogłoby komunikować się ze sobą, zaczęła rozwijać się już w latach 50. Pierwszą działającą

siecią był ARPANET, który został uruchomiony w 1969 roku. Powstał on jako inicjatywa

Departamentu Obrony USA i był prekursorem Internetu. Początkowo komercyjne

wykorzystanie Internetu było zabronione. Stało się to tematem dyskusji, ponieważ nie zostało

jasno sprecyzowane co można uważać za komercyjne wykorzystanie sieci. Dlatego też w 1994

roku ograniczenia dotyczące komercyjnego wykorzystywania Internetu zostały całkowicie

zniesione [1].

Jednymi z najwcześniejszych zastosowań Internetu były: poczta elektroniczna, wymiana

plików za pomocą File Transfer Protocol (FTP) oraz World Wide Web, czyli sieciowy system

informacyjny oparty na publicznie dostępnych standardach opracowanych przez W3C, ISO i

IETF. System ten również często jest określany jako WWW lub Web [2]. Pierwotnym oraz

głównym zadaniem WWW jest publikowanie informacji.

We wczesnych latach 90 oczywistym stało się, że coraz bardziej jest potrzebne narzędzie do

wyszukiwania plików i informacji. W tym celu powstał protokół HTTP ułatwiający i

przyspieszający odwoływanie się do plików. W 1992 roku Berners-Lee opracował przeglądarkę

o nazwie WorldWideWeb, która potrafiła wyświetlać strony HTML zawierające grafikę.

Funkcja to została również zaimplementowana w przeglądarkach takich jak Viola, czy też

Mosaic [3]. Wszystkie te funkcje przyczyniły się do wzrostu zainteresowania użytkowników

Internetu tworzeniem stron internetowych.

Wraz z rozwojem WWW zaczęła rosnąć liczba stron internetowych zaindeksowanych przez

wyszukiwarkę Google. Wyniki zapytań musiały zostać uporządkowane w taki sposób, aby

najpierw zostały zwracane wyniki najbardziej pożądane przez użytkownika, a dopiero później

te mniej potrzebne, a na końcu zupełnie zbędne. W celu posortowania wyników zapytań firma

Google stworzyła PageRank. Jest to algorytm nadawania zaindeksowanym witrynom

określonej wartości liczbowej. PageRank jest miarą wartości strony w kontekście danego

zapytania użytkownika [4]. Im większa to liczba tym wyższa potencjalna wartość strony.

Szczegóły właściwego algorytmu nigdy nie zostały upublicznione i są ściśle chronione przez

Google. PageRank nadawany stronie internetowej zależy od wielu czynników. Jednym z nich

Page 4: Paweł Budynek Metody optymalizacji i pozycjonowania stron

4

może być ilość treści zawartej na stronie (nie będącej duplikatem treści już istniejącej), a także

od liczby stron o wysokim wskaźniku PageRank, które zawierają odnośniki do danej strony.

Problem kolejności wyświetlania wyników zgodnie z wartościami wskaźnika PageRank

doprowadził do powstania dziedziny pozycjonowania stron w systemach wyszukiwawczych

(ang. SEO – Search Engine Optimalization). Jest to technika polegająca na zoptymalizowaniu

kodu strony internetowej w taki sposób, aby wyszukiwarka internetowa wyświetlała ją wśród

pierwszych wyników dla słów kluczowych ściśle związanych z główną tematyką danej strony

[4][4]. Jeżeli firma lub organizacja inwestuje pieniądze w utworzenie własnego miejsca w

Internecie będącego przede wszystkim twarzą i wizytówką firmy, nie może sobie pozwolić na

straty jakie wygeneruje strona jeżeli nie będzie regularnie odwiedzana przez klientów.

Celem tej pracy jest przedstawienie problemu efektywnego pozycjonowania stron WWW.

Praca ma charakter studium przypadku i składa się z trzech rozdziałów. Każdy rozdział opisuje

możliwie najdokładniej osobny etap prawidłowego pozycjonowania stron WWW. W rozdziale

pierwszym przedstawiono najważniejsze informacje niezbędne do rozpoczęcia jakichkolwiek

działań oraz etap pierwszy jakim jest przygotowanie kampanii SEO przy pomocy

ogólnodostępnych narzędzi. Drugi etap został przedstawiony w rozdziale drugim i opisuje jakie

działania należy podjąć, aby strona internetowa została pozytywnie oceniona przez algorytmy

firmy Google. Ostatni etap został zawarty w rozdziale trzecim. Rozdział ten zawiera opis metod

umieszczania linków na portalach zewnętrznych w celu wzmocnienia pozycji serwisu w

rankingu Google.

Praca jest oparta głównie na doświadczeniach i wiedzy autora tej pracy, które zostały nabyte

w trakcie praktycznego pozycjonowania różnych serwisów internetowych.

Page 5: Paweł Budynek Metody optymalizacji i pozycjonowania stron

5

1 Narzędzia wspomagające efektywne pozycjonowanie

1.1 Podstawowe informacje o pozycjonowaniu stron internetowych

Prawidłowe pozycjonowanie stron może przynieść efekty już w ciągu pierwszego miesiąca

od rozpoczęcia tego procesu. Zgodnie z badaniami przeprowadzonymi w maju 2013 roku przez

firmę Chitika doprowadzenie domeny do pierwszego miejsca w wyszukiwarce sprawia, że

witryna jest w stanie zebrać aż 33% liczby kliknięć dla danej frazy wpisanej w wyszukiwarce,

18% w przypadku drugiej pozycji oraz 11% w przypadku trzeciej pozycji. Na rysunku 1

przedstawiono zależność liczby wejść od posiadanej pozycji w Google [5].

Źródło: opracowanie własne na podstawie raportu firmy Chitika [5].

Rysunek 1. Wykres ilości wejść na stronę w zależności od posiadanej pozycji w Google.

32,5%

17,6%

11,4%

8,1%

6,1%4,4%

3,5% 3,1% 2,6% 2,4%

0,0%

5,0%

10,0%

15,0%

20,0%

25,0%

30,0%

35,0%

1 2 3 4 5 6 7 8 9 10

% U

DZI

AŁU

POZYCJA TOP W GOOGLE

Średni udział w ruchu

Page 6: Paweł Budynek Metody optymalizacji i pozycjonowania stron

6

Proces pozycjonowania opiera się na ciągłym poznawaniu mechanizmów rządzących

wyszukiwarkami i dostosowaniu serwisów internetowych do tych mechanizmów. Niezwykle

ważne jest bycie na bieżąco ze wszystkimi zmianami jakie publikuje firma Google,

niedostosowanie się do zmieniających się algorytmów może przeszkodzić w uzyskaniu

pożądanego efektu. Dwa najbardziej popularne algorytmy mające uniemożliwiać nieetyczne

pozycjonowanie to Panda i Pingwin. Algorytm Panda ma za zadanie zwiększać widoczność

witryn wysokiej jakości. Są to witryny, które mogę potencjalnie zainteresować użytkownika.

Algorytm Pingwin obniża w rankingu strony, które są pozycjonowane w nieetyczny sposób

(np. upychanie za dużej ilości słów kluczowych w treściach lub zamieszczanie dużej ilości

niskiej jakości linków zwrotnych) [6]. Oba algorytmy mogą zmienić pozycję danej strony na

niekorzyść pozycjonera. Zignorowanie aktualizacji tych algorytmów może zniszczyć efekty

wielomiesięcznego pozycjonowania.

Kolejną ważną zmianą wdrożoną przez firmę Google 21 kwietnia 2015 roku było oznaczanie

witryn etykietą „przyjazna dla urządzeń mobilnych”, ponieważ jak twierdzi sama firma,

Internet mobilny staje się coraz ważniejszy [7]. Na stronie przyjaznej dla urządzeń mobilnych

tekst powinien być widoczny bez dodatkowego powiększenia. Odnośniki powinny być

odpowiednio od siebie oddalone w taki sposób, aby kliknięcie w link nie sprawiało trudności.

Grafiki powinny mieścić się na wyświetlaczu urządzenia bez dodatkowego przewijania strony

itp. Gdy witryna nie spełniała tych wymagań, nie zostawała nagradzana etykietą co w efekcie

końcowym może oznaczać utratę cennych wejść na stronę z urządzeń mobilnych. Mniejsza

ilość wejść mobilnych może również oznaczać utratę ruchu z laptopów i komputerów

stacjonarnych.

Firmie Google zależy na tym, aby wyświetlane wyniki były bardzo mocno

spersonalizowane. Każdy wynik powinien na pierwszej pozycji wyświetlać stronę najbardziej

dopasowaną do potrzeb użytkownika. Jest to główny powód dla którego Google walczy z

pozycjonowaniem stron. Dlatego też w branży SEO nie ma miejsca na błędy. Pomyłka

pozycjonera może doprowadzić do nałożenia przez Google kary ręcznej (filtru ręcznego) na

domenę, w której znajduje się pozycjonowana strona. Kara ręczna oznacza, że ukarana strona

przez długi czas będzie widoczny na niskich pozycjach w rankingu [8]. Kary ręczne są bardzo

uciążliwe, ponieważ osoba pozycjonująca nie zawsze dostaje stosowną informację o nałożeniu

takiej kary. Najczęściej da się zauważyć zastosowanie przez Google tej praktyki dopiero w

momencie, gdy pozycja domeny w rankingu nie zmienia się mimo stosowania różnorakich

czynności mających na celu polepszenie wyników. W takim przypadku należy pozbyć się

Page 7: Paweł Budynek Metody optymalizacji i pozycjonowania stron

7

wszelkich problemów występujących na stronie, a następnie wysłać do Google prośbę o

ponowne rozpatrzenie zgłoszenia. Takie prośby są rozpatrywane w ciągu kilku dni i mogą

zarówno zostać zaakceptowane jak i odrzucone [9]. Innymi metodami karania sztucznego

pozycjonowania jest chwilowe lub trwałe wyindeksowanie domeny z wyszukiwarki. Brak

domeny w katalogach Google może mieć negatywne konsekwencje dla pozycjonującej się

firmy, a zmiana domeny na nową może okazać się ciężka do zrealizowania z powodu setek

rozdanych wizytówek bądź materiałów reklamowych zawierających adres URL danej witryny.

Ponadto istnieją inne istotne przeszkody, takie jak wieloletnie przyzwyczajenie do adresu URL

dotychczasowych klientów firmy.

W związku z tym, bardzo ważną zasadą pozycjonowania jest to, że nigdy nie powinno się

pozycjonować bezpośrednio adresu domeny, ale tylko i wyłącznie jej podstrony. Na przykład

nazwę podstrony „kontakt” łatwo można zmienić na „skontaktuj_sie”, co w przypadku całej

domeny nie jest już takie łatwe.

W dalszej części rozdziału zostanie przedstawiony pierwszy – wstępny etap pozycjonowania

stron internetowych. Głównie polega on na przygotowaniu efektywnej kampanii SEO oraz

przeprowadzeniu wstępnego audytu strony, czyli przebadaniu jej pod względem

najpopularniejszych błędów.

1.2 Google AdWords

Google AdWords jest portalem udostępnianym przez firmę Google w celu zbudowania

kampanii SEO [10]. Głównie portal ten służy do tworzenia płatnych kampanii reklamowych.

Za każde kliknięcie w ramach kampanii Google należy zapłacić. Stawki są podawane są za

każde kliknięcie w link prowadzący do portalu internetowego biorącego udział w kampanii

reklamowej AdWords. Stawki są różne i zależą od popularności danej frazy. Frazy lub słowa,

które posiadają małą ilość wyszukań w ciągu miesiąca mogą być stosunkowo tanie. Cena za

każde kliknięcie rośnie wprost proporcjonalnie do ilości miesięcznych wyszukań. Firmy, które

dopiero zaczynają działać na rynku lub nie prosperują zbyt dobrze nie mogą pozwolić sobie,

aby rozliczać się osobno za każde kliknięcie. Warto pamiętać, że użycie tych narzędzi nie

obliguje do wykupienia kampanii reklamowej.

Page 8: Paweł Budynek Metody optymalizacji i pozycjonowania stron

8

Bardzo ważnym i przydatnym narzędziem jest planer słów kluczowych, który jest

ogólnodostępny w Google Adwords. Jest on niezmiernie pomocny we wstępnym planowaniu

kampanii i właśnie od tego narzędzia powinno zacząć się każde pozycjonowanie.

Planer słów kluczowych może stać się pomocny w przypadku, gdy jest znana dziedzina w

której obraca się pozycjonowana firma, ale nie są znane frazy pod jakimi strona firmy powinna

się znajdować. W takich sytuacjach jest przydatne „szukanie propozycji nowych słów

kluczowych”. Po wpisaniu nazwy produktu lub usługi, planer słów kluczowych wyświetli

propozycję popularnych grup reklam pod którymi można zacząć pozycjonować portal

internetowy. Dodatkowo zwracane są informacje o sugerowanej stawce za kliknięcie (wyrażaną

w złotówkach), wysokości konkurencji, a także średnią ilość miesięcznych wyszukań w

Google. Na rysunku 2 przedstawiono wyniki zwrócone przez narzędzie AdWords dla frazy

„SEO”.

Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google AdWords [10].

Rysunek 2. Zrzut ekranu portalu AdWords dla frazy „SEO”.

W przypadku, gdy jest gotowa ściśle określona lista fraz, pod którymi strona powinna być

widoczna warto skorzystać z możliwości „pobrania prognozy natężenia ruchu dla listy słów

kluczowych”. Ta opcja zwraca dokładne wyniki dla każdej z pożądanych fraz. W ten łatwy

sposób można uzyskać informacje, ile średnio strona pozyska kliknięć i wyświetleń w

przeciągu jednego miesiąca przy limitach wyznaczanych przez budżet. Czy frazy są w ogóle

Page 9: Paweł Budynek Metody optymalizacji i pozycjonowania stron

9

możliwe do wypozycjonowania oraz czy istnieje sens je pozycjonować w przypadku, gdy nie

generują żadnego ruchu.

Poważnym błędem jest szukanie łatwych fraz, czyli takich, które można wypozycjonować

stosunkowo szybko. Takie praktyki są z pewnością sposobem na zdobycie zaufania

pozycjonowanej firmy. Warto jednak pamiętać, że wyświetlanie się strony na pierwszym

miejscy w rankingu Google, wcale nie oznacza generowania dużej ilości wejść. Fraza ta może

być zbyt skomplikowana lub sformułowana w zły sposób. Tworząc frazy trzeba przede

wszystkim myśleć o tym, w jaki sposób mógłby sformułować zapytanie potencjalny klient

pozycjonowanej firmy. Mało istotna jest wysoka pozycja, gdy ilość wejść na stronę w skali

miesiąca jest bliska zera. Na rysunku 3 przedstawiono wyniki zwrócone przez Google Adwords

dla wpisanej frazy „SEO” oraz przy założeniu dziennego budżetu w wysokości 100zł.

Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google AdWords [10].

Rysunek 3. Zrzut ekranu dla frazy „SEO” przy założeniu dziennego budżetu w wysokości 100zł.

Page 10: Paweł Budynek Metody optymalizacji i pozycjonowania stron

10

1.3 Google Webmaster Tools

Po wstępnym zapoznaniu się z przydatnością i istotnością fraz, przydatnymi stają się Google

Webmaster Tools [11]. Jest to zestaw darmowych narzędzie dla webmasterów. Internetowy

gigant z Mountain View wręcz zachęca wszystkich do korzystania z możliwości jakie dają te

narzędzia za pomocą wielu krótkich filmów instruktażowych mających zachęcić nie tylko

pozycjonerów, ale także zwykłych użytkowników do przeprowadzenia optymalizacji swojej

strony internetowej. Korzystanie z tego narzędzia może znacznie usprawnić proces

pozycjonowania, ponieważ w łatwy sposób można odnaleźć tam najbardziej istotne błędy

występujące na pozycjonowanej stronie. W dalszej części tego rozdziału przedstawiono

przegląd najważniejszych funkcji narzędzi Google Webmaster Tools.

Zakładka: „Status w wyszukiwarce”.

Ta zakładka informuje użytkownika o braku niektórych elementów na stronie, takich jak na

przykład dane strukturalne. Można również dowiedzieć się o istotnych błędach

(niedozwolonych przez Google) takich jak, powtarzające się opisy strony, zbyt krótkie lub za

długie opisy, niemożności indeksacji strony przez robota, czy też problemach z tagami na

stronie. Rysunek 4 przestawia zrzut ekranu, na którym narzędzie zwraca komunikat o zbyt

krótkich opisach meta.

Page 11: Paweł Budynek Metody optymalizacji i pozycjonowania stron

11

Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google Webmaster Tools [11].

Rysunek 4. Zrzut ekranu dla przypadku z za krótkimi opisami meta.

Zakładka: „Ruch związany z wyszukiwaniem”

W tej zakładce widnieją kolejne przydatne informacje. Na pierwszym planie można

zaobserwować wyszukiwane hasła. Dokładniej mówiąc Google informuje jakie frazy

wpisywali użytkownicy, aby dostać się do pozycjonowanej witryny. Jest to niezmiernie

przydatne, w przypadku ustalenia fraz, ale tylko w przypadku, gdy domena ma już jakąś

historię. Gdy strona jest nowa, te informacje mogą być zwyczajnie mylące.

Można również sprawdzić linki wewnętrzne i zewnętrzne, które znajdują się na

pozycjonowanej stronie. Pozornie może wydawać się to zbędne, jednakże warto monitorować

tą pozycję, gdyż mogłoby zdarzyć się tak, że ktoś działając świadomie na niekorzyść

pozycjonowanej strony zamieści w czeluściach pozycjonowanego portalu linki do innych stron

nie związanych z tematyką strony. Będąc przy tej zakładce warto również sprawdzić, czy strona

jest oznaczona przez Google jako przyjazna dla urządzeń mobilnych oraz czy nie zostały

wykryte jakiekolwiek błędy. Rysunek 5 przedstawia komunikat o nieprzystosowaniu strony

internetowej do urządzeń mobilnych.

Page 12: Paweł Budynek Metody optymalizacji i pozycjonowania stron

12

Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google Webmaster Tools [11].

Rysunek 5. Zrzut ekranu dla witryny nieprzystosowanej do urządzeń mobilnych.

Zakładka: „Indeks Google”

Jest to prawdopodobnie najważniejsza pozycja w narzędziach Google dla Webmasterów. W

tym miejscu można monitorować stan indeksowania strony w katalogu Google. Sprawdzenie

ile podstron zostało zaindeksowanych jest niezmiernie ważne, gdyż pozycjonowanie podstrony

niezaindeksowanej zwyczajnie mija się z celem. Można również sprawdzić słowa kluczowe

jakie robot odnalazł w treści strony oraz zablokowane zasoby. Ostatnia pozycja umożliwia

usuwanie adresów URL z katalogu. Warto użyć tej opcji w przypadku, gdy Google dalej

posiada zaindeksowane w swoim katalogu podstrony, które już dawno temu zostały skasowane,

ponieważ w takim przypadku robot widzi błąd 404, a to prowadzi do osłabienia mocy

pozycjonowanego portalu.

Zakładka: „Indeksowanie”

Ostatnia, ale nie mniej ważna zakładka umożliwia sprawdzenie, czy podczas indeksowania

strony doszło do jakichś błędów oraz sprawdzić zaawansowane statystyki indeksowania. Ta

Page 13: Paweł Budynek Metody optymalizacji i pozycjonowania stron

13

sekcja umożliwia również przetestowanie pliku robots.txt. Plik ten ma charakter informacyjny.

Informuje on o tym które z katalogów znajdujących się na serwerze robot powinien

zaindeksować. Robot jest to termin określający program, który samodzielnie potrafi poruszać

się po stronach internetowych podążając za odsyłaczami. Program ten potrafi analizować i

indeksować strony WWW [12]. Dużym ułatwienie dla robota Google jest mapa strony, którą

można zgłosić za pomocą zakładki „Indeksowanie”. Powinna ona posiadać nazwę sitemap o

rozszerzeniu xml i zawierać wszystkie podstrony, które powinny zostać zaindeksowane. Jest to

niezmiernie ważne w przypadku, gdy serwis jest bardzo duży, bądź prowadzi do niego niewiele

linków z zewnętrznych portali. Warto pamiętać, że roboty indeksują Internet podążając za

kolejnymi linkami zewnętrznymi. Jeżeli do pozycjonowanej strony nie prowadzi żaden z

linków, strona może pozostać niezaindeksowana przez bardzo długi czas [13].

1.4 Google Analytics

Bardzo przydatnym narzędziem jest Google Analytics. Jest to serwis za pomocą którego

można uzyskać informacje o ilości wejść na stronę internetową. Wyniki dzielone są na różne

lokalizacje (z dokładnością do miast), grupy wiekowe oraz płeć [14]. Po wprowadzeniu

koniecznych danych, takich jak nazwa domeny i strefę czasową generowany jest kod w Java

Script, który należy umieścić na każdej podstronie która powinna być śledzona (lub

bezpośrednio w szablonie strony, jeżeli ten jest powielany na każdej podstronie). Analytics

bardzo precyzyjnie ocenia wejścia na stronę internetową. Ilość sesji, użytkowników, odsłon,

średni czas trwania jednej sesji, czy też współczynnik odrzuceń. Dodatkowo dane te mogą

zostać podzielone na użytkowników desktopowych i mobilnych. Taka informacja może okazać

się przydatna przy podjęciu decyzji o utworzeniu wersji mobilnej dla danej strony internetowej.

Rysunek 6 przedstawia zwrócone dane przez Google Analytics dla strony internetowej nie

posiadającej wejść z urządzeń mobilnych.

Page 14: Paweł Budynek Metody optymalizacji i pozycjonowania stron

14

Źródło: Opracowanie własne na podstawie wyników zwróconych przez Google Analytics [14].

Rysunek 6. Zrzut ekranu dla witryny, która nie posiada odwiedzin z urządzeń mobilnych.

Informacje o miejscu ilości odwiedzin z innych miast lub państw także są bardzo przydatne.

Może się nagle okazać, że jest opłacalna sprzedaż usług przez Internet, bądź budowa angielskiej

wersji językowej portalu itp. Informacje o grupie społecznej do jakiej trafiamy mogą pomóc

nam podjąć decyzje o zmianie pozycjonowanych fraz.

1.5 Screaming Frog SEO Spider

Obowiązkowym narzędziem w rękach każdego pozycjonera jest program o nazwie

Screaming Frog SEO Spider [15]. Jest on pomocny przy wykonywaniu optymalizacji strony

internetowej pod kontem wyszukiwarek internetowych (optymalizacja zostanie przybliżona w

kolejnym rozdziale). Po wklejeniu odsyłacza do strony internetowej w górnym pasku programu

i naciśnięciu przycisku „Start” program przeanalizuje daną stronę internetową w podobny

sposób jak robią to roboty. Czas wykonywania analizy jest zależny głównie od wielkości

badanego serwisu. Rysunek 7 przedstawia analizę wykonaną przez program Screaming Frog

SEO Spider dla witryny internetowej dostępnej pod adresem http://pawelbudynek.pl.

Page 15: Paweł Budynek Metody optymalizacji i pozycjonowania stron

15

Źródło: Opracowanie własne na podstawie wyników zwróconych przez Screaming Frog SEO Spider [15].

Rysunek 7. Zrzut ekranu dla witryny http://www.pawelbudynek.pl

Z programu w łatwy sposób można dowiedzieć się czy badana strona posiada duplikaty

treści, czy znaczniki meta są unikalne, czy strona zawiera błędy, jak wyglądają tytuły podstron,

czy obrazki posiadają atrybuty ALT i wiele innych przydatnych informacji. Właściwe

użytkowanie programu powinno zwrócić wszystkie niezbędne informacje. Darmowa licencja

programu pozwala na przeskanowanie maksymalnie 500 linków podczas jednej sesji [16]. W

przypadku potrzeby przeskanowania większego serwisu, należy wykupić licencję lub polegać

na przeskanowanej ilości linków i potraktować je jako statystyczną próbę. Nie jest to najlepsze

rozwiązanie, aczkolwiek warto pamiętać, że w przypadku gigantycznych serwisów lub sklepów

internetowych ciężkie jest rozwiązanie wszystkich występujących problemów z powodu braku

czasu i budżetu. W takich sytuacjach najlepiej przebadać tylko poszczególne linki, które będą

pozycjonowane.

Page 16: Paweł Budynek Metody optymalizacji i pozycjonowania stron

16

2 Analiza metod optymalizacji stron internetowych w celu zwiększenia

jakości pozycjonowanego serwisu

Etap drugi jest niezmiernie ważny w pozycjonowaniu stron internetowych. Polega on na

przeprowadzeniu optymalizacji strony internetowej w taki sposób aby była zgodna z

wymogami, według których firma Google ocenia wartość serwisu. Strona powinna również być

zgodna ze standardami wyznaczanymi przez W3C, czyli World Wide Web Consortium. Jest to

organizacja założona w 1994 roku przez Tima Berners-Lee. W3C skupia na obecną chwilę

ponad 400 organizacji. Poczynając od uczelni z całego świata, przez różne firmy i korporacje,

a kończąc na agencjach rządowych [17].

Standardy publikowane przez W3C nie mają mocy prawnej nakazującej ich użycie, jednakże

warto się do nich stosować. Co prawda błędy wynikające ze złego zastosowania danych

standardów nie usuwają całkowicie strony z wyszukiwarek internetowych, ale mogą

doprowadzić do wolniejszego zaindeksowania przez robota Google, a co za tym idzie – niższą

pozycję w wyszukiwarce.

2.1 Naprawianie złego profilu linkowego domeny

Zanim rozpocznie się optymalizować stronę warto sprawdzić profil linkowy domeny.

Analizę profilu linkowego można wykonać za pomocą dostępnych stron internetowych (np.

http://www.backlinkwatch.com/) lub poczekać, aż Google sam wyświetli komunikat w

Narzędziach dla Webmasterów o złym profilu linkowym. Często bywa tak, że do danej domeny

prowadzi duża liczba linków, które w oczach Google’a wyglądają po prostu źle. Są to linki

zamieszczane na niewyświetlających się poprawnie stronach, katalogach SEO, forach i innych

podobnych portalach tworzonych tylko i wyłącznie w celu zamieszczania linków i podbijania

PageRanków innych witryn internetowych. Zazwyczaj jest to spowodowane nieumiejętnymi

próbami pozycjonowania poprzednich właścicieli domeny. Google zaleca usunięcie jak

największej ilości punktów spamerskich i niskiej jakości linków [18].

Page 17: Paweł Budynek Metody optymalizacji i pozycjonowania stron

17

Gdy niemożliwym staje się wykasowanie złej jakości linków warto wysłać za pomocą

Google Webmaster Tools plik o rozszerzeniu „txt”, a w nim listę linków, które wyszukiwarka

ma ignorować. Każdy link powinien zaczynać się od nowej linii, a w przypadku, gdy istnieje

potrzeba zignorowania całej domeny wystarczy nazwę domeny poprzedzić słowem „domain:”.

Warto również wiedzieć, że wiersze poprzedzone znakiem „#” zostaną pominięte. Kodowanie

znaków jakiego powinniśmy użyć w celu uniknięcia jakichkolwiek błędów to UTF-8.

Przykładowy wygląd pliku został przedstawiony na rysunku 8.

# Z witryny example.com usunięto większość linków, ale pominięto te:

http://spam.example.com/rzeczy/komentarze.html

http://spam.example.com/rzeczy/linki-platne.html

# Skontaktowałem się z właścicielem przebieglyseo.pl dnia 07.01.2012,

# prosząc o usunięcie linków, ale nie otrzymałem odpowiedzi

domain:przebieglyseo.pl

Źródło: Opracowanie własne na podstawie Google Support [18][18].

Rysunek 8. Zrzut ekranu treści przykładowego pliku zrzekającego się złej jakości odsyłaczy.

2.2 Usuwanie duplikatów treści występujących na stronie

Gdy strona internetowa zostanie już poprawnie zaimplementowana, przychodzi czas na

dodanie treści. Poważnym błędem może okazać się skopiowanie tekstu z konkurencyjnej strony

internetowej. Google bardzo agresywnie kara takie zachowanie. Gdy robot Google wykryje na

stronie duplikat treści, może ją umieścić na niższej pozycji niż byśmy tego chcieli, bądź też w

przypadku dużej ilości duplikatów wyindeksować stronę tymczasowo bądź na stałe.

Problemem może się okazać nie tylko skopiowanie treści z innego portalu, ale także

zamieszczenie danego tekstu dwukrotnie. Dzieje się tak również, gdy strona jest dostępna pod

kilkoma adresami jednocześnie. Przykład został przedstawiony na rysunku 9.

Page 18: Paweł Budynek Metody optymalizacji i pozycjonowania stron

18

Źródło: Opracowanie własne.

Rysunek 9. Przykładowe rodzaje adresów prowadzących do tej samej strony internetowej.

W powyższym przypadku, aby uniknąć podstawowego błędu przy optymalizacji należy

zastosować stałe przekierowanie 301 [19]. Polega ono na zamieszczeniu odpowiedniego kodu

źródłowego w pliku .htaccess, który znajduje się w głównym katalogu strony internetowej, kod

ten został przedstawiony na rysunku 10.

RewriteEngine On

RewriteCond %{HTTP_HOST} ^strona.pl$

RewriteRule ^(.*) http://www.strona.pl/$1 [QSA,L,R=301]

Źródło: opracowanie własne na podstawie pomocy technicznej home.pl [20].

Rysunek 10. Przykładowy kod przekierowania 301.

Cały ten zabieg nie tylko przekierowuje użytkownika na odpowiedni adres, ale także

przenosi moc domeny przekierowywanej na domenę pozycjonowaną. Ta metoda okazuje się

również przydatna w momencie, gdy strona internetowa widnieje na kilku różnych od siebie

domenach.

Problematyczne może również okazać się ukośnik, który czasami jest dodawany

automatycznie, a czasami nie. Najczęściej w takich sytuacjach również treść jest dostępna w

http://strona.pl

http://www.strona.pl

http://www.strona.pl/

http://www.strona.pl/index.php

Page 19: Paweł Budynek Metody optymalizacji i pozycjonowania stron

19

dwóch różnych miejscach. Rozwiązaniem jest zastosowanie kolejnego przekierowania, aby

ukośnik był wymuszany, bądź sztucznie go usuwać. Mimo, że oba rozwiązania powinny

zadziałać, to czysto technicznie bardziej poprawne jest usuwanie ukośnika, gdyż jego brak

wskazuje na plik, a dodatkowy ukośnik na folder.

Innym rozwiązaniem są linki kanoniczne. W dobie systemów CMS i sklepów internetowych,

bardzo łatwo o duplikaty treści, które stricte wynikają z paginacji (numeracji) stron i wielu opcji

dla danego przedmiotu, bądź samego artykułu [21]. W sytuacji, gdy zostaje otworzony sklep

internetowy z kubkami, często ten sam kubek istnieje w kilku wersjach kolorystycznych. Mimo,

że zdjęcie kubka, jego cena oraz wzór będzie inny, to prawdopodobnie sam tekst opisujący jego

właściwości będzie taki sam. W oczach Google’a to również jest plagiat. Nie można ustawić

przekierowania 301, ponieważ mijałoby się to z celem. Z pomocą przychodzą na kanoniczne

URLe. Dla każdej z podstron ustawiamy link kanoniczny na jedną i tą samą wersję danej

podstrony informując wyszukiwarkę, że plik html, który właśnie indeksuje jest koniecznym

plagiatem i kierujemy ją do pierwotnej wersji.

2.3 Tworzenie znaczników META w sekcji HEAD

Każda strona internetowa oprócz treści posiada również znaczniki META, które są zawarte

w sekcji HEAD. Odpowiednie wypełnienie znaczników jest kluczem do prawidłowej

optymalizacji strony. Znaczniki powinny mieć coś wspólnego z frazami pod którymi serwis ma

być pozycjonowany, ale musi to na pozór wydawać się naturalne. Zapełnienie znaczników nie

zawsze jest tak łatwe jak może się to wydawać na początku.

Page 20: Paweł Budynek Metody optymalizacji i pozycjonowania stron

20

Title (tytuł strony)

Znacznik Title określa tytuł optymalizowanej strony. Tytuły zamieszcza się w sekcji HEAD

w następującym znaczniku:

<TITLE>tytuł</TITLE>

Wyświetla się on na karcie w przeglądarce internetowej. Sam znacznik tytułu powinien

zamykać się w granicach 55-60 znaków (wliczając w to znaki białe). Słowa kluczowe w tytule

powinny byś dobrane w taki sposób, aby ich kolejność była ułożona hierarchiczne względem

ważności danego słowa. Ważne jest także, aby słowa kluczowe tworzyły logiczną całość [22].

Przeciętny użytkownik, nie kliknie w mało ciekawy tytuł, a co za tym idzie – nie zostanie

wytworzony ruch na stronie. Każda podstrona musi mieć unikalny tytuł, który nie może być

skopiowany z istniejących już treści widocznych na stornie. Jest to przydatne przy

pozycjonowaniu wielu fraz dla jednej strony. O wiele łatwiej jest rozmieścić słowa kluczowe

w kilku tytułach, niż w jednym.

Description (opis strony)

Znacznik description odpowiada za opis, który jest wyświetlany w wynikach wyszukiwania

zaraz pod tytułem. Opis należy zamieścić w sekcji HEAD w znaczniku:

<META NAME=”description” CONTENT=”opis strony…”>

Długość meta description nie powinna być mniejsza niż 100 znaków. Google ma ściśle

określoną w pikselach długość opisu jaki maksymalnie może się wyświetlić na ekranie

monitora po wpisaniu odpowiedniej frazy. Długość ta zmienia się bardzo często, ponieważ

zależy ona chociażby od rozmiaru i rodzaju czcionki, która zostanie użyta do zaprezentowania

wyników wyszukiwania. Gdy opis jest zbyt krótki może nie zapełnić całego przeznaczonego

miejsca i w takich sytuacjach może zostać on źle oceniony przez firmę Google. Znacznik meta

Page 21: Paweł Budynek Metody optymalizacji i pozycjonowania stron

21

description powinien średnio zawierać około 150 znaków. Opis ma mniejszą wagę dla robota

Google, niż sam tytuł, jednak w dalszym ciągu decyduje o tym, czy użytkownik wejdzie na

stronę czy nie. Opis również powinien być wysokiej jakości oraz unikatowy dla każdej

podstrony, aby zachęcić użytkownika do wejścia na pozycjonowaną stronę tym samym

wytwarzając ruch.

Keywords (słowa kluczowe)

Znaczniki Keywords nie są widoczne dla internauty. Powstały jako narzędzie mające na celu

informowanie przeglądarki o tematyce strony. Niestety ze względu na częste używanie

znacznika przez webmasterów w celu osiągnięcia wyższej pozycji w wyszukiwarce został on

zdegradowany do rangi czysto informującej. We wrześniu 2009 roku firma Google oficjalnie

poinformowała na swoim blogu, że znaczniki keywords nie mają już wpływu na pozycję strony

w wyszukiwarce [23]. Mimo to nadal warto umieszczać słowa kluczowe w sekcji HEAD.

Pozwala to bowiem zakwalifikować stronę do kategorii w jakiej powinna zostać wyświetlana.

W celu poprawnego zinterpretowania słów kluczowych przez robota Google należy zamieścić

je w znaczniku:

<META NAME=”keywords” CONTENT=”słowa kluczowe…”>

Robots (sterowanie robotem Google)

Znacznik robots jest informacją dla robota wyszukiwarki o tym w jaki sposób powinien się

zachować w stosunku do danej podstrony. Parametry, które może przyjmować ten znacznik

zostały przedstawione na rysunku 11.

Page 22: Paweł Budynek Metody optymalizacji i pozycjonowania stron

22

all – wszystko zostanie zaindeksowane

index – strona zostanie zaindeksowana

noindex – strona nie zostanie zaindeksowana

follow – linki zostaną zaindeksowane

nofollow – linki nie zostaną zaindeksowane

none – roboty nic nie zaindeksują

Źródło: opracowanie własne na podstawie Google Support [24].

Rysunek 11. Rodzaje znaczników robots.

Znaczniki te można łączyć ze sobą, oddzielając je przecinkami. W przypadku nie

przypisania parametru do znacznika robots, przeglądarka automatycznie oznacza stronę

znacznikiem ALL [24]. Jest to ważne w przypadku, gdy użytkownik chce zabezpieczyć siebie

przed „uciekaniem” robota ze strony internetowej. Najpopularniejszym przykładek jest

wstawienie linku do swojej strony w stopce przez twórcę danego portalu. Takie praktyki, często

osłabiają moc pozycjonowanego serwisu i jedynym rozwiązaniem jest zamieszczenie atrybutu

nofollow. W celu poprawnego zinterpretowania przez wyszukiwarkę znaczniki robots

zamieszczamy w sekcji HEAD w następujący sposób:

<META NAME=”robots” CONTENT=”odpowiedni znacznik robots”>

Można również stworzyć na serwerze plik o nazwie robots.txt i za pomocą komendy

disallow zablokować robotom dostęp do jakiegoś pliku, bądź całego folderu. Jest to

zdecydowanie lepsze rozwiązanie w sytuacjach w których Google zaindeksował cały folder

zawierający wtyczki. Dobrym przykładem może być zaindeksowanie przez Google całego

folderu zawierającego panel administratora. W takich przypadkach łatwiej jest zablokować cały

folder, niż blokować za pomocą znaczników robots, każdy plik po kolei. Rysunek 12

przedstawia przykładową zawartość pliku robots.txt.

Page 23: Paweł Budynek Metody optymalizacji i pozycjonowania stron

23

User-agent: *

Disallow: /administrator/

Disallow: /cache/

Disallow: /includes/

Disallow: /language/

Disallow: /libraries/

Disallow: /images/

Disallow: /templates/

Allow: /templates/css/template.css

Allow: /templates/jquery.js

Allow: /templates/script.js

Źródło: Opracowanie własne[18].

Rysunek 12. Zrzut ekranu treści przykładowego pliku blokującego dostęp do plików robotom indeksującym.

Pierwsza linijka zakończona znakiem „*” oznacza, że poniższe instrukcje dotyczą

wszystkich rodzajów robotów indeksujących. Komendy Disallow wyłączają z indeksowania

wskazane foldery. W momencie, gdy istotne jest, aby został zaindeksowany jeden plik z

folderu, który indeksować się nie powinien, pomocna staje się komenda Allow.

2.4 Tworzenie atrybutów ALT

Kolejnym krokiem do prawidłowego zoptymalizowania strony jest nadanie wszystkim

obrazkom atrybutów ALT. Atrybuty te są wyświetlane alternatywnie w momencie, gdy nie

może zostać poprawnie wczytany obrazek. Nadanie obrazkom tego atrybutu jest niezmiernie

ważne z perspektywy specyfikacji XHTML. Dodatkowo warto wiedzieć, że przeglądarki i ich

Page 24: Paweł Budynek Metody optymalizacji i pozycjonowania stron

24

roboty nie analizują obrazków, dlatego posługują się opisom zawartym w atrybucie ALT [25].

Atrybuty te zamieszcza się w sekcji obrazka w następujący sposób:

<IMG SRC=”adres obrazka” ALT=”alternatywny opis obrazka”>

Istnieje również możliwość nadania obrazkom atrybutu TITLE. Jest on zawsze wyświetlany

w dymku po najechaniu na dany obrazek. Można również umieścić ten atrybut w odnośniku.

Powinien on wtedy opisywać zawartość strony do której odwołuje się hiperłącze. Te dwa

elementy z pewnością mogą pomóc w pozycjonowaniu danej frazy. Nie jest to jednak miejsce

na frazy lub słowa kluczowe, a na parę logicznych zdań opisujących zawartość obrazka, czy

też linku.

2.5 Nawigacja wewnątrz strony internetowej

Każda podstrona powinna mieć wewnętrzny odnośnik widoczny na stronie głównej. Mowa

tutaj o klasycznym menu. Za jego pomocą zarówno użytkownik jak i robot Google może

poruszać się po każdym zakątku strony internetowej. Ukryte podstrony mogą źle wpłynąć na

pozycję w wyszukiwarce. Jeżeli użytkownik chce uniknąć uwidaczniania niektórych treści (np.

treść polityki cookies), może utworzyć dwa menu nawigacyjne. Jedno główne w centralnej

części strony – dla użytkownika, oraz mapę strony z wszystkimi odnośnikami w stopce – dla

robota Google. Można oczywiście wybrnąć z sytuacji dodając do podstrony znacznik noindex,

bądź umieścić na serwerze plik robots.txt i nadać niechcianej podstronie parametr „disallow”.

Przy tworzeniu odsyłaczy wewnętrznych zaleca się zamieszczenie słów kluczowych

pomiędzy znacznikami <a></a>. W ten sposób można stworzyć estetyczne narzędzie

oprowadzające użytkownika po wszystkich zakątkach strony internetowej, a zarazem umieścić

dodatkową porcję słów kluczowych.

Page 25: Paweł Budynek Metody optymalizacji i pozycjonowania stron

25

2.6 Nagłówki Hx w treści strony WWW

Niezmiernie istotne są również nagłówki (H1, H2, H3). Numery przy literze „h” oznaczają

jak ważny jest dany nagłówek, czyli H1 jest nagłówkiem najważniejszym, H2 nagłówkiem

mniej ważnym, H3 jeszcze mniej ważnym itd. Często niedoświadczone osoby, chcące

pozycjonować stronę na własną rękę nadużywają nagłówków, co może być fatalne w skutkach.

Ogólnie rzecz biorąc bezpiecznym podejściem jest potraktowanie cyferki przy literze „H” także

jako informację o maksymalnej ilości wystąpień na każdej podstronie. Uściślając: znacznik H1

umieszczamy jeden raz na każdą podstronę, znacznik H2 – dwa razy, H3 – trzy razy.

2.7 Nawigacja okruszkowa (breadcrumb)

Breadcrumb jest niezwykle ważne przy pozycjonowaniu sklepów internetowych i bardziej

rozbudowanych blogów. Za pomocą nawigacji okruszkowej można stworzyć tzw. breadcrumb

trail, czyli zbiory linków wyznaczających ścieżkę po jakiej użytkownik dotarł do danego

miejsca pozycjonowanego portalu. Jak twierdzi sam Google nawigacja okruszkowa zbudowana

w odpowiedni sposób pomaga zrozumieć i zaprezentować informacje występujące na stronie

internetowej w wynikach wyszukiwania [26]. Przykładowa nawigacja okruszkowa

prezentowana jest, nie za pomocą linków, a za pomocą słów (nazewnictw) wybranych przez

osobę tworzącą nawigację okruszkową. Słowa te są oddzielane znakiem „>” co dodatkowo

ułatwia użytkownikowi zrozumienie do którego miejsca na pozycjonowanej stronie odnosi się

wyświetlony wynik zapytania. Rysunek 13 przedstawia zrzut ekranu przykładowego wyniku

wyszukiwania strony używającej breadcrumb trail.

Page 26: Paweł Budynek Metody optymalizacji i pozycjonowania stron

26

Źródło:

opracowanie własne na podstawie Google Developers [26][18].

Rysunek 13. Zrzut ekranu przykładowego wyniku wyszukania strony używającej breadcrumb trail.

Nawigacja okruszkowa bardzo pozytywnie wpływa na ocenę pozycjonowanego portalu

przez robota Google. Istotną informacją jest to, że po wejściu na stronę nie powinno być tzw.

selflinków. Oznacza to, że ostatni człon nawigacji okruszkowej, który wyświetla miejsce w

którym znajduje się użytkownik nie powinien być aktywny. Warto zadbać o dobrze

skonstruowaną nawigację okruszkową przy pozycjonowaniu większych serwisów

internetowych. Rysunek 14 przedstawia w jaki sposób poprawnie skonstruować nawigację

okruszkową na przykładzie produktów znajdujących się na stronie internetowej zajmującej się

sprzedażą damskich ubrań.

Źródło: opracowanie własne na podstawie Google Developers [26][18].

Rysunek 14. Zrzut ekranu przykładowego kodu HTML konstruującego nawigację okruszkową

Page 27: Paweł Budynek Metody optymalizacji i pozycjonowania stron

27

3 Linkowanie

Linkowanie jest trzecim etapem pozycjonowania stron. Często zdarza się tak, że sama

optymalizacja strony wystarcza, aby osiągnąć pożądaną pozycję. Jednak, gdy pozycjonowana

strona została już poprawnie zoptymalizowana, a mimo to nadal nie udało się osiągnąć

odpowiedniej pozycji strony w wynikach wyszukiwania oznacza to, że konkurencja pod daną

frazą jest zwyczajnie zbyt duża. W takich sytuacjach odpowiednim rozwiązaniem jest

rozpoczęcie budowy mocnego profilu linkowego dla pozycjonowanej domeny. Profil linkowy

są to wszystkie odsyłacze, które prowadzą z innych domen do domeny pozycjonowanej. Na

profil linkowy składają się zarówno linki naturalne uzyskane ręcznie z mocnych i dobrze

ocenianych przez algorytmy Google stron, jak i te pozyskiwane sztucznymi metodami. Do

sztucznych metod można zaliczyć odsyłacze stworzone na przykład przez Systemy Wymiany

Linków lub zaplecza pozycjonerskie, które zostaną opisane w tym rozdziale.

Przy budowaniu profilu linkowego warto zwrócić uwagę, aby odnośniki prowadzące do

pozycjonowanego serwisu pochodziły ze stron możliwie jak najmniej zaspamowanych. Jeżeli

strona internetowa powstała tylko i wyłącznie po to, aby gromadzić linki do innych stron to jest

ona mało wartościowa. Odnośnik z takiej strony, może zamiast podwyższyć pozycję

pozycjonowanej strony w rankingu, pogorszyć ją. W takich przypadkach najlepiej jest na

bieżąco zrzekać się linków nienaturalnych jeżeli pozycjoner chce prowadzić politykę White

Hat SEO. Polityka to powstała wraz z zaostrzeniem filozofii Google dotyczącej

pozycjonowania. W momencie, gdy portal ten zaczął rygorystycznie karać pozycjonerów za

linki nienaturalne popularnymi zaczęły stawać się metody White Hat SEO do których zalicza

się między innymi linkowanie ręczne (naturalne). Wraz z powstaniem terminu White Hat SEO

naturalnie powstał termin przeciwny. Wszelkie metody niezgodne z filozofią firmy Google

zostały zgrupowane i określone terminem Black Hat SEO. Do grupy tej można zaliczyć między

innymi linki pozyskane za pomocą katalogów SEO lub stron internetowych szeroko

rozumianych jako Systemy Wymiany Linków.

Najlepsze efekty przynoszą ręczne formy zamieszczania odnośników na stronach

internetowych bardzo mocno zbliżonych tematycznie. Skuteczność zamieszczonego linku w

uzyskaniu wysokiej pozycji w rankingu zależy od popularności serwisu na którym ten link

zamieścimy. Dobrym przykładem może być serwis internetowy onet.pl [27]. Pozyskiwanie

linków na tego typu serwisach może być bardzo trudne. Jednakże, właśnie takie linki są

Page 28: Paweł Budynek Metody optymalizacji i pozycjonowania stron

28

najbardziej wartościowe dla robota Google. W dalszej części tego rozdziału zostaną

przedstawione metody pozyskiwania odsyłaczy prowadzących do pozycjonowanej strony

internetowej.

3.1 Linkowanie naturalne

Linkowanie naturalne jest najbardziej żmudną metodą linkowania do pozycjonowanej

strony internetowej. Metoda ta polega na ręcznym zamieszczaniu linków na różnych serwisach.

Warto jednak pamiętać, że zamieszczanie samych linków na stronach to nie wszystko.

Odsyłacze należy odpowiednio zaprezentować. W tym celu używa się tekstów których długość

nie powinna być krótsza niż 400-500 znaków. Takie teksty powinno się tworzyć mając na

uwadze frazy pod które serwis ma być pozycjonowany. Zalecaną taktyką jest zastosowanie

pozycjonowanej frazy w stosunku 2/3 na każde 500 znaków. Oznacza to, że na każde 500

znaków można użyć frazy dwa razy oraz dodatkowo zamieścić tę frazę w odmianie (zgodnie z

zasadami języka polskiego) dodatkowe 3 razy. Gdy tekst zostanie już stworzony należy

zamieścić w nim odnośniki. Zamieszcza się je jako teksty kotwicy (ang. anchor text). Technika

ta polega na stworzeniu odsyłacza do odpowiedniej zakładki pozycjonowanej strony w taki

sposób, aby odsyłacz był jednocześnie tekstem (najlepiej frazą).

Warto pamiętać o tym, że algorytm Pingwin został stworzony po to, aby obniżać w

rankingach strony do których prowadzą linki z portali niskiej jakości. Doskonałym przykładem

takich portali są katalogi SEO, czyli serwisy powstałe wyłącznie w celach pozycjonerskich.

Rysunek 15 przedstawia zrzut ekrany przykładowego katalogu SEO dostępnego pod adresem

internetowym http://darmowykatalogseo.pl

Page 29: Paweł Budynek Metody optymalizacji i pozycjonowania stron

29

Źródło: opracowanie własne na podstawie Darmowy Katalog SEO [28].

Rysunek 15. Przykład Katalogu SEO.

Największą wartość mają odnośniki zamieszczane na popularnych stronach, ale nie zawsze

jest to możliwe. W takich przypadkach zaleca się zamieszczanie linków przykładowo na

stronach partnerskich, jednakże tylko na takich których tematyka jest zbliżona do tematyki

strony pozycjonowanej. W przypadku braku stron partnerskich można odnaleźć w Internecie

tematyczne strony, które dają możliwość zamieszczania artykułów. Popularne jest tworzenie

całych wątków na forach internetowych i udzielanie odpowiedzi samemu sobie zamieszczając

link do pozycjonowanej strony i wyjaśnienie dlaczego akurat ta strona będzie pomocna w

rozwiązaniu wyimaginowanego problemu. Takie wątki pozostają w Internecie na bardzo długo

oraz spełniają dodatkową funkcję. Nie tylko zwiększają wartość pozycjonowanej strony

poprzez anchor teksty, ale także nakłaniają innych użytkowników do odwiedzania danej strony.

Umiejętne tworzenie takich wątków na forach jest ważną umiejętnością. Niestety takie

działania są bardzo czasochłonne i dlatego też są używane tylko w sporadycznych sytuacjach.

Należy pamiętać o czasie indeksacji. Gdy domena jest nowa (użyta pierwszy raz, a nie

odkupiona od kogoś) prawdopodobnie nie prowadzą do niej żadne odnośniki. W momencie,

gdy w Internecie zaczną pojawiać się w krótkich odstępach czasowych duże ilości artykułów

może to zostać uznane za SPAM. Nie należy doprowadzić do sytuacji w której z zerowego

profilu linkowego w tydzień powstaje profil zbudowany z setek odsyłaczy. Prawidłowym i

bezpiecznym podejściem jest zamieszczanie od dwóch do trzech linków na tydzień. Sprawa

Page 30: Paweł Budynek Metody optymalizacji i pozycjonowania stron

30

wygląda nie co inaczej, gdy domena była już kiedyś używana i posiada jakiś profil linkowy. W

takich sytuacjach można publikować w Internecie większe ilości linków w tym samym czasie

(na przykład 7 artykułów z linkami do różnych podstron na tydzień). Dozwolona jest większa

ilość, gdyż i tak, Google nie zaindeksuje wszystkie jednego dnia.

Inną metodą jest zamieszczanie linków w komentarzach. Tutaj również należy robić to

umiejętnie. Wątek opisywany w artykule, który ma zostać skomentowany musi perfekcyjnie

pasować do tematyki pozycjonowanej strony. Jest to niezmiennie ważne w przypadku gdy

artykuł jest zamieszczony na popularnym serwisie. W takich sytuacjach osoby moderujące

portale mogą skasować komentarz. Dlatego też zawsze powinien wnosić on do dyskusji coś

więcej niż sam odnośnik. Istotne są również posty zamieszczane na serwisach

społecznościowych typu Facebook [29], czy Tweeter [30].

Kolejnym krokiem, który można uznać za linkowanie ręczne, to założenie w serwisie

Facebook strony dla fanów (fanpage). Publikowanie ciekawostek na fanpage’u i pozyskiwanie

ludzi, którzy będą ten fanpage obserwować również pozytywnie wpływa na pozycję strony w

Internecie. Istotnym elementem jest, aby powiązać fanpage wraz ze stroną pozycjonowaną.

Oznacza to, że w ustawieniach fanpage’u należy dodać odnośnik do pozycjonowanej strony

internetowej, a na samej stronie zamieścić wtyczkę społecznościową, która będzie umożliwiała

polubienie fanpage’u bezpośrednio z pozycjonowanej strony internetowej.

Gdy optymalizacja i zamieszczone odnośniki nie przynoszą żadnych efektów i

pozycjonowana strona nadal znajduje się na niskiej pozycji może to oznaczać, że Google nie

dostrzega na pozycjonowanej stronie wystarczającej ilości unikalnego tekstu. W takich

wypadkach można rozważyć stworzenie tematycznego bloga. Ważnym aspektem jest, aby blog

ten znajdować się na tej samej domenie co pozycjonowana strona, czyli http://domena.pl/blog.

Zamieszczenie strony na subdomenie nie przyniesie żadnych efektów. Dlatego nie należy

zamieszczać bloga na adresie typu http://blog.domena.pl. Regularne publikowanie postów na

blogu może znacznie poprawić pozycję strony w rankingu, a także poprawić wartość

merytoryczną pozycjonowanej strony. Podczas publikacji tekstów można dodatkowo wstawiać

odnośniki wewnątrz pozycjonowanego portalu tym samym dodatkowo poprawiając nawigację.

Gdy zostanie podjęta decyzja o stworzeniu boga, trzeba koniecznie zamieścić w menu link do

niego prowadzący. Ukrycie bloga znacznie utrudni robotowi Google jego zaindeksowanie, a

oznacza to, że teksty nie zostaną zauważone. Teksty zamieszczane na blogu powinny być

napisane w sposób poprawny językowo. Warto zadbać o to, aby teksty były również ciekawe.

Page 31: Paweł Budynek Metody optymalizacji i pozycjonowania stron

31

Teksty niskiej jakości mogą zniechęcić potencjalnych klientów do podjęcia współpracy z firmą,

której strona internetowa jest pozycjonowana. Na rysunku 16 przedstawiono przykładowy tekst

optymalizacyjny dostępny na blogu firmy zajmującej się serwisem i montażem anten

satelitarnych.

Źródło: opracowanie własne na podstawie bloga SEO [31].

Rysunek 16. Przykładowy tekst zamieszczony na blogu serwisu montażowego anten satelitarnych.

3.2 Systemy wymiany linków

Kolejną metodą linkowania stron internetowych jest używanie Systemów Wymiany

Linków. Systemy te polegają na zrzeszaniu za pomocą portalu internetowego dużych ilości

pozycjonerów. Każdy z nich dodaje do bazy danych systemy swoje strony internetowe. Za

dodanie stron do bazy są nagradzani w dany sposób. System nagród jest swego rodzaju walutą

w danym systemie. Tą walutą pozycjonerzy mogą zapewnić sobie linki na innych stronach, a

Page 32: Paweł Budynek Metody optymalizacji i pozycjonowania stron

32

cały ten proces jest w pewnym stopniu zautomatyzowany. W dalszej części tego podrozdziału

zostanie przedstawiony System Wymiany Linków Statlink [32].

Statlink określa sam siebie mianem „Systemu reklamy i promocji w Internecie”. System ten

jako jeden z pierwszych w Polsce zaczął odrzucać serwisy internetowe popularnie określane

jako SPAM. Każda strona internetowa, zanim zostanie zapisana w bazie zostaje sprawdzona

pod kontem zaindeksowania w wyszukiwarce Google i pod kontem nielegalnych lub

niecenzuralnych treści oraz SPAM. Oznacza to, że użytkownicy Statlink, nie są narażeni na

kary ręczne od Google’a spowodowane niskiej jakości odnośnikami.

System Statlink oferuje dwa rodzaje stałych linków. Pierwszy rodzaj są to linki przydzielane

algorytmicznie. Jest to bardziej popularny sposób pozyskiwania odsyłaczy. Od użytkowników

pobierane są punkty za każdy link przydzielony przez algorytm systemu. Punkty te otrzymują

właściciele stron na których dany link został zamieszczony. Punkty pobierane są raz w

miesiącu, licząc od dnia zamieszczenia linku (włącznie).

System oferuje również przydzielanie linków metodą ręczną. Za te linki punkty nie są

pobierane, ponieważ istnieje możliwość zamieszczania odnośników tylko na własnych

zasobach. Te metoda jest raczej mało popularna, ponieważ nie każdy pozycjoner posiada na

tyle liczny zbiór własnych stron internetowych, aby móc zamieszczać na nich odnośniki do

stron pozycjonowanych.

W sytuacjach, gdy pozycjoner jest początkujący i nie posiada własnych zasobów jest

zmuszony do korzystania z obcych zasobów za które musi płacić punktami Statlink. Taka osoba

nie jest w stanie sama zarobić odpowiedniej ilości punktów. Odpowiedzią na takie problemy

ze strony Systemu Statlink jest transfer punktów. Użytkownicy odkupują od siebie punkty w

pakietach (po tysiąc punktów w pakiecie). Na chwilę obecną cena takiego pakietu kształtuje się

w okolicach dwudziestu złotych. Pakiety punktów można znaleźć chociażby na popularnym

serwisie aukcyjnym Allegro [33]. Istnieje również wiele stron internetowych założonych przez

ludzi, którzy odsprzedają punkty Statlink w atrakcyjnych cenach. Jednym z bardziej

popularnych jest serwis Punkty SEO [34].

Po zarejestrowaniu się w systemie Statlink i zakupieniu punktów można przystąpić do

tworzenia profilu linkowego pozycjonowanej domeny. W tym celu należy przejść do panelu

użytkownika i kliknąć w sekcję „Twoje linki”. W tym miejscu wszelkie operacje możliwe do

Page 33: Paweł Budynek Metody optymalizacji i pozycjonowania stron

33

wykonania są zakwalifikowane do czterech różnych grup. Każda z tych grup zostanie dokładnie

opisana.

Grupa: „Nowy link”

W tym miejscu można dodać całą grupę linków dla danej frazy (anchor tekstu). W

pierwszym polu „adres url linka” wprowadzamy adres do podstrony która ma być

pozycjonowana. Standardowo w tym polu jest zamieszczony pierwszy człon odnośnika (www).

Jest on dobrym przypomnieniem o tym, aby nie zamieszczać odnośników do podstrony, która

przekierowuje na kolejną podstronę. Jeżeli optymalizując kod HTML zdecydowaliśmy się na

przekierowanie z adresy z przedrostkiem WWW na taki bez tego przedrostka można naturalnie

przedrostek WWW skasować z pierwszego pola.

Kolejne pole formularza służy do zamieszczenia frazy która ma być zamieszczona w

tekstach kotwicy. Jest ona również frazą na którą będzie pozycjonowana dana podstrona.

Podczas wprowadzania anchor tekstu należy pamiętać o polskich znakach. Zdecydowanie

lepiej jest zamieszczać frazę z polskimi znakami. W takich wypadkach, gdy ktoś wyszuka

odpowiednik danej frazy w wyszukiwarce nie używając polskich znaków to w najgorszym

wypadu dana strona wyświetli się 3 pozycje niżej niż powinna. Gdybyśmy postąpili inaczej i

zamieścili w tym polu adres strony bez polskich znaków, istniało by bowiem ryzyko, że

użytkownik, który tych znaków użyje w ogóle nie zobaczy w wynikach pozycjonowanej

domeny. Jednakże zdarzają się przypadki w których lepiej jest użyć mało dokładnej pisowni.

Świetnym przykładem jest sytuacja w której zadaniem pozycjonera jest pozycjonowanie nazwy

firmy, której pisownia jest na tyle skomplikowana, że klienci lubią ją sobie upraszczać.

Konieczną do zrobienia czynnością jest wybranie z listy kategorii takiej która najlepiej

opisuje pozycjonowaną podstronę. System będzie starał się zamieszczać odnośniki głównie w

wybranej przez użytkownika kategorii. W przypadku, gdy w danej kategorii zabraknie miejsca

Statlink automatycznie zacznie zamieszczać linki w stronach z innych kategorii. Można tego

uniknąć odznaczając opcję „Gry zabraknie miejsca w wybranej Kategorii przydzielaj w innych

Kategoriach”. Zaleca się zamieszczanie odnośników tylko na stronach zbliżonych tematycznie,

niestety nie zawsze jest to możliwe. Warto na początku spróbować wykluczyć linki nie

związane tematycznie, a gdy przyrost będzie zbyt wolny, można tę opcję ponownie zaznaczyć.

Page 34: Paweł Budynek Metody optymalizacji i pozycjonowania stron

34

Dzięki dwóm kolejnym funkcjom można ustawić preferencje dotyczące wartości PageRank

stron na których będą publikowane odnośniki. Użytkownik może wybrać zarówno strony o

PageRanku wyższym od zera jak i równym zero. Słuszność wyboru tej opcji zależy od danej

sytuacji. W wypadku, gdy domena jest nowa, warto wybrać opcję umożliwiającą publikację

linków na stronach o zerowej wartości PageRank. Same odnośniki prowadzące ze stron o

wysokim PageRank mogą wyglądać na próbę oszustwa, a kilka mało wartościowych linków z

pewnością poprawi wiarygodność profilu linkowego domeny. Kolejnym aspektem na który

warto zwrócić uwagę jest to, że stron o zerowym poziomie PageRank jest znacznie więcej.

Dlatego też w przypadku wybrania opcji przydzielania linków ze stron o poziomie PageRank

równym zero przyrost odnośników z pewnością będzie o wiele szybszy.

Kolejna opcja okazuje się przydatna tylko w wypadku, gdy pozycjonowana domena posiada

już rozbudowany profil linkowy. W takich sytuacjach pozycjonerowi powinno zależeć tylko na

wartościowych linkach, gdyż opłacanie bezwartościowych (w tej sytuacji) odnośników może

mijać się z celem. System na prośbę użytkownika może wycofywać linki, które początkowo

zostały przydzielone z powodu posiadania PageRank powyżej zera. Gdy PageRank takiej

strony zostanie zmieniony na zero system automatycznie usunie wszystkie linki prowadzące do

pozycjonowanej podstrony.

„Przyrost/spadek dzienny” odpowiada za ilość linków która może zostać maksymalnie

przydzielona w ciągu jednego dnia lub tygodnia dla danej frazy. To pole umożliwia dokładne

sprecyzowanie wybranej przez pozycjonera strategii. Bezpiecznym rozwiązaniem jest

ustawienie publikacji na poziomie jednego odnośnika co 2 lub 3 dni. Taka częstotliwość

publikacji nie powinna okazać się szkodliwa dla pozycjonowanej domeny. W przypadku, gdy

konkurencja dla wyszukań pozycjonowanej frazy jest bardzo wysoka, można ustawić większą

częstotliwość. Niestety w przypadku wcześniej dokonanego wyboru o niepublikowaniu

odnośników na stronach o PageRank równym zero częstotliwość może okazać się mniejsza od

tej którą wybrał pozycjoner. Wynika to z ilości stron, które są zapisane w bazie danych systemu

dla wybranej przez pozycjonera kategorii.

Kolejne pole określa docelową liczbę linków która zostanie opublikowana dla danej frazy.

Warto ograniczyć ilość opublikowanych linków, ponieważ w przypadku pozostawienia

wartości „0” (która jest wpisana docelowo), system będzie publikował linki tak długo aż

skończą się posiadane punkty na koncie użytkownika. Ograniczeniem minimalnym jakie

można wprowadzić to 25 odnośników. Zawsze warto ograniczyć publikacje właśnie taką liczbą.

Page 35: Paweł Budynek Metody optymalizacji i pozycjonowania stron

35

Publikacja 25 linków z ustawioną częstotliwością co 3 dni potrwa minimum 8 tygodni. Przez

taki czas może się okazać, że jest to optymalna ilość do uzyskania odpowiedniej pozycji dla

pozycjonowanej domeny. Gdy po osiągnięciu górnej granicy 25 odnośników, pozycja nadal nie

ulegnie zmianie, można zdecydowanie tę granicę zwiększyć.

Następna funkcja służy do wybrania ile z opublikowanych linków ma dodatkowo być

opatrzona parametrem nofollow. Wartość ta jest wyrażana w procentach, a linki wybierane są

losowo. W przypadku, gdy górna granica ilości opublikowanych linków wynosi 25, pozycjoner

nie powinien wprowadzać w tym miejscu żadnej wartości. Mała ilość linków nie potrzebuje

dodatkowo parametru, który nie będzie pozwalał robotowi Google dotrzeć do pozycjonowanej

strony. Sytuacja ulega zmianie, gdy liczba opublikowanych linków jest znacznie wyższa. W

takim przypadku zalecane jest wręcz zamieszczenie kilku procent linków nofollow.

Kolejna funkcja oferuje śledzenie pozycji linkowanej frazy w TOP100 rankingu Google’a

pod danym zapytaniem. Jest ona bardzo przydatna ponieważ przedstawia jak kształtował się

średnio wynik pozycjonowanej frazy na przestrzeni ostatnich 7 tygodni. Wyniki pozycji dla

pozycjonowanej frazy są jednak widoczne dopiero po osiągnięciu minimalnej ilości

przydzieleń odnośników, która wynosi 25. Dodatkowo po włączeniu funkcji śledzenia pozycji

w wyszukiwarce Google pojawia się opcja dodatkowa – „Pozycja STOP”. To narzędzie

zatrzyma publikacje linków w sytuacji, gdy pozycjoner obierze za górną granicę ilości

przydzieleń linków liczbę większą od 25, a po publikacji tych 25 linków system zwróci

informację, że linkowana domena osiągnęła już odpowiednią pozycję w rankingu. Dodatkowo

system automatycznie wznowi publikacje odnośników, gdy pozycja zmieni się na niekorzyść

osoby pozycjonującą domenę. System umożliwia również ustawienie powiadomienia o

uzyskaniu oczekiwanej pozycji.

Następna opcja oferowana przez Statlink umożliwia uzupełnianie brakujących linków. Do

takiej sytuacji może dojść w momencie, gdy odnośniki prowadzące do pozycjonowanej strony

zostały zamieszczone na stronach które, zostały usunięte z systemu z powodu zaprzestania

spełniania wymogów jakościowych serwisu Statlink. Zaleca się używanie tej funkcjonalności,

ponieważ może dojść do sytuacji w której ilość odnośników do pozycjonowanej podstrony

drastycznie spadnie, przy czym pozycja w rankingu Google pozostanie bez zmian. Jeżeli ilość

linków nie zostanie uzupełniona roboty mogą uznać, że jakość treści zawartej na

pozycjonowanej strony zmieniła się na gorszą co w efekcie obniży pozycję pozycjonowanej

strony. Używanie opcji uzupełniania odnośników zapobiega powstawaniu takich sytuacji.

Page 36: Paweł Budynek Metody optymalizacji i pozycjonowania stron

36

Funkcja „Twoja Grupa” pozwala dodatkowo na utrzymaniu porządku w pozycjonowanych

frazach. Można utworzyć grupy według uznania i pozamieszczać w nich frazy. Ta funkcja nie

ma jednak żadnego wpływu na pozycję strony. Dodatkowo w sytuacji, gdy użytkownik

wprowadził od systemu własne strony internetowe warto zaznaczyć opcję „Nie promuj na

moich stronach”. Gdy użytkownik chce zamieścić odnośniki na własnych stronach z pewnością

lepiej jest zrobić to ręcznie, ponieważ takie zamieszczanie linków przynosi o wiele lepsze

efekty niż linki publikowane przez Systemy Wymiany Linków. Po odpowiednim wypełnieniu

całego formularza, można zaakceptować wprowadzone informacje za pomocą przycisku

„DODAJ”. Wygląd formularza został przedstawiony na rysunku 17.

Źródło: opracowanie własne na podstawie formularza dodawania linków [32].

Rysunek 17. Przykład prawidłowo wypełnionego formularza dodawania linków w systemie Statlink.

Page 37: Paweł Budynek Metody optymalizacji i pozycjonowania stron

37

Grupa: „Statystki Disavow”

Grupa „Statystyki Disavow” odpowiada za usuwanie odnośników zamieszczonych na

niepożądanych stronach internetowych. Użytkownik może chcieć usunąć odnośniki z dwóch

powodów. Głównym powodem zazwyczaj jest pojawienie się komunikatu w panelu Google

Webmaster Tools o niewiarygodności danej domeny linkującej i o nałożeniu kary ręcznej do

momentu zrzeknięcia się odnośników z tej domeny. Drugim powodem może być samodzielna

decyzja użytkownika systemu o usunięciu odnośników. Bardziej doświadczeni pozycjonerzy

potrafią sami zidentyfikować mało wartościowe domeny, które mogą źle wpłynąć na pozycję

pozycjonowanej strony w rankingu Google’a.

Zgłoszenie z prośbą o usunięcie niechcianych linków może mieć charakter pojedynczego

zgłoszenia bądź listy zgłoszeń. W przypadku, gdy użytkownik otrzymał komunikat z Google

Webmaster Tools o wielu spamerskich adresach linkujących do pozycjonowanej strony to może

on jednorazowo zgłosić do 50 adresów lub domen. Adresy powinny zostać oddzielone znakiem

nowej linii.

Po wypełnieniu formularza i zaakceptowania go za pomocą przycisku „USUŃ

LOKALIZACJĘ LINKÓW” dochodzi do trzech rzeczy. Na początku zgłoszone linki zostają

usunięte z niechcianych adresów lub domen. Następnie niechciane adresy i domeny zostają

dodane do czarnej listy użytkownika, której zadaniem jest zapobieganie w przyszłości

powstawaniu takich sytuacji. Efektem końcowym jest zwrócenie użytkownikowi listy

odnośników, które do tej pory nie zostały zgłoszone właśnie przez tego użytkownika oraz te

które nie mogły zostać usunięte ponieważ nie znajdują się na liście odnośników linkujących do

pozycjonowanych stron internetowych. W przypadku, gdy zwrócony komunikat zawiera w

sobie jakieś linki, prawdopodobnie oznacza to, że przy zgłaszaniu niechcianych adresów doszło

do pomyłki i należy zweryfikować wszystkie zwrócone odnośniki.

Funkcja „Statlink Disavow” jest bardzo przydatna ponieważ nie zmusza użytkownika do

zrzekania się odnośników za pomocą Google Webmaster Tools. Dodatkowo, przed wysłaniem

zgłoszenia istnieje możliwość oznaczenia niechcianych adresów etykietą „adresy pochodzą z

powiadomienia GWT”, która dodatkowo zwiększa bezpieczeństwo pozycjonowanych stron,

ponieważ po głębszej weryfikacji, strony oznaczone tą etykietą mogą zostać usunięte ze stron

Page 38: Paweł Budynek Metody optymalizacji i pozycjonowania stron

38

partnerskich Systemy Wymiany Linków Statlink. Wygląd formularza został przedstawiony na

rysunku 18.

Źródło: opracowanie własne na podstawie funkcji Disavow [32].

Rysunek 18. Wygląd formularza zrzekania się adresów zawierających odsyłacze do pozycjonowanej strony.

Grupa: „Statystyka”

Grupa „Statystyka” odpowiada za prezentację najpotrzebniejszych informacji, które zostały

podzielone są na trzy bloki. Pierwszy blok odpowiada za wyświetlanie informacji odnośnie

standardowych linków, drugi blok odpowiada za informacje dotyczące linków Gold. Warto

wiedzieć że funkcjonalność Gold różni się od Standard tym, że w przypadku Gold linki

publikowane są na wszystkich podstronach serwisu, a w przypadku Standard tylko na jednej z

podstron partnerskiego serwisu. Trzeci, ostatni blok przedstawia na wykresie poglądowy

wykres zużywanych przez użytkownika systemu zasobów.

W dwóch pierwszych blokach prezentowane są informacje o ilości stron, które użytkownik

wprowadził do systemu, a także ile Punktów za te wprowadzone strony otrzymał. Widoczna

jest również informacja o ilości punktów, które zostały przyznane za długość stażu danej strony

Page 39: Paweł Budynek Metody optymalizacji i pozycjonowania stron

39

w systemie oraz za unikalne adresy IP serwerów na których strony te się znajdują. System

przedstawia także informację o tym, ile stron linkuje użytkownik i na ilu portalach te linki są

zamieszczane, a także ile łącznie pobranych zostało za odnośniki punktów w danym okresie

rozliczeniowym. Nie brakuje również informacji ile punktów zostało przetransferowane na

konto użytkownika. Dodatkowo system przedstawia informację o średnim koszcie za jeden link

(wyrażanej w punktach) oraz o maksymalnej ilości punktów uzyskanych za jedną stronę (wśród

wszystkich użytkowników systemu Statlink).

Trzeci blok prezentuje poglądowy wykres monitorujący zasoby użytkownika. Dane

widoczne są na przestrzeni trzech ostatnich miesięcy i dotyczą ilości linkowanych stron, a także

kosztów i ilości przydzielonych odnośników.

Grupa „Statystyka” jest nie mniej potrzebna od dwóch poprzednich. Dzięki niej użytkownik

może w szybki i łatwy sposób dowiedzieć się na przykład ile punktów może nadal wykorzystać

w danym miesiącu. Jest to bardzo istotna informacja, gdyż w momencie wykorzystania puli

punktów system wstrzymuje dalsze publikowanie odnośników. Wygląd grupy „Statystyka”

został przedstawiony na rysunku 19.

Źródło: opracowanie własne na podstawie statystyk Statlink [32].

Rysunek 19. Wygląd grupy „Statystyka” dla użytkownika pozycjonującego dwa adresy internetowe.

Page 40: Paweł Budynek Metody optymalizacji i pozycjonowania stron

40

Grupa: „Lista linków”

Ostatnia grupa umożliwia podgląd wprowadzonych wartości za pomocą funkcji dodawania

nowych linków. W tej sekcji zostają zaprezentowane takie informacje jak globalny numer ID

przydzielony do pozycjonowanej strony oraz link, który do niej prowadzi. Obok można

zobaczyć frazę pod którą jest pozycjonowana dana strona internetowa. Następnie wyświetlana

jest informacja o tym, czy system nadal dodaje linki czy też automat został wstrzymany z

powodu osiągnięcia docelowej liczby linków lub odpowiedniej pozycji strony w rankingu.

Widoczne są również takie informacje jak ilość przydzielonych linków z parametrem nofollow,

ilość przydzielonych linków oraz datę ostatniego przydzielenia. Dalej można sprawdzić czy

strona jest promowana na domenach dodanych przez użytkownika, na stronach o jakim

PageRanku są publikowane linki oraz czy system reaguje za zmiany PageRank. Następnie

prezentowane są informację o tym, czy w razie ograniczonej ilości linków w wybranej przez

użytkownika kategorii system będzie przydzielał odsyłacze w innych kategoriach oraz czy w

przypadku wycofania odsyłaczy system będzie je uzupełniał. Prezentowana jest również łączna

ilość punktów jaką system pobiera za odsyłacze prowadzące do danej domeny, pozycja w

rankingu Google TOP100, pozycję przy której system zaprzestanie publikować linki oraz

kategorię do której zakwalifikowaliśmy pozycjonowaną domenę.

Statlink umożliwia również wyszukiwanie pozycjonowanych domen oraz sortowanie ich

względem grup użytkownika, które sam stworzył w celu zachowania względnego porządku na

liście pozycjonowanych adresów. W tej sekcji można również usunąć odnośniki prowadzące

do danego adresu internetowego, a także dowolnie je edytować. Edycja dodanych linków

okazuje się przydatna najczęściej w sytuacji, gdzie została osiągnięta górna granica przydzieleń

odnośników, a pozycjonowana strona nadal nie znajduje się na oczekiwanym miejscu w

rankingu Google. W takich sytuacjach należy zwiększyć dopuszczalną ilość przydzieleń linków

lub rozważyć powrót do etapu optymalizacji kodu HTML pozycjonowanego serwisu, gdyż być

może jakiś poważny problem został przeoczony lub celowo pominięty z powodu zbyt małej

ilości czasu lub funduszy. Warto dokonać edycji również w przypadku, gdy od rozpoczęcia

procesu tworzenia profilu linkowego domeny minęło dużo czasu, a górna granica przydzieleń

nadal nie została osiągnięta. W takim przypadku warto rozważyć przydzielanie odnośników ze

stron z innych kategorii tematycznych lub stron o poziomie PageRank równym 0. Przykładowa

lista linków została przedstawiona na rysunku 20.

Page 41: Paweł Budynek Metody optymalizacji i pozycjonowania stron

41

Źródło: opracowanie własne na podstawie listy linków systemu Statlink [32].

Rysunek 20. Wygląd grupy „Lista linków” dla użytkownika pozycjonującego dwa adresy internetowe.

Wykaz stron emitujących linki

Niezwykle problematyczne okazują się odnośniki, których jakość znacznie odbiega od

standardowej jakości oferowanej przez System Statlink. Osoba pozycjonująca daną domenę ma

możliwość zweryfikowania wszystkich przydzielonych odsyłaczy za pomocą narzędzia

wykazującego strony emitujące linki. Pozycjoner powinien zdecydować się na weryfikacje

wszystkich odsyłaczy w przypadku, gdy pozycja w ranking nagle znacznie spadła.

Narzędzie „Wykaz stron emitujących linki” jest listą wszystkich domen wygenerowanych

przez System które zawierają odnośniki do pozycjonowanej strony internetowej. Dodatkowo

każdy z adresów ma przypisaną liczbę porządkową, datę przydzielenia odnośnika, wartość

PageRank domeny, pole umożliwiające wprowadzenie opisu niezgodności odsyłacza oraz

opcję usuwania linku.

Pole zawierające odnośnik prowadzący do pozycjonowanej domeny w wielu przypadkach

jest częściowo zakrywane przez „gwiazdki”. Odnośniki zostają całkowicie odkryte dopiero w

momencie, gdy na przestrzeni trzech miesięcy zostanie przydzielone minimum 5000

odnośników. Minimalna granica przydzieleń jest wysoka i nie każdy użytkownik potrzebuje,

aż tyle odsyłaczy (w przypadku fraz łatwych do wypozycjonowania zazwyczaj wystarcza 25

przydzieleń). Statlink zakrywa znaki w odnośnikach w sposób losowy. Dlatego też w celu

uzyskania pełnego adresu można zwyczajnie odświeżyć stronę ujawniając w ten sam sposób

brakujące wcześniej znaki.

Page 42: Paweł Budynek Metody optymalizacji i pozycjonowania stron

42

W sytuacji wykrycia przez użytkownika przydzieleń niskiej jakości można je zwyczajnie

usunąć. W wielu przypadkach skasowanie linków niskiej jakości może polepszyć pozycję

strony internetowej. Warto jednak pamiętać, że niska pozycja nie zawsze jest spowodowana

nietrafnymi przydzieleniami. Często pozycję może polepszyć ponowna optymalizacja strony

internetowej. Warto również upewnić się, czy przypadkiem na pozycjonowanej stronie nie

zostały wprowadzone zmiany przez klienta. Przykładowa lista stron emitujących linki została

przedstawiona na rysunku 21.

Źródło: opracowanie własne na wykazu stron emitujących linki w systemie Statlink [32].

Rysunek 21. Wygląd listy stron emitujących linki dla przykładowego użytkownika.

3.3 Prywatne zaplecza

Linkowanie może odbywać się również za pomocą prywatnego zaplecza pozycjonerskiego.

Zaplecza działają w bardzo podobny sposób do Systemów Wymiany Linków. Różnica

pomiędzy nimi polega na tym, że prywatne zaplecza charakteryzują się o wiele wyższą jakością

odsyłaczy. Stworzenie i utrzymanie własnego zaplecza pozycjonerskiego wymaga dużych

nakładów pieniężnych i dlatego też mogą sobie na nie pozwolić tylko większe firmy

pozycjonerskie.

Page 43: Paweł Budynek Metody optymalizacji i pozycjonowania stron

43

Zasady dodawania odnośników zależą głównie od tego w jaki sposób przygotuje je

programista, ale głównie działanie polega na stworzeniu bazy danych zawierającej wiele domen

na których można zamieszczać linki oraz zautomatyzowanie całego procesu za pomocą

odpowiednio napisanego kodu w języku wysokiego poziomu (np. PHP). W celu ułatwienia

dostępu do zaplecza prezentuje się wyniki jego działania za pomocą kodu HTML oraz

Kaskadowych Arkuszy Stylu. Dokładne opisanie działania prywatnego zaplecza

pozycjonerskiego niestety jest niemożliwe. Firmy dokładnie strzegą informacji dotyczących ich

prywatnych zaplecz. Pracownik chcący podjąć pracę w firmie zazwyczaj jest zobowiązany do

podpisania dokumentu świadczącego o tym, że nie będzie udostępniał zawartości i informacji

dotyczących danego zaplecza pod groźbą kary pieniężnej.

Efekty linkowania strony internetowej przy użyciu prywatnego zaplecza można porównać

do efektów uzyskanych linkowaniem ręcznym. Warto pamiętać, że samo zamieszczanie

odsyłaczy jest w pewnym stopniu zautomatyzowane i ogranicza się zaledwie do wypełnienia

kilku pól w formularzu publikującym linki. Dzięki temu samo przydzielanie odsyłaczy jest

znacznie szybsze niż w przypadku linkowania ręcznego, a dodatkowo bardziej skuteczne niż

używanie Systemów Wymiany Linków. Jednakże dostęp do zaplecz pozycjonerskich jest

ograniczony głównie do pracowników większych firm.

Page 44: Paweł Budynek Metody optymalizacji i pozycjonowania stron

44

Zakończenie

Pierwszy etap pozycjonowania jakim jest przygotowanie listy fraz i zbadanie błędów

występujących na stronie często decyduje o tym, czy klient będzie zadowolony z uzyskanych

efektów. Nie zawsze uzyskanie pierwszego miejsca w rankingu Google’a oznacza, że sprzedaż

w firmie ulegnie zmianie na korzyść klienta. Dlatego ważne jest dokładne dobranie słów

kluczowych i fraz pod jakimi strona powinna być wyświetlana. W trakcie dobierania listy fraz

nie można zapomnieć o takich czynnikach, jak liczba kliknięć w link dla danej frazy oraz liczba

jej wyszukań na przestrzeni miesiąca. Warto również dokładnie zbadać błędy występujące na

stronie i jak najbardziej je zminimalizować. Ilość przychodów ze strony lub sklepu

internetowego często zależy od jakości oraz ilości prezentowanych informacji na stronie

internetowej. Warto wykorzystywać narzędzia, które udostępnia firma Google. Narzędzia dla

Webmasterów Google znacznie ułatwiają przeprowadzenie kolejnego etapu jakim jest

optymalizacja.

Etap drugi, czyli optymalizacja kodu strony internetowej jest najbardziej czasochłonnym

etapem. Czas włożony w optymalizację serwisu jest jednak adekwatny do uzyskanych efektów.

Sama optymalizacja kodu HTML często okazuje się kluczowa. Przed rozpoczęciem procesu

optymalizacji kodu warto najpierw odpowiednio przebadać stronę za pomocą narzędzia o

nazwie Screaming Frog SEO Spider Tool. Narzędzie to potrafi w przejrzysty sposób

zaprezentować wszystkie informacje na temat większości podstron pozycjonowanego serwisu

internetowego. W samej optymalizacji są elementy mniej i bardziej znaczące. Na początku

warto zadbać o zupełne wyeliminowanie duplikatów treści z pozycjonowanego serwisu

internetowego oraz o odblokowanie strony dla robotów Google. Następnie warto zadbać o

unikalne treści zarówno na stronie jak i w jej meta znacznikach (title, description). Dopiero po

dokonaniu tych kilku najważniejszych czynności warto zagłębić się w mniej znaczące rzeczy,

takie jak znaczniki keywords i alternatywne opisy obrazków (alt) czy też ulepszanie nawigacji

wewnątrz pozycjonowanej strony internetowej.

Trzeci etap, czyli budowanie profilu linkowego powinno odbywać się dopiero po kilku

tygodniach. Warto odczekać trochę czasu, aby dowiedzieć się jakie efekty przyniosła sama

optymalizacja serwisu. Czas potrzebny na zaindeksowanie zmian wprowadzonych na stronie

internetowej jest różny dlatego ciężko stwierdzić po jakim czasie warto rozpocząć budowanie

profilu linkowego domeny. Jednakże zazwyczaj zmiany są dostrzegane w pierwszym miesiącu

Page 45: Paweł Budynek Metody optymalizacji i pozycjonowania stron

45

po dokonaniu zmian. Dopiero wtedy można rozpocząć linkowanie domeny. W przypadku, gdy

użytkownik nie ma dostępu do prywatnego zaplecza pozycjonerskiego powinien zamieszczać

zarówno linki metodą ręczną jak i za pomocą Systemów Wymiany Linków. Samo korzystanie

z Systemów Wymiany Linków może wydawać się o wiele szybsze i łatwiejsze, jednakże warto

pamiętać, że linki zamieszczone metodą ręczną zawsze będą wyższej jakości od tych

przydzielonych przez system. To właśnie linki wysokiej jakości decydują o tym, na której

pozycji znajdzie się pozycjonowana strona internetowa.

Pozycjonowanie stron internetowych to bardzo złożony i czasochłonny proces. Każdy z

opisanych etapów pozycjonowania jest istotny i żadnego nie powinno się omijać, ani

przyspieszać kosztem straty na jakości wykonywanych czynności. Wszystkie przedstawione

przez autora narzędzia, metody optymalizacji kodu HTML oraz sposoby budowania profilu

linkowego zostały wykorzystane przy pozycjonowaniu serwisów internetowych lokalnych

przedsiębiorców. Przy zastosowaniu wyżej opisanych metod autorowi udało się osiągnąć

pierwszą pozycję dla strony internetowej lokalnego serwisu AGD oraz drugie miejsce dla

strony internetowej krajowej firmy kurierskiej.

Page 46: Paweł Budynek Metody optymalizacji i pozycjonowania stron

46

Bibliografia

[1] Encyklopedia Helionica, ARPANET, http://helionica.pl/index.php/ARPANET

(dostęp: 10 stycznia 2015r.)

[2] Encyklopedia Helionica, World Wide Web, http://helionica.pl/index.php/Www

(dostęp: 10 stycznia 2015r.)

[3] Encyklopedia Helionica, Historia Internetu,

http://helionica.pl/index.php/Historia_Internetu

(dostęp: 10 stycznia 2015r.)

[4] Google Support, Sprawdzanie jak ważna jest strona według PageRank,

https://support.google.com/toolbar/answer/79837?hl=pl

(dostęp: 15 stycznia 2015r.)

[5] Chitika, The Value of Google Result Positioning,

http://cdn2.hubspot.net/hub/239330/file-61331237-pdf/ChitikaInsights-

ValueofGoogleResultsPositioning.pdf

(dostęp: 18 stycznia 2015r.)

[6] Whitepress, Panda, Pingwin i inne zmiany w wyszukiwarce Google,

https://www.whitepress.pl/baza-wiedzy/24/panda-pingwin-i-inne-zmiany-w-

wyszukiwarce-google

(dostęp: 18 stycznia 2015r.)

[7] Google Support, Więcej informacji o programowaniu witryn na komórki,

https://support.google.com/webmasters/answer/72462?hl=pl

(dostęp: 18 stycznia 2015r.)

[8] Google Support, Wskazówki dla webmasterów,

https://support.google.com/webmasters/answer/35769?hl=pl

(dostęp: 18 stycznia 2015r.)

[9] Google Support, Prośby o ponowne rozpatrzenie zgłoszenia,

https://support.google.com/webmasters/answer/35843

(dostęp: 18 stycznia 2015r.)

[10] Google AdWords, Narzędzie, http://www.google.pl/adwords/

(dostęp: 05 marca 2015r.)

[11] Google Webmaster Tools, Narzędzie, https://www.google.com/webmasters/

(dostęp: 05 marca 2015r.)

Page 47: Paweł Budynek Metody optymalizacji i pozycjonowania stron

47

[12] Google Support, Roboty Google

https://support.google.com/webmasters/answer/1061943?hl=pl

(dostęp 05 marca 2015r.)

[13] Google Support, Informacje o mapach witryny

https://support.google.com/webmasters/answer/156184?hl=pl

(dostęp 05 marca 2015r.)

[14] Google Analytics, Narzędzie, http://www.google.com/analytics/

(dostęp: 05 marca 2015r.)

[15] Screaming Frog SEO Spider, Narzędzie,

http://www.screamingfrog.co.uk/seo-spider/

(dostęp: 06 marca 2015r.)

[16] Screaming Frog SEO Spider, Licencja narzędzia,

https://www.screamingfrog.co.uk/seo-spider/licence/

(dostęp: 06 marca 2015r.)

[17] Encyklopedia Helionica, World Wide Web Consortium,

http://www.helionica.pl/index.php/W3C

(dostęp: 20 kwietnia 2015r.)

[18] Google Support, Zrzekanie się linków,

https://support.google.com/webmasters/answer/2648487?hl=pl

(dostęp: 20 kwietnia 2015r.)

[19] Google Support, Zmiana URL-i stron za pomocą przekierowań 301,

https://support.google.com/webmasters/answer/2648487?hl=pl

(dostęp: 27 kwietnia 2015r.)

[20] Pomoc home.pl, Przekierowanie 301 w pliku .htaccess,

https://pomoc.home.pl/baza-wiedzy/przekierowanie-301-w-pliku-htaccess/

(dostęp: 20 kwietnia 2015r.)

[21] Google Support, Stosowanie kanonicznych URL-i,

https://support.google.com/webmasters/answer/139066?hl=pl

(dostęp: 23 kwietnia 2015r.)

[22] Google Support, Sprawdzanie tytułów i fragmentów stron,

https://support.google.com/webmasters/answer/35624?rd=1

(dostęp 23 kwietnia 2015r.)

Page 48: Paweł Budynek Metody optymalizacji i pozycjonowania stron

48

[23] Google Webmaster Central Blog, Google does not use keywords meta tag in

webranking, http://googlewebmastercentral.blogspot.com/2009/09/google-does-

not-use-keywords-meta-tag.html

(dostęp: 23 kwietnia 2015r.)

[24] Google Support, Metatagi, które Google potrafi zinterpretować,

https://support.google.com/webmasters/answer/79812?hl=pl

(dostęp: 23 kwietnia 2015r.)

[25] Google Support, Grafika,

https://support.google.com/webmasters/answer/114016?hl=pl

(dostęp: 23 kwietnia 2015r.)

[26] Google Developers, Breadcrumbs,

https://developers.google.com/structured-data/breadcrumbs

(dostęp: 23 kwietnia 2015r.)

[27] Onet.pl, Serwis Informacyjny, http://www.onet.pl/

(dostęp: 15 maja 2015r.)

[28] Darmowy Katalog SEO, Katalog SEO, http://darmowykatalogseo.pl/

(dostęp: 31 maja 2015r.)

[29] Facebook, Portal społecznościowy, https://www.facebook.com/

(dostęp: 31 maja 2015r.)

[30] Tweeter, Portal społecznościowy, https://twitter.com/?lang=pl

(dostęp: 31 maja 2015r.)

[31] Serwis Ansat, Telewizja DVB-T,

http://www.antenoweuslugiansatpoznan.com.pl/telewizja-dvb-t

(dostęp: 31 maja 2015r.)

[32] Statlink, System Wymiany Linków, http://www.statlink.pl/

(dostęp: 31 maja 2015r.)

[33] Allegro, Serwis aukcyjny, http://www.allegro.pl/

(dostęp: 31 maja 2015r.)

[34] Punkty SEO, Sklep z punktami Statlink, http://www.punkty-statlink.pl/

(dostęp: 31 maja 2015r.)