Stworzenie strony internetowej jest zaledwie pierwszym krokiem do zwiększenia widoczności firmy w Internecie. Poszukując rozwiązań niewymagających już na początku sporych inwestycji reklamowych, warto zastanowić się nad pozyskaniem odbiorców w sposób naturalny – poprzez wejścia z organicznych wyników wyszukiwania.

Tym artykułem rozpoczynam 3-częściowy poradnik „Pozycjonowanie strony firmowej”, dzięki któremu za pomocą szeregu nieskomplikowanych działań możesz zwiększyć widoczność strony w wyszukiwarce, a przez to poszerzyć grono jej odbiorców.

Optymalizacja strony internetowej

Optymalizacja strony jest podstawowym czynnikiem mającym wpływ na ocenę strony przez roboty wyszukiwarki. Z mojego doświadczenia wynika, że stałe działania optymalizacyjne to ponad 50% sukcesu w SEO. W tej części poradnika przedstawię jak krok po kroku zoptymalizować witrynę firmową i rozpocząć przygodę z pozycjonowaniem.

1. Unikalna treść

Podstawową elementem, o który należy zadbać, aby wyszukiwarka uznała stronę za wartościową jest wypełnienie serwisu unikalną treścią. Unikalną, czyli zupełnie odmienną od tekstów znajdujących się w dowolnym innym miejscu w Sieci.

Pamiętaj o tym, że choćby Twoja strona była niezwykle imponująca graficznie to wyszukiwarka jej wartość oceni po obecności i jakości treści, która się na niej pojawia. Przygotuj na każdą z podstron serwisu opisy zawierające minimum 1000 – 1500 znaków.

Zapomnij jednak o kopiowaniu tych samych opisów firmy na stronie internetowej, fanpage’u na Facebooku, profilu Google Plus, czy wpisie w Katalogu Firm. Aby Twoja strona internetowa mogła wspinać się na coraz wyższe pozycje, musi być wyjątkowa dla wyszukiwarki.

2. Optymalizacja metatagów

Metatagi są dla wyszukiwarki podsumowaniem zawartości każdej z podstron. Pamiętaj, aby były one bezpośrednio związane z wcześniej przygotowanymi opisami.

2.1. Title

Z technicznego punktu widzenia, Title nie jest metatagiem, lecz ze względu na swoją historię i częste występowanie z Description, wciąż jest zaliczany do tej grupy.

W Title każdej z podstron znaleźć powinien się unikalny tytuł o długości ok. 70 znaków, dopasowany do tematyki danej podstrony.

<title>Tytuł strony na ok. 70 znaków</title>

Minęły już czasy, w których najbardziej skuteczne było upchnięcie w Title jak największej liczby słów kluczowych.
Skup się na tym, aby Tytuł był przyjazny dla Internautów i po wyświetleniu się w wynikach wyszukiwania w naturalny sposób naprowadzał na tematykę podstrony.
Pamiętaj o tym, że Google wyświetli 520 px Twojego tytułu (zgodnie z testami SEOMofo). Jśli masz wątpliwość jak będą prezentować się wyniki wyszukiwania, sprawdź to na stronie http://www.seomofo.com/snippet-optimizer.html.

2.2. Metatag Description

Metatag Description to ok. 156 znaków będących dłuższym podsumowaniem zawartości strony. Nie ma on bezpośredniego wpływu na pozycję witryny, ale ma spore znaczenie marketingowe. W przypadku mniejszych stron firmowych, do każdej z podstron warto napisać unikalne podsumowanie, które znajdzie się w Description.

 <meta name="description" content="Unikalny opis na ok. 156 znaków" />

3. Poprawna hierarchia nagłówków

Bardzo istotną i często pomijaną kwestią jest hierarchia naglówków na stronie. Aby zrozumieć samą ideę istnienia nagłówków, najlepiej wyobrazić sobie artykuł opulikowany w gazecie lub czasopiśmie. Spotykamy się tu z nieodłącznymi elementami, takimi jak:

  • Tytuł artykułu – odpowiednik nagłówka H1. Tak jak niespotykane są artykuły o 2 tytułach, tak na konkretnej podstronie serwisu może pojawić się tylko jeden nagłówek H1*. Na stronie internetowej nagłówek H1 powinien być spójny z metatagiem Title i zawierać identyczną lub bardzo podobną treść.
  • Śródtytuły rozpoczynające kolejne sekcje artykulu – odpowiedniki nagłówków H2, H3, H4, H5, H6. Śródtytułów w artykule może pojawić się wiele, tak jak nagłówków H2…H6. W zależności od długości artykułu możemy mówić o zagnieżdzeniu kolejnych śródtytułów. Każda z podstawowych sekcji (naglówki H2) może być podzielona na mniejsze fragmenty (nagłówki H3). W wyjątkowych przypadkach te mniejsze fragmenty (H3) mogą zostać podzielone ponownie (H4), i tak dalej aż do naglówka H6.

Pamiętaj jednak, że zachowana powinna zostać hierarchia nagłówków. Jeśli decydujemy się na zastosowanie trzech nagłówków, to nie możemy zastosować H1, H3 oraz H6, konieczne jest zachowanie kolejnośći:H1, H2, H3.

Nagłówki H1... H6 - hierarchia

4. Plik Sitemap.xml

Mapa strony w formacie XML to drogowskaz dla wyszukiwarki. Pozwala szybko i sprawnie zaindeksować każdą z podstron serwisu.

W mapie strony warto określić trzy elementy:

  • Adres URL
  • Priorytet strony, czyli wagę strony serwisu względem innych (określana w skali od 0 do 1.0). Strona główna zwyczajowo powinna mieć najwyższą wartość (1.0), w dalszej kolejności powinny znaleźć się strony poszczególnych usług, następnie aktualności, galerie i  strony statyczne, takie jak Kontakt.
  • Frekwencja odwiedzin na stronie, czyli częstotliwość, z jaką robot powinien odwiedzać daną stronę (rekomendowane wartości:daily, weekly, monthly). Warto pamiętać, aby realnie ocenić, jak często będziesz aktualizować stronę i taką wartość jej przypisać. Przykładowo zapewne nie planujesz codziennie zmieniać zawartości zakładki „Kontakt”, zatem warto przypisać jej wartość monthly.

Przykładowy zapis strony:

<url>
 <loc>http://www.webbersaar.com/blog</loc>
 <changefreq>weekly</changefreq>
 <priority>1.0</priority>
 </url>

W Internecie znajdziesz również szereg Generatorów Map XML, polecam http://www.xml-sitemaps.com/. W narzędziu tym warto pominąć parametr „Last modification” (oznaczyć jako „none”) ze względu na możliwość powstania niezgodności pomiędzy datą ostatniej modyfikacji, a szacowanym czasem aktualizacji strony.

5. Plik robots.txt

Plik robots.txt służy do wskazywania robotom wyszukiwarek obszarów serwisu których nie należy indeksować.

  • User-agent: określa robota, którego dotyczy dana reguła
  • Disallow: adres URL, który chcesz blokować

Jeśli na serwerze przechowujesz prywatne pliki, koniecznie zablokuj robotom do nich dostęp. Widziałam już pdfy, prezentacje i prywatne zdjęcia, których indeksacja zupełnie nie była potrzebna :-)

Ponadto w celu optymalizacji czasu ładowania się strony, warto zablokować elementy szablonu graficznego.

Przykładowy zapis w pliku robots.txt:

 User-Agent:*
 Disallow: /prywatne/

W przykładzie tym roboty (w tym Googlebot) mają zablokowany dostęp do folderu „prywatne” i jego zawartości.

Więcej informacji o robots.txt znajdziesz w Pomocy Narzędzi dla Webmasterów Google: https://support.google.com/webmasters/answer/156449?hl=pl

6. Przekierowania (plik .htaccess)

Często pojawiającym się błędem jest obecność pod dwoma adresami, w wersji www (www.domena.pl) i bez www (domena.pl), każdej z podstron serwisu. Choć wyszukiwarka nie powinna uznać błędu za duplikację treści, to moc domeny zostaje osłabiona.
Warto zadbać o poprawne przekierowanie 301 jednego adresu na drugi, na przykład za pomocą dodania do pliku .htaccess formuły:

RewriteCond %{HTTP_HOST} ^ webbersaar.com$ [NC]
RewriteRule ^(.*)$ http:// www.webbersaar.com/$1 [R=301,L]

Powyższy przykład dokonuje przekierowania 301 adresu webbersaar.com na www.webbersaar.com.

7. Błędy w Google Webmaster Tools

Aby śledzisz swój sukces w optymalizacji serwisu, pamiętaj o instalacji narzędzia Google Webmaster Tools. Dzięki temu narzędziu możesz na bieżąco śledzić błędy w serwisie i reagować w sytuacji, gdy wyszukiwarka będzie miała problemy z indeksacją Twojej witryny.
Więcej informacji o Google Webmaster Tools oraz Błedach Indeksacji znajdziesz pod adresem: https://support.google.com/webmasters/topic/2371374?hl=pl&ref_topic=2370395/

Dzięki wdrożeniu w serwisie siedmiu powyższych zaleceń, usprawnisz indeksację Twojego serwisu przez roboty wyszukiwarek. To pierwszy i najważniejszy krok do pozyskania Klientów przez wyszukiwarkę. Powodzenia! :-)

Kolejnej części Poradnika „Pozycjonowanie strony firmowej” spodziewaj się już pod koniec października!