Optymalizacja stron on-site – ciąg dalszy

Optymalizacja stron on-site – ciąg dalszy

Dziedzina SEO, jest dziedziną, która polega na testowaniu i próbach. Doświadczeni w SEO twierdzili, że wiek domeny jest bardzo ważny i jest ważnym aspektem przy pozycjonowaniu. Jednak Matt Cutts, specjalista od Google’a zdementował to. Sam fakt, że domena jest zarejestrowana w 2020 roku nie oznacza, że Google nada jej większą wagę. Spójrzmy tak. Jeśli strona internetowa została zarejestrowana kilka lat temu, ale nie była wykorzystywana i aktualizowana, to dlaczego ma być ważniejsza, niż strona „młodsza” z dobrymi treściami i licznymi odwiedzinami?

Jednak jeśli strona powstała kilka lat temu i ma dużo aktualizowanych treści włącznie z dużą ilością backlinks, to będzie ważniejsza niż strona powstała dopiero teraz.

Narzędzia, które mogą być pomocne przy wyborze domeny

Praktyczne przykłady wyboru nazwy domeny

Czy nazwa domeny jest ważna dla pozycjonowania? Mówi się różnie, niektórzy sądzą, że wyszukiwarki nie przywiązują żadnej uwagi do słów kluczowych, które są zawarte w nazwie domeny, a niektórzy na forach czy blogach doradzają ich wykorzystywanie. Jednakże Google wprowadził EMD Update (exact-match domain). Exact-match domain to domena zawierająca jedno słowo kluczowe, które chcemy pozycjonować. Radzę, by wybierać dla domeny nazwy, które odzwierciedlają realia firmy. Przy rejestrowaniu większej liczby nazw domeny, czyli metodzie domain grabbing warto uważać na nadużywanie tych domen, gdyż Google źle to widzi. Jest jak najbardziej sensowne rejestrowanie domeny z różnymi rozszerzeniami TLD, jednak nie ma sensu rejestrowania domen z przekierowaniem na tę samą witrynę.

Zastanawiacie się czy rejestrowanie domen trzeciego rzędu ma wpływ na pozycjonowanie? Poddomeny są tak samo pozycjonowane jak normalne domeny, są przydatne gdy witryna zawiera różne kategorie tematyczne, jak np. blogi czy fora. Warto wspomnieć, że dla wyszukiwarek poddomeny są samodzielnymi witrynami, warto rejestrować poddomeny krótkie, zawierające jedno, główne słowo kluczowe.

Praktyczne przykłady:

  • Posiadamy firmę działającą w branży wyścigów samochodowych, która znajduje się w Maranello i oferuje sprzedaż samochodów wyścigowych i sprzęt wyścigowy. Skuteczną nazwą jest MaranelloMotorsport.it
  • Firma fotograficzna, która jest własnością Pana Carlosa, chce reklamować się w Internecie. Dobra jest domena carlos.it, jednak bardziej odpowiednia byłaby domena studiophotocarlos.it. Warto jednak rozdzielić myślnikami słowa, np. studio-photo-carlos.it. Jednak taka nazwa byłaby gorsza do wymówienia.

Wpływ IP na wybór domeny

Każda witryna posiada swój adres IP oraz adres URL. Dzięki DNS (domain name system), adres IP jest kojarzony ze sekwencją znaków alfanumerycznych. Adres IP ma duży wpływ na pozycjonowanie strony w wyszukiwarce. Jeśli strona internetowa dzieli adres IP z innymi stronami, adres IP jest wtedy jedyny. Jeśli pod tym samym IP znajdują się witryny wpisane na czarną listę witryn zbanowanych, także i nasza witryna może być ukarana. Także warto wybrać odpowiedniego dostawcę usług internetowych.

W drugim kroku decydujemy, czy nasza witryna będzie miała adres IP dzielony z kimś czy własny. Jeśli skorzystamy z adresu IP dzielonego, zasoby serwera będą rozdzielone pomiędzy witrynami obecnymi na tym serwerze. Również, gdy strona gości na tym samym adresie IP, to skanowanie witryny przez robota wyszukiwarki może być wolniejsze. Ten problem jednak nie wystąpi na statycznym IP. Jeśli będziemy mieli własny adres IP i witryna będzie dobrze zoptymalizowana pod kątem SEO, ważne będzie, by znajdowała się na własnym serwerze mającym odpowiednią przepustowość. Wyszukiwarki są bardzo uczulone na szybkość załadunku strony.

Jeśli mamy zarejestrowaną domenę, możemy wykorzystać poniższe narzędzie, by dowiedzieć się ile witryn internetowych gości na tym samym IP:

http://www.yougetsignal.com/tools/web-sites-on-web-server/

Istnieją także narzędzia testowe dla DNS, które wykrywają nieprawidłowości, które są związane z konfiguracją systemów DNS. Najbardziej znane i uniwersalne to:

IP C-Block

IP C-Block jest to klasa adresów, która ciągnie się od 192.0.1.1 do 223.255.254.254. Adres takiej klasy „może przynależeć do segmentu IP identycznego jak segment innego dostawcy usług – w taki sposób może być więcej witryn z takim samym zakresem IP”.

Gdy zauważymy, że nagle napływ użytkowników na naszą witrynę internetową spadł gwałtownie, jedną z przyczyn może być podłączenie witryn, które mają tę samą blokadę adresów IP klasy C. Wyszukiwarki kontrolują czy podłączone witryny są własnością tego samego webmastera i weryfikują czy jest wykorzystywana ta sama klasa C-Block adresów IP. Warto wykorzystać darmowe narzędzie IP Report (http://www.ip-report.com/index.php), by tego uniknąć.

EMD Update i ocenianie witryn przez Google po wprowadzeniu EMD Update

Wspomniany wcześniej EMD Update jest domeną zawierającą główne słowo kluczowe, które chcemy pozycjonować. Google jest uczulony na techniki spamerskie, np. umieszczanie słowa kluczowego wewnątrz domeny. Matt Cutts poinformował we wrześniu 2012 roku, że „domeny w języku angielskim, które są tak zbudowane, że zawierają w sobie jedno to samo słowo kluczowe, mogą podlegać karze, jeśli są niskiej jakości, czyli jeśli posiadają treść inną niż słowo kluczowe”.

Niektórzy sądzą, że gdy zarejestrujemy nazwę domeny lub domen z przekierowaniem 301, to wpływa to mocno na pozycjonowanie organiczne. Jednakże można temu zaprzeczyć na podstawie deklaracji Google’a.

Jeśli rejestrujemy nazwę domeny dla celów nowoczesnego SEO, należy:

  • zmniejszyć liczbę nazw domen z łącznikami „-„,
  • używać domeny z lokalizacją geograficzną,
  • wykorzystywać nazwę domeny, która składa się z marki i jednego słowa kluczowego,
  • bezwzględnie unikać nazw domen, która składają się tylko z samych słów kluczowych.

Mirrors host name

SEO obejmuje nie tylko optymalizację, czy linkowanie, ale także drobne usprawnienia techniczne. Mowa tu o hostname mirror, czyli dostępność strony zarówno z prefiksem www, jak i bez www.

Hostname mirror może stać się problemem – ponieważ pojawiające się treści będą dublowane, ale także przy indeksowaniu przez robota wyszukiwarki, ponieważ robot będzie potrzebować podwójnego czasu potrzebnego na zeskanowanie stron. W poradniku dla zaawansowanych po Webmarketingu, Marco Maltraversi przytoczył przykład witryny New York Times. Bez prefiksu www. miała ocenę pagerank 7. Z prefiksem www. ocena wynosiła 9. Rozwiązaniem było przekierowanie 301 z wersji bez www. do wersji z www.

Google ujawnił patent „Detecting mirrors on the web” dostępny w wersji angielskiej pod linkiem: htts://tinyurl.com/mirrorhostname

„Jeśli mamy wiele domen (host), które odwołują się do tej samej treści, mogą pojawić się problemy, gdyż wyszukiwarka będzie dążyła do zindeksowania treści związanych z nazwami wielu domen. Na przykład, jeśli wyszukiwarka nie rozpozna poprawnie dwóch nazw domen odnoszących się do tej samej treści, dokona ona skanowania stron z obu nazw. Ponadto dwie nazwy domen mają odniesienie do tej samej treści, co może powodować problemy dublowania się treści i w efekcie deklasyfikację wyników wyszukiwania.”

Rozwiązaniem problemu jest wprowadzenie kodu w pliku .htaccess. W PHP wygląda on tak:

RewriteEngine On

RewriteBase /

RewriteCond %{HTTP_HOST} ^yourdomain.com [NC]

RewriteRule ^(.*) http:// www.domain.com/$1 [L,R=301]

Słowa kluczowe

Gdy wybierzemy domenę, możemy przejść dalej, czyli wyznaczamy słowa kluczowe, które będą identyfikować naszą stronę. Słowa kluczowe są to zdania lub pojedyncze wyrazy, które służą do tego, by nasza strona internetowa została odnaleziona przez użytkowników Internetu. Słowa kluczowe będą musiały być umieszczone w tekście, w metatagach czy kampaniach promocyjnych off site. Wybór słowa kluczowego ma bardzo duże znaczenie i dlatego może nam zająć to przez dłuższy czas.

Gdy wybieramy słowa kluczowe w celu umieszczenia witryny na wyższych pozycjach w wyszukiwarce, mogą nam pomóc w tym metody heurystyczne. Są to teorie, które umożliwiają znalezienie rozwiązania, czy sposobu podejścia do problemu, za pomocą metody, która zapewnia szybkie osiągnięcie danego celu. Termin „heurystyczny” odwołuje się do „metody wykorzystywanej przez sztuczną inteligencję, która rozwiązuje zagadnienia i problemy związane z interpretacją naturalnego języka ludzkiego (LSI)”. Metoda heurystyczna to szybkie rozwiązanie złożonych problemów. Wyszukiwarki wykorzystują wiele takich metod by dostarczać rozwiązania użytkownikom. Robot wyszukiwarki, gdy skanuje witrynę internetową, rozszerza obszar poszukiwania, rozumując w kategoriach heurystycznych i dąży do tego by droga była optymalna.

Generalnie firmy wybierają słowa kluczowe, nieprzestrzegając ścisłej logiki – myślą tylko, które słowa kluczowe oddają prowadzoną działalność, bez zagłębiania się w istotę zagadnienia. Takie podejście jest niewystarczające, gdyż użytkownicy mogą szukać naszej firmy czy produktu, stosując takie kombinacje słów kluczowych, o których nawet firma nie ma pojęcia.

Przy wyborze słów kluczowych:

  • musimy ustalić potrzeby naszych użytkowników,
  • musimy zastanowić się, przy użyciu jakich kombinacji zdań i wyrazów użytkownik może nas szukać,
  • wybierajmy słowa kluczowe przy użyciu, np. Google Ads Keyword Planner,
  • musimy stworzyć spis terminów związanych z naszą działalnością.

Modele poszukiwania słów kluczowych

Poszukiwanie słów kluczowych to chyba jedno z najważniejszych procesów w kampanii SEO. Model klasyczny to poznanie jakie słowa kluczowe mogą odpowiadać potrzebom użytkowników. Dobry specjalista SEO musi wiedzieć, które słowa kluczowe mogą kojarzyć się z tematyką optymalizowanej witryny.

Istnieje szereg narzędzi, które to umożliwiają, przykładowe:

  • Google Ads Keyword Planner,
  • Google Trends,
  • Wordtracker,
  • Semrush,
  • Narzędzie Microsoftu do wyszukiwania słów kluczowych na Bing,
  • Ubersuggest.

Omawiany proces można przedstawić tak:

  • Analiza tematu. Czym zajmuje się firma?
  • Analiza jakościowa słów kluczowych. Za pomocą jakich słów kluczowych szukałbym witryny internetowej firmy? Jakie słowa są najbardziej poszukiwane?
  • Analiza ilościowa. Możemy do tego wykorzystać właśnie Google Ads Keyword Planner lub Wordtracker.
  • Rozszerzenie koncepcji, szukając nowych słów kluczowych na podstawie już wybranych.
  • Przerabianie i analizowanie. Doskonalenie wyników, dobierając lub odrzucając dane słowa kluczowe.

Jest to klasyczne podejście umożliwiające stworzenie wizji zbioru możliwych słów kluczowych do wykorzystywaniu przy pozycjonowaniu.

Analiza słów kluczowych – Nowe podejście

Google dzieli słowa kluczowe na trzy mikrokategorie:

  • informacyjne,
  • nawigacyjne,
  • transakcyjne.

To podejście polega na określaniu intencji użytkownika, jednakże może być bardziej rozszerzone, dzięki nowym technikom i metodom.

Jak badać słowa kluczowe konkurencji

Warto przeanalizować strategię konkurencji odnośnie słów kluczowych i jak najwięcej nauczyć się od innych firm jakie ustalają słowa kluczowe.

Powinniśmy:

  • przeanalizować witrynę internetową konkurencji i ustalić jakie słowa kluczowe są przez nich używane, np. wciskając Ctrl + u lub F12.
  • przebadać pierwsze wyniki w wyszukiwarce, np. za pomocą narzędzia SemRush.
  • odnaleźć artykuły publikowane przez konkurencję, by wychwycić używane przez nich słowa kluczowe, na które także my możemy się pozycjonować.

Jeśli wyrobimy sobie stosowny zestaw poglądów na tematy tych nowych informacji, to będziemy dysponować bogatym zbiorem różnych nowych słów kluczowych. Jednak wiadomo, że łatwiej jest wypozycjonować słowo kluczowe mniej konkurencyjne. Pojawia się tu pojęcie Keyword difficulty związane z umieszczeniem danego słowa kluczowego wysoko w wynikach wyszukiwania. Musimy wykorzystać polecenia, allintitle, allinurl oraz allinanchor dla tego słowa kluczowego.

Możemy wykorzystać narzędzia do poszukiwania słów kluczowych i śledzenia konkurencji. Warto tu wymienić:

Gdy ustalimy konkurencyjność danego słowa kluczowego, mamy dużo informacji, które możemy użyć do pozycjonowania strony internetowej w wyszukiwarkach. Warto oprócz Google’a analizować także Binga i Yahoo!.

Keyword popularity

Gdy odwiedzający poszukują informacji w Internecie – mogą używać różnych słów kluczowych, by zdobyć nowe interesujące informacje. Ważne dla SEO jest znalezienie popularnych słów kluczowych. Jeśli na przykład ktoś szuka informacji wybierając słowa kluczowe automobilistica lub quattro route, to te słowa nie spowodują dużego ruchu, gdyż są mało konkurencyjne. Specjalista SEO powinien zbadać cel, jaki stawia sobie witryna i jej treści, wybierając odpowiednie słowa kluczowe. Naelży także określić przynależność marketingową witryny firmy.

Słowa kluczowe krótkiego i długiego ogona (short tail i long tail)

By uzyskać dobre wyniki w pozycjonowaniu, musimy skupiać się na krokach do wykonania w trakcie poszukiwania słów kluczowych. Jakie są to kroki, przedstawiam poniżej:

  • Szukamy słów kluczowych, które są używane przez naszych konkurentów i identyfikujemy te które są odpowiednie i atrakcyjne dla naszych odbiorców.
  • Sporządzamy listę wszystkich możliwych słów i zdań, których mogą używać użytkownicy, którzy szukają naszej strony.
  • Jeśli nasza witryna już działa, warto wziąć pod uwagę dane statystyczne i przeanalizować plik z zapisami, by wybrać słowa kluczowe, które mają być użyte.
  • Przygotowane w ten sposób słowa kluczowe należy podzielić na trzy grupy:
    • słowa kluczowe, ogólne short tail o cechach:
      • krótkie zdania lub pojedyncze wyrazy,
      • niski współczynnik konwersji,
      • możliwość wystąpienia słabego ruchu,
    • słowa kluczowe specjalne o cechach:
      • zdania krótkie i sektorowe,
      • zogniskowane na celu działalności,
      • dające niewielki ruch, ale dobrej jakości.
    • słowa kluczowe long tail o cechach:
      • zdania długie i nacelowane,
      • umożliwiające nawiązanie bezpośredniego kontaktu z niszami rynkowymi,
      • dające ograniczony ruch, ale o określonym celu.

Teoria długiego ogona (long tail)

Teorię tą wprowadził w 2004 roku Chris Anderson – teoria głosi, że wyszukiwania w Internecie przy braku określonego ograniczenia oferty mają skłonność do bycia nieskończenie długimi. Wiele osób ma skłonność do kupowania rzeczy mało znanych w sieci, ze szkodą dla osób, które kupują produkty, tylko znanej marki. Dążę do tego, że wydarzenia o małej częstotliwości występowania, mogą przewyższać liczbowo początkową krzywą rozkładu. Na YouTube tysiące nieznanych wideo mogą znaczyć więcej niż bardzo dobrze znane wideo. To samo dotyczy iTunes’a, którego celem jest sprzedanie głównie nieznanych piosenek dużej liczbie użytkowników. W obecnych czasach Internetu upada koncepcja wykresu Pareta z ekonomii i potwierdza się teoria Chrisa Andersona, która mówi, że produkty mniej popularne i niszowe mogą przynosić większą sprzedaż, niż produkty, które są bardzie popularne. Zatem słowa kluczowe long tail generują małe ilości wejść na naszą stronę internetową, gdyż są mniej konkurencyjne, ale razem wzięte mogą spowodować większą ilość wejść. Także warto podkreślić, że słowa kluczowe long tail odznaczają się większym odsetkiem konwersji niż słowa short tail.

Wskaźnik efektywności słów kluczowych – KEI

Nasz projekt SEO możemy kontrolować poprzez mierzenie efektywności słów kluczowych za pomocą wskaźnika keyword effectiveness index (KEI). Ten wskaźnik może dostarczyć nam informacji o możliwości uzyskania dobrego pozycjonowania słowa kluczowego. Wskaźnik KEI to stosunek kwadratu popularności do wskaźnika konkurencji. Gdzie popularność to liczba zapytań opartych na słowie kluczowym zrealizowanych w przedziale czasowym, a wskaźnik konkurencji to dane z witryn internetowych, które wykorzystują słowo kluczowe.

Wartość KEI zwiększa się wraz ze wzrostem zapytań, maleje wraz ze wzrostem wskaźnika liczby konkurentów. Wartość KEI ma określoną skalę, duże możliwości pozycjonowania są przy wskaźniku powyżej 100, minimalne od 0 do 10.

Keyword pattern

Keyword pattern, to występowanie danego słowa kluczowego na witrynie internetowej bez powtarzania się więcej niż dwa kolejne razy. Gdy zdanie zawiera trzykrotne powtórzenie słowa kluczowego, to ma wartość KP równą 3. Słowa kluczowe powinny być rozmieszczone naturalnie.

Keyword frequency

Częstotliwość słów kluczowych to ilość razy, z jaką dane słowo kluczowe występuje na witrynie internetowej.

Keyword proximity

Wyrażenie keyword proximity, czyli bliskość słów kluczowych oznacza sąsiedztwo większej liczby słów kluczowych. Jest to ważne dla poprawy indeksowania stron i treści w sieci.

Keyword prominence

Keyword prominence, oznacza bliskość słowa kluczowego do początku generycznej strefy odniesienia, czyli. np. do tagu HTML (title, H1), paragrafu czy tabeli. Im mniejsza odległość do początku tej strefy tym większa przyznana waga dla danego słowa kluczowego i strony.

Przedstawiłem między innymi jak dokonać wyboru domeny i przeanalizować słowa kluczowe. Głównymi cechami witryny, które chcą być dobrze pozycjonowane są czytelność i łatwa dostępność. Ważne są także tagi i metatagi, które są widoczne dla robota wyszukiwarki (crawlera), definiują one strukturę i layout witryny oraz dostęp wyszukiwarek do zawartości witryny. Metatagi to ukryte informacje w kodzie HTML, skonstruowane by dostarczać dodatkowych informacji o dokumencie. Wprowadzamy je do dokumentu w sekcji <head></head>.

Tagi HTML witryn internetowych

Kolejnym krokiem w celu wypozycjonowania nowej witryny jest jej odpowiednia konstrukcja i jak najlepsze zaprojektowanie. Witryna internetowa powinna być czytelna i łatwo dostępna. Tagi i metatagi, to elementy, które są niewidoczne dla użytkownika, ale są widoczne dla robotów wyszukiwarek, dlatego ważne jest bardzo staranne zaprojektowanie witryny. Jednak metatagom przypisuje się mniejsze znaczenie, ale mimo to są nadal ważne w SEO. Metatagi znajdują się wewnątrz tagów <head></head>. Aby właściwie wprowadzić tagi i metatagi należy posiadać podstawową wiedzę z programowania w HTML. Struktura takiego kodu powinna być:

  • Przede wszystkim wolna od błędów. Należy przede wszystkim zwrócić uwagę na domykanie tagów, stosować zgodne struktury HTML. Warto skorzystać z narzędzia: http://validator.w3.org, które sprawdzi, czy strona jest poprawnie skonstruowana.
  • Prosta i uporządkowana z poprawnym kodem.
  • Łatwo modyfikowalna. Witryna internetowa powinna być zbudowana tak, by ją można było łatwo modyfikować i aktualizować. Warto korzystać z arkuszy stylu CSS i z szablonów Template.
  • Lekka, czyli niezajmująca dużej ilości miejsca. Jest to ważne, gdyż Google zwraca uwagę na szybkość ładowania strony. Także ważne jest przestrzeganie optymalizacji obrazów i ograniczanie animacji flash.

Tag „title”, czyli tytuł strony

Tytuł strony informuje o temacie, zarówno użytkownika jak i wyszukiwarki. Jest to jeden z czynników on-site, które ma duże znaczenie przy pozycjonowaniu. Tag <title> należy umieścić, wewnątrz tagu <head> i powinien zawierać jedno ze słów kluczowych. Każda strona powinna mieć inny i unikalny tytuł. Tytuł strony jest wykorzystywany przez wyszukiwarki w SERP-ie, dlatego jest bardzo ważne, by zawartość witryny była spójna z wybranym tytułem i aby tytuł był unikalny dla każdej strony i w miarę możliwości krótki. Roboty wyszukiwarek traktują tag „title” jako jeden z najważniejszych elementów i uważają one, że tytuł powinien być powiązany z treścią strony. Wyszukiwarki wyświetlają w SERP-ie pierwsze 60-70 znaków, więc tytuł nie powinien być długi. Długość tagu „title”, według zaleceń organizacji W3C nie powinna przekraczać 64 znaków. Do tytułu można wprowadzić znaki rozdzielenia pipe „|”, które służą do oddzielenia zdań. W tytule Google ignoruje przyimki, rodzajniki, spójniki, których trzeba unikać. Warto także unikać powtarzania tego samego słowa kluczowego, niewypełniania tagu title (zostawiania strony jako untitled document), czy wprowadzania słów kluczowych niepowiązanych z treścią strony. Ważne jest też unikanie słów skonfliktowanych z ważnymi serwisami sieci, jak: bookmark, link, resource, directory, search engine, forum, BBS.

Po przeprowadzeniu szeregu testów, eksperci doszli do wniosku, że Google indeksuje pierwsze 12 słów tytułu, a tekst tagu title może być archiwizowany w oddzielnych blokach, podział taki umożliwia znak |. Google sięga do tekstów title w tagu HTML title, tekstu w elemencie title kanału RSS, tekstu w elemencie title dla sitemap xml oraz anchor tekstów wewnętrznych i zewnętrznych linków witryny, czy tekstu występującego w URL-u zasobu.

Metatag description

W metatagu description podajemy krótki opis strony, który pojawia się w SERP-ie, czyli wynikach wyszukiwania wyszukiwarki. Jest to bardzo ważny tag dla dokonania opisu treści, których użytkownik spodziewa się znaleźć, gdy wchodzi na naszą witrynę. Dlatego zalecane jest włączanie do tego opisu najważniejszych zdań i wybranych słów kluczowych, przywiązując większą wagę do ich kolejności. Metatag description nie może przekraczać 12-15 wyrazów (maksymalnie 140-160 znaków). Do wizualizacji wyników w SERP-ie wyszukiwarki wybierają wycinki treści pobranych ze stron, zwane snippet. Metatag description służy do pokazania wyszukiwarkom, które informacje włączyć do snippetu. Wykorzystując metatag description odpowiednio, możemy wpływać w korzystny sposób na wyszukiwarki i poprawić widoczność oraz ranking naszej witryny internetowej.

Warto podkreślić, że metatag description musi być jeden dla każdej strony. Jest to duże ułatwienie dla użytkowników i wyszukiwarek. W przypadku CMS-ów tag ten możemy generować automatycznie. Jeśli nie jesteśmy pewni, czy metatag description jest poprawnie ustawiony, możemy skorzystać z narzędzi dla webmasterów Google’a. Metatag decription musi także być zgodny z zawartością strony oraz wykorzystywać zdania mające sens i nie być ogólnikowy. Nie ma wogóle sensu używać, np. zwrotów „to jest home page” czy „to jest strona główna”.

Można oczywiście uniknąć pobierania przez wyszukiwarki opisów z Open Directory DMOZ w celu wykorzystywania ich w snippetach. W tym celu należy użyć poniższych metatagów:

  • w przypadku Google’a: <meta name=”googlebot” content=”noodp”>
  • w przypadku Binga: <meta name=”msnbot” content=”noodp”>
  • w przypadku Yahoo!: <meta name=”slurp” content=”NOYDIR” />

Metatag keywords

Jest to tag, który jest używany od początków Internetu do pozycjonowania stron internetowych i przez niektórych ekspertów uważany za całkowicie ignorowany przez wyszukiwarki. Jednak nie do końca się zgadzam z ich opiniami. Metatag keywords jest nadal używany przez niektóre wyszukiwarki jak Yandex, czy Baidu, czy katalogi stron internetowych. Warto także podkreślić, że metatag keywords czyni witryny bardziej przyjaznymi dla wyszukiwarek. W CMS WordPress tworzymy metatag keywords, np. za pomocą wtyczki All in One SEO Pack lub wpisujemy słowa kluczowe w danym wpisie, w Dokument -> Tagi, rozdzielając każde wyrażenie. Google wykorzystuje te słowa kluczowe i wyrażenia! Wielokrotnie to sprawdzałem i na podstawie tych słów kluczowych można podnieść ranking witryny internetowej. W przypadku mojego bloga, gdy wpiszemy, np. „programy pay per click”, mój blog jest na pierwszym miejscu w wynikach wyszukiwania. Także uważam, że warto na to zwracać uwagę i to wykorzystywać.

Maksymalne długości dla tagów title, description i keywords, oraz URL-i, to:

  • Google: title 66-70 znaków, description 156-158 znaków, keywords 10-40 słów, URL 75-92 znaków,
  • Bing: title 67-72 znaków, description 176-184 znaków, keywords 12-55 słów, URL 91-94 znaków,
  • Yahoo!: title 64-65 znaków, description 164-190 znaków, keywords 8-30 słów, URL 65-80 znaków.

Metatag language

Metatag language służy do określania języka strony internetowej i jest wykorzystywany m.in. przez Google Translate. Przykład: <meta http-equiv=”content-language” content=”en”>

Jest możliwość także ustalenia czy dana witryna zostanie automatycznie przetłumaczona przez Google’a, wstawiając metatag <meta name=”googlebot” content=”notranslate”>. Jeśli chcemy by nie została przetłumaczona tylko część kodu wstawiamy: <div class=”notranslate”>tekst</div>

Jednak w niektórych przypadkach lepiej jest używać namespace W3C XHTML-u lub używać ich obu, np.:

<html xmlns=”http://www.w3.org/1999xhtml” xml:lang=”pl” dir=”ltr” >

Tworząc witrynę internetową, należy także określić DocType. Musi to być pierwszy element otwierający dokument. Takie deklaracje zarówno dostarczają informację serwerowi jak i stanowią komunikację między robotem i serwerem. Przykład deklaracji DocType:

<!DOCTYPE HTML PUBLIC „-//W3C//DTD HTML 4.01 Transitional//EN” http://www.w3.org/TR/html4/loose.dtd>.

Metatag robots

Metatag ten wskazuje robota, który skanuje naszą witrynę internetową i określa jakie sekcje ma skanować w celu dostarczenia informacji dotyczących zawartości witryny internetowej. Ogólne dyrektywy wyglądają następująco:

  • index, czyli żądanie włączania zawartości witryny internetowej do wyszukiwarki,
  • noindex, żądanie niewłączania zawartości witryny internetowej do wyszukiwarki,
  • follow, czyli żądanie śledzenia wszystkich linków witryny internetowej,
  • nofollow, nieśledzenie linków witryny internetowej.

Innym sposobem niedopuszczania robotów do treści, jest np. dodanie „noindex” w metatagu robots, z wykorzystaniem .htaccess.

Przykład metatagu robots:

<meta name=”robots” content=”index, follow” />

Dostępne dyrektywy dla wszystkich robotów:

  • NOINDEX, wykorzystywany przez ASK, Bing, Yahoo!, Google
  • NOFOLLOW, wykorzystywany przez ASK, Bing, Yahoo!, Google
  • NOARCHIEVE, wykorzystywany przez ASK, Bing, Yahoo!, Google, zapobiega wyświetlaniu kopii będącej w pamięci podręcznej w SERP-ie,
  • NOODP, wykorzystywany przez Bing, Yahoo!, Google, niewykorzystywanie lub wykorzystywanie snippetu,
  • NOYDIR, wykorzystywany przez Yahoo!
  • NOSNIPPET, wykorzystywany przez Google
  • NOIMAGEINDEX, wykorzystywany przez Google, blokada indeksowania obrazów i zdjęć,
  • NOTRANSLATE, wykorzystywany przez Google, blokada tłumaczenia treści,
  • UNAVAILABLE_AFTER, wykorzystywany przez Google, wskazanie daty i godziny, o której robot ma zablokować skanowanie witryny internetowej.

By poinformować wyszukiwarkę Google, że któryś z artykułów przestanie być aktualny w określonym momencie, wykorzystujemy poniższy kod:

<meta name=”googlebot” content=”unavailable_after: 25-jan-2018 17:00:00 est”>

Poniżej przykład, który informuje robota ASK-u, by nie indeksował danej strony internetowej:

<meta name=”teoma” content=”noindex”>

W określeniu, która treść ma być niewidoczna dla wyszukiwarek pomaga nam protokół: Robots Exclusion Protocol (REP), który blokuje dostęp do określonych katalogów do całej witryny. Protokół ten realizuje kontrole, które są wykorzystywane zarówno na poziomie globalnym, jaki i przez plik robots.txt i na poziomie strony.

Plik robots.txt zawiera polecenia i dyrektywy, które treści mają być dostępne dla wyszukiwarki.

Plik robots.txt musi znajdować się w głównym katalogu swej domeny. Dla domeny domena.pl, to www.domena.pl/robots.txt. Dyrektywa disallow w pliku robots.txt wykorzystywana jest przez robota wyszukiwarki do niepobierania jednego lub więcej zasobów. Przykłady zastosowania pliku robots.txt do uczenia robotów wyszukiwarek:

#Blokuj wszystkim robotom dostęp do folderu admin i do jego treści

User-agent: *

Disallow: /admin

  • User agent wskazuje, do którego robota ma odnieść się to polecenie, gwiazdka oznacza, że odnosi się do wszystkich robotów, jeśli chcemy wybrać konkretnego robota, musimy wpisać, np. googlebot czy googlebot-mobile.
  • Disallow wskazuje, która treść ma być zablokowana. Musi zawierać znak /.

Roboty najpopularniejszych wyszukiwarek:

Google

Googlebot – analizuje witryny internetowe

Googlebot-Mobile – analizuje witryny urządzeń mobilnych

Googlebot-Image – analizuje obrazy

Mediapartners-Google – analizuje treści AdSense

Adsbot-Google – analizuje treści AdWords.

Yahoo!

Slurp – analizuje strony internetowe

Yahoo-MMCrawler – analizuje obrazy

Yahoo-MMAudVid – analizuje treści wideo

Bing (MSN)

MSNBot – analizuje strony internetowe

MSNBot-Media – analizuje treści multimedialne

MSNBot-News – analizuje kanały z wiadomościami

Podam kilka przykładów:

  • Blokowanie dostępu robotowi Google’a do wszystkich plików PDF

User-agent: googlebot

Disallow: /*.pdf$

  • Blokowanie dostępu do wszystkich zasobów strony internetowej robotowi Yahoo!

User-agent: Slurp

Disallow: /

  • Blokowanie dostępu do wszystkich zasobów strony internetowej robotowi Bing

User-agent: MSNBot

Disallow: /

  • Witryna jest dostępna w pełni dla wszystkich robotów

User-agent: *

Disallow:

  • Blokuję robotowi Google’a dostęp do wszystkich folderów z wyjątkiem folderu public:

User-agent: googlebot

Disallow: /

Allow: /public/

Możemy także wprowadzić do wyszukiwarek Yahoo! czy Bing opóźnienie, które będzie kazać odczekać kilka sekund pomiędzy jednym, a drugim skanowaniem:

  • Każę odczekać robotowi Google 2 sekundy przed skanowaniem innej strony

User-agent: googlebot

Crawl-delay: 2

Dostępne są także parametry, takie jak: Request-Rate- robot ma odwiedzać „n” stron co kilka sekund – w poniższym przykładzie – jedna strona co cztery sekundy). Visit-Time – wskazuje przedział czasowy, w którym robot ma dostęp (w naszym przypadku od 6:00 do 12:00).

User-agent: *

Disallow: /include/

Request-rate: 1/4

Visit-time: 0600-1200

Warto zaznaczyć, że jeśli przypiszemy tag „disallow” do katalogu, to nie oznacza, że katalog ten nie będzie dostępny w sieci, gdyż inni użytkownicy mogą zbadać nasz plik robos.txt i odczytać zabezpieczone foldery, a następnie dostać się do nich. Także warto warto chronić foldery hasłem i szyfrować je!

Tag „X-Robots”

Tag X-Robots jest tagiem, który pełni te same funkcje, co metatag robots. Jednak nie możemy w nim zwracać się do określonego robota wyszukiwarki. Dyrektywy do stosowania wyglądają tak:

  • X-Robots-Tag: noindex
  • X-Robots-Tag: nosnippet
  • X-Robots-Tag: notranslate
  • X-Robots-Tag: noarchive
  • X-Robots-Tag: unavailable_after: 06 April 2021 17:00:00 GMT

Przykład deklaracji:
HTTP/1.1 200 OK

Date: Sat, 27 March 2021 17:00:00 GMT

(..)

X-Robots-Tag: noarchive

X-Robots-Tag: unavailable_after: 06 April 2021 17:00:00 PST

(..)

Tagi „heading”

Tagi heading, czyli tagi nagłówkowe wykorzystuje się do porządkowania tekstów na witrynie poprzez deklarowanie wagi wyrazom, które znajdują się w witrynie. Tagów nagłówkowych jest sześć. Tag <H1> ma największą wagę, a tag <H6> najmniejszą. Tag <H1> określa główny temat strony i jemu przypisywana jest największa wartość. Najpierw powinniśmy wykorzystywać tag <H1>, potem <H2>, <H3>, <H4>, <H5> i <H6>. Nagłówek <H1> na stronie może być tylko jeden i nie możemy omijać poszczególnych tagów. Tag <H1> jest używany dla tytułu strony i wskazania ważnego tematu, tagi <H2> i <H3> są używane do identyfikacji podtytułów. Tagi <H4> i <H5> są używane do artykułów i podrzędnych tekstów strony. Tagi <H5> i <H6> są używane do uzupełnień czy zastrzeżeń copyright.

Gdy stosujemy CSS, możemy ustawić dowolną wielkość czcionki i rodzaj czcionki dla pojedynczego tagu nagłówkowego, np.:

<STYLE TYPE=”text/css”>

H1 {font-family: Helvetica, Times New Roman; font-size: 13pt;

color: black}

</STYLE>

Jednak musimy pamiętać, by dla tagów H1 i H2 nie stosować zbyt małej czcionki, gdyż wyszukiwarki mogą nas ukarać. Nie możemy także stosować tego samego tekstu do tagu H1, tytułu strony i meta description!

Anchor text

Anchor text do tekst, w który klikamy w formie linku, by przejść do innej strony. Przykład <a href=”www.lot.com”>Witryna internetowa Polskich Linii Lotniczych LOT</a>.

Anchor text może być dopasowany do treści linkowanej strony i spójny z nią i jeśli w pełni to wykorzystamy, to dostarczymy dużo prawidłowych informacji odwiedzającemu. Można wykorzystać słowo kluczowe w tym tagu, jednak nie możemy tego nadużywać. Warto przestrzegać kilku zasad, przy tworzeniu anchor tekstów:

  • Wskazane jest stosowanie tekstów krótkich i opisowych – Warto unikać wstawiania tekstów typu „kliknij tutaj”,
  • Linki tekstowe są ważniejsze niż linki zawierające obrazy,
  • Maksymalna długość anchor tekst linku nie powinna przekraczać 8-10 wyrazów. Google indeksuje pierwsze 8 słów linków i ucina po 60 znakach,
  • Zmalało znaczenie przypisywane linkom w stopce i bocznym pasku. Linki powinny być umieszczone w górnej części strony internetowej,
  • Linki mogą być formatowanie z wykorzystaniem CSS, by była lepsza zgodność z layoutem naszej witryny.

Tag „title” wewnątrz linków

Wewnątrz linku może znajdować się tag title, np.:

<a href=”flyingcomp.aspx” title=”Blog o lotnictwie i IT” target=” _blank”>Witam na blogu poświęconym lotnictwu i IT</a>

Wykorzystałem tutaj tag title w charakterze informacji dodanej do anchor tekstu. Tag ten dostarcza dodatkowych informacji użytkownikom, poprawia dostępność i nawigacyjność witryny, a także wpływa w niewielkim stopniu na pozycjonowanie SEO.

Atrybut Rel=”nofollow”

Atrybut rel=”nofollow” został wprowadzony w 2005 roku przez Yahoo!, Google’a i Microsoft, by ograniczyć spam. Jest to szczególnie pomocne w przypadku witryn z przypisami. Gdy wprowadzimy atrybut rel=”nofollow” do linków, które są w przypisach informujemy wyszukiwarki, że nie znamy tych linków i nie chcemy im przekazywać swej reputacji. Jednak nie jest zalecane stosowanie rel=”nofollow” w linkach wewnętrznych witryny.

Atrybut Rel=”canonical”

Tag ten został wprowadzony w 2009 roku przez Yahoo!, Binga i Google’a i stosujemy go do zarządzania treściami, które się dublują. Jest to kanonizacja URL-i. Gdy stosujemy tag rel=”canonical” określamy preferowaną wersję URL-a, którą wyszukiwarka ma zindeksować.

Zdjęcia na stronie i fanpage’u As Computer Life zostały umieszczone legalnie z darmowego banku zdjęć: pixabay.

Tekst „Optymalizacja stron on-site – ciąg dalszy” opracowany został przez Adama Stopę w oparciu o źródła:

  1. „SEO & SEM Przewodnik dla zaawansowanych po Webmarketingu” – Marco Maltraversi.

Image by kalhh from Pixabay

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

error: Content is protected !!

By continuing to use the site, you agree to the use of cookies. more information

The cookie settings on this website are set to "allow cookies" to give you the best browsing experience possible. If you continue to use this website without changing your cookie settings or you click "Accept" below then you are consenting to this.

Close