SEO

Leksykon pojęć

Zastanawiasz się, czym jest SEO? A może słyszałeś o optymalizacji on-site, off-site, backlinkach, słowach kluczowych i innych tajemniczych terminach, ale nie do końca wiesz, co oznaczają? Jeśli tak, to ten leksykon jest właśnie dla Ciebie! Został stworzony, aby pomóc Ci zrozumieć świat pozycjonowania stron internetowych w wyszukiwarkach. Znajdziesz tu definicje najważniejszych pojęć SEO, wyjaśnione w prosty i przystępny sposób. Leksykon to doskonałe źródło wiedzy zarówno dla osób początkujących, jak i bardziej doświadczonych webmasterów. Z pewnością znajdziesz tu wiele cennych informacji, które pomogą Ci w osiągnięciu sukcesu w pozycjonowaniu stron.

Zapraszamy do zapoznania się z leksykonem!

Uwaga: Leksykon jest stale aktualizowany o nowe pojęcia i definicje. Zapraszamy do regularnego odwiedzania strony!

  • SEO (Search Engine Optimization)

    SEO, czyli akronim (skrót) od pierwszych liter angielskiego wyrażenia Search Engine Optimization, inaczej pozycjonowanie lub optymalizacja strony, to działania mające na celu optymalizację strony pod kątem wyszukiwarek. SEO ma za zadanie poprawić stronę tak, by wyświetlała się wyżej w wynikach organicznych, optymalnie jako pierwsza, po wpisaniu w wyszukiwarce danego zapytania/ frazy.

    SEO – zasady pozycjonowania

    SEO obejmuje działania poprawiające wygląd strony i dostosowujące ją do wymagań wyszukiwarek działających według określonych algorytmów. Wyszukiwarki internetowe, w tym Google, funkcjonują w oparciu o zasady takie jak crawling i indeksowanie. Crawling to proces wstępnej analizy treści i układu stron internetowych przez boty. Indeksowanie polega na automatycznym analizowaniu, katalogowaniu i zapisywaniu wszystkich treści zamieszczonych na stronie. Dopiero po zaindeksowaniu strony będzie się ona wyświetlać w wynikach wyszukiwania. Jej pozycja będzie tym wyższa, im więcej  czynników określanych jako SEO zostanie uwzględnionych.

    Jak SEO wygląda w praktyce?

    Czynniki mające wpływ na pozycjonowanie strony to:

    • treści publikowane na stronie (on site): ich ilość i jakość, ze szczególnym uwzględnieniem słów kluczowych (keywords),
    • kwestie techniczne związane ze stroną (szybkość ładowania, dostosowanie do urządzeń mobilnych),
    • treści publikowane off site (poza stroną),
    • profil linków zwrotnych,
    • struktura linkowania wewnętrznego,
    • popularność marki,
    • czynniki związane z domeną witryny, w tym jej wiek.

    SEO obejmuje szereg działań. Wśród nich wyróżnić można te, których celem jest lepsze dostosowanie witryny do algorytmów wyszukiwarki oraz działania optymalizujące czynniki techniczne związane z witryną. Skuteczne działania SEO mogą znacznie poprawić widoczność i rankingi strony, zwiększyć liczbę wyświetleń, zapisów do newslettera oraz zakupów dokonywanych na stronie. Kwestii, które należy wziąć pod uwagę w działaniach SEO jest wiele i zmieniają się one wraz ze zmianą algorytmów  wyszukiwarek. Z tego względu konieczna jest raz na jakiś czas aktualizacja strony pod kątem SEO. Należy przy tym pamiętać, że pozycjonowanie strony zależy od wielu czynników i zmienia się w zależności od kraju i preferencji użytkowników. Z tego względu kluczowa jest optymalizacja zgodnie z obowiązującymi w danym miejscu i czasie (zmiennymi) parametrami.

  • SERP (Search Engine Results Page)

    SERP (Search Engine Results Page) to strona internetowa, na której znajdują się adresy wyświetlane w wyszukiwarce po wpisaniu danej frazy lub zapytania. Obejmuje ona zarówno adresy znalezione automatycznie przez algorytmy wyszukiwarki (wyniki organiczne) jak i adresy wprowadzone ręcznie oraz adresy opłacone (reklamy, wyniki płatne). W SERP mogą także wyświetlać się obrazy, filmy, wyróżnione fragmenty tekstów odpowiadające na wpisane w wyszukiwarce zapytanie (Google Featured Snippets) i mapy – w zależności od tego, co algorytm uzna za najbardziej odpowiednie w danym kontekście.

    Od czego zależy pozycjonowanie strony w SERP

    Kolejność adresów na liście SERP nie jest przypadkowa. Zwykle na pierwszych miejscach i na końcu listy wyświetlają się wyniki płatne. Pozycjonowanie wyników organicznych (bezpłatnych) zależy od wielu czynników, w tym od użytych słów kluczowych, linkowania wewnętrznego i zewnętrznego oraz od układu i przejrzystości strony. Kolejność stron w kategorii wyniki organiczne jest bardzo ważna ze względu na rankingi i rozpoznawalność firmy, a także w celu analizy działań konkurencji i zwiększenia wyników sprzedaży. Działania SEO (Search Engine Optimization) mają na celu optymalizację strony tak, by po wpisaniu danej frazy/ zapytania wyświetlała się ona w wyszukiwarce jako jedna z pierwszych w wynikach organicznych. Programy do analizy SERP dostarczają istotnych danych, na których podstawie podejmowane są działania SEO.

    SERP – wyniki organiczne i płatne

    Wyniki organiczne są uważane przez internautów za bardziej wiarygodne, dlatego wiele firm stawia na optymalizację treści witryn tak, by osiągnąć jak najlepsze wyniki bezpłatne w wyszukiwarce. W przypadku wyników płatnych (reklam) bardzo często stosowany jest model CPC (koszt za kliknięcie) – ogłoszeniodawca płaci wówczas, gdy użytkownik otworzy okienko z reklamą. Optymalizacja strony (SEO) często stosowana jest w celu obniżenia kosztów reklamy – jeśli link do witryny wyświetla się wysoko na liście wyników organicznych SERP, nie jest konieczne wykupywanie wyników płatnych. Optymalizacja strony pod kątem wyników bezpłatnych obejmuje zarówno kwestie techniczne (szybkość ładowania strony), jak i optymalizację treści oraz struktury tekstu, w tym umieszczenie w tekście słów kluczowych, optymalizację meta danych i wprowadzenie linków zwrotnych.

  • Wyniki organiczne (organic results, organic search)

    Wyniki organiczne (inne nazwy to wyniki naturalne lub wyniki bezpłatne) to adresy URL wyświetlane po wpisaniu danej frazy w wyszukiwarce. Wyniki organiczne są generowane przez algorytm wyszukiwarki na podstawie czynników analizowanych przez algorytmy (roboty) sieciowe w określonej kolejności. Pozycjonowanie strony (kolejność wyświetlania na liście wyników organicznych) zależy głównie od oceny jej jakości i tego, czy zamieszczone na niej treści pasują do zapytania wpisanego w wyszukiwarkę.

    Czym charakteryzują się wyniki organiczne

    Wyniki organiczne są określane jako bezpłatne, ponieważ nie można ich kupić – nie da się zmienić pozycjonowania strony inaczej niż poprzez jej optymalizację. W odróżnieniu od wyników płatnych, wyniki organiczne są postrzegane jako miarodajne źródło informacji na temat jakości i adekwatności witryny. Wyniki organiczne mają przełożenie na rankingi strony i częstotliwość jej odwiedzania, a co za tym idzie – na możliwość dotarcia do klienta i wyniki sprzedaży.

    Od czego zależą wyniki organiczne

    Wyniki naturalne zależą od jakości strony, zarówno pod względem zamieszczanych treści, jak i kwestii technicznych takich jak szybkości ładowania i kompatybilność z urządzeniami mobilnymi. Kluczowe dla wyników organicznych są działania SEO, czyli optymalizowanie strony pod kątem jej analizy przez algorytmy wyszukiwarki. Im więcej czynników mających wpływ na lepszą jakość strony (słowa kluczowe, linkowanie, odpowiedni układ nagłówków etc.), tym większe prawdopodobieństwo wysokiego pozycjonowania strony w wyszukiwaniach. Na wyniki organiczne mają również wpływ metadane zamieszczone na stronie – meta title czy dyrektywy przeznaczone dla robotów sieciowych, których zadaniem jest indeksowanie witryny. Ważny jest wiek witryny oraz to, czy posiada certyfikat SSL. Kluczową kwestią jest jednak treść strony. Algorytmy generujące wyniki organiczne biorą pod uwagę jej przydatność dla użytkownika i oryginalność.

    Wyniki organiczne a SEO

    Działania SEO mają duży wpływ na poprawę wyników organicznych. Chodzi głównie o wprowadzenie słów kluczowych oraz optymalizację treści i metadanych, tak by strona była lepiej widoczna i wyżej oceniana przez roboty indeksujące. Ważna jest również optymalizacja techniczna, poprawiająca m. in. szybkość ładowania/ wczytywania się witryny/ strony.

  • Słowo kluczowe (Keyword)

    Słowo kluczowe to pojedynczy wyraz lub fraza, zamieszczane w tekście oraz w meta danych w celu łatwiejszego dostępu do informacji zawartych na stronie. Słowa kluczowe mają wpływ na pozycjonowanie strony w wyszukiwarce, ponieważ stanowią informację dla robotów indeksujących, że w danej witrynie znajdują się treści odpowiadające na zapytania internautów.

    Od czego zależy wybór słów kluczowych

    To, jakie słowa kluczowe zostaną użyte w konkretnym tekście, zależy od jego tematyki i specyfiki strony. Zwykle są to frazy w mianowniku, odnoszące się do głównych informacji zawartych w tekście. Stanowią informacje dla algorytmów wyszukiwarki, że dany tekst porusza określony temat i może być przydatny dla użytkowników w kontekście wpisanego w wyszukiwarce zapytania. Bardzo ważne jest wpisanie odpowiednich słów kluczowych w meta danych strony, tak by były dobrze widoczne dla programów indeksujących. Ważna jest również ilość słów kluczowych w tekście – nie powinno ich być zbyt wiele, ponieważ algorytmy mogą uznać to za spamowanie i wykluczyć stronę z wyników wyszukiwania. Słowa kluczowe powinny być powiązane z treścią tekstu – używanie innych słów kluczowych, często wpisywanych w wyszukiwarce, może być odebrane jako wprowadzanie w błąd i w efekcie obniżyć wiarygodność strony.

    Słowa kluczowe – przydatność dla pozycjonowania strony

    Słowa kluczowe zamieszczane są w bazie danych wyszukiwarki. Po wpisaniu frazy (np. kosmetyki naturalne) wyświetlane są wyniki stron najlepiej pasujących zdaniem algorytmu do zapytania, czyli tych, które prezentują treści dotyczące kosmetyków z naturalnymi składnikami. To tak zwana lista SERP, czyli wyniki wyszukiwania pasujące do wpisanego w wyszukiwarce zapytania. Odpowiednio dobrane i rozmieszczone w tekście słowa kluczowe są jednym z ważniejszych czynników pozycjonowania witryny. Działania SEO obejmują w pierwszej kolejności wprowadzenie słów kluczowych, co pozwala zwiększyć widoczność witryny i ruch na stronie. Jeśli dana marka jest już rozpoznawalna, można stosować tak zwane brandowe słowa kluczowe, to znaczy nazwę marki lub firmy. Użytkownicy po wpisaniu jej w wyszukiwarce otrzymają listę wyników, na której szczycie będzie link do strony firmowej.

  • ALT Text

    Alt text czyli tekst alternatywny (inne nazwy to alt tag i atrybut alt), to słowny opis elementów graficznych zamieszczonych na stronie (zdjęć, obrazków). Jego zadaniem jest dostarczenie informacji na temat zamieszczonych plików graficznych, tak by były dostępne dla wyników wyszukiwania nawet jeśli obraz nie może być poprawnie wczytany. Alt text jest również przydatny dla osób niewidomych i niedowidzących oraz dla osób używających przeglądarek i czytników ekranowych, które nie są w stanie przetwarzać plików graficznych.

    Tekst alternatywny – korzyści

    Tekst alternatywny dla zdjęcia należy obecnie do standardowych praktyk przy tworzeniu strony, na której zamieszczone są pliki graficzne (zdjęcia, obrazki). Zwiększa przejrzystość strony i jej dostępność dla robotów indeksujących, co z kolei przekłada się na wyniki organiczne SERP i pozycjonowanie strony. Tekst alternatywny może być postrzegany jako jeden z elementów SEO, czyli optymalizacji strony – takie zadanie spełni użycie w opisie zdjęcia słów kluczowych. Programy indeksujące przeszukują sieć w poszukiwaniu stron najlepiej pasujących do zapytań wpisywanych w wyszukiwarkę. Odpowiednio zbudowany pod względem SEO Alt text zwiększa szansę na dobry wynik w rankingu stron i zwiększa klikalność.

    Dobry alt text – zasady

    Dobry tekst alternatywny powinien w zwięzły sposób opisywać to, co widoczne jest na zamieszczonej na stronie grafice. Optymalnie jeśli w opisie grafiki (tekście alternatywnym) znajdą się słowa kluczowe związane z treściami publikowanymi na stronie. W tekście alternatywnym należy podawać konkrety dotyczące treści grafiki, nie jest natomiast wskazane opisywanie kolorów i innych detali związanych z wyglądem zdjęcia. Bardzo ważne, by informacja zawarta w alt tekście była jasna i przydatna nie tylko dla robotów sieciowych, ale także dla użytkownika, który z jakiś powodów potrzebuje opisu obrazka słowami. Usłyszy on dokładnie taki opis zdjęcia, jaki zamieściliśmy w tekście alternatywnym.

  • Backlink

    Backlink (link przychodzący lub link zwrotny) to odnośnik zamieszczony w treści strony internetowej, który po kliknięciu przenosi do podstrony lub strony zewnętrznej. Umieszcza się je w tekście na zasadzie hiperłączy pod frazami w tekście (anchorami). Umieszczanie backlinków w treści tekstu na stronie to tak zwany linkbuilding.

    Backlinki – dlaczego są przydatne

    Linki zwrotne są jednym z ważniejszych czynników pozycjonowania strony, czyli działań związanych z SEO i marketingiem. Zwiększają widoczność strony w wyszukiwarce i poprawiają jej rankingi oraz rozpoznawalność. Najlepiej jeśli backlinki odsyłają do witryny danej firmy, ale mogą kierować również do innej zaufanej domeny. Linki zwrotne zwykle są zaznaczone w tekście kolorem niebieskim.

    Rodzaje backlinków

    Są dwa rodzaje linków zwrotnych:

    • backlinki doffolow: odsyłają do innego tekstu/ treści na stronie, przy czym przekazują moc stronie linkującej – wzmacniają jej pozycjonowanie (SEO),
    • backlinki nofollow: kierują do innej strony/ podstrony/ tekstu i nie przekazują mocy stronie linkującej.

    Backlinki dofollow są obecnie najczęściej wykorzystywanym rodzajem linkowania.

    Wyróżnia się również różne rodzaje backlinków ze względu na charakter anchorów, czyli treści, pod którą linki zwrotne są ukryte w tekście. Anchory brandowe to hiperłącza (linki) ukryte pod nazwą marki lub firmy, Exact Match to backlinki otwierające się po kliknięciu frazy kluczowej, backlinki mogą mieć też postać adresu URL bezpośrednio zamieszczonego w tekście.

    Linkbuilding

    Budowanie bazy linków zwrotnych to odpowiedzialne zadanie. Powinna być ona bogata i zróżnicowana, a jednocześnie tak zaplanowana, by docierać do grupy docelowej potencjalnych klientów. Backlinki można zamieszczać w artykułach sponsorowanych, artykułach gościnnych, ogłoszeniach, we wpisach na blogach i forach oraz w komentarzach, w social mediach, na zaprzyjaźnionych stronach i poprzez system wymiany linków. Umieszczanie zbyt wielu backlinków może być jednak sklasyfikowane przez algorytmy wyszukiwarki jako podejrzane działanie i w efekcie pozycjonowanie strony obniży się.

  • Bounce rate (Współczynnik odrzuceń)

    Bounce rate czyli współczynnik odrzuceń to ważny wskaźnik pokazujący, jaka jest realna liczba wyjść ze strony przed wykonaniem jakichkolwiek działań.  Współczynnik odrzuceń pokazuje ilu potencjalnych klientów kliknęło na stronę, a następnie ją opuściło nie podejmując żadnych dodatkowych czynności.

    Jak liczony jest  współczynnik odrzuceń

    Współczynnik odrzuceń liczony jest przez Google Analytics jako wartość procentowa. Statystyki pokazują jaki procent wizyt na stronie kończy się odrzuceniem, czyli wyjściem ze strony bez podjęcia działań, czyli dodatkowych żądań wysyłanych do serwera.

    Od czego zależy bounce rate

    Współczynnik odrzuceń może zależeć od różnych kwestii związanych ze stroną. Należy wziąć pod uwagę takie czynniki jak:

    • szybkość ładowania strony,
    • atrakcyjność strony,
    • przydatność treści dla danego użytkownika,
    • dostosowanie strony do urządzeń mobilnych (jeśli użytkownik z nich korzysta),
    • typu strony.

    Strony z danymi kontaktowymi wyświetlane są zwykle krócej niż na przykład strona sklepu, więc typ strony ma duże znaczenie. To, i inne czynniki mogące mieć wpływ na bounce rate sprawia, że  współczynnik odrzuceń jest wartością relatywną, a interpretacja wyniku musi brać pod uwagę różne parametry.

    Jak zmniejszyć współczynnik odrzuceń strony

    W przypadku stron takich jak blog czy sklep internetowy, wysoki współczynnik odrzuceń może wskazywać na brak zainteresowania ofertą lub na problemy techniczne (wolne wczytywanie się strony). Użytkownicy mogą też opuszczać stronę ze względu na jej niedostosowanie do korzystania ze smartfona czy nieintuicyjną nawigację. Parametry te można odpowiednio zmienić i poprawić, co powinno mieć przełożenie na niższy współczynnik odrzuceń. Konieczne mogą być również działania SEO, które zoptymalizują treści dostępne na stronie pod kątem ich przydatności i atrakcyjności dla użytkowników.

  • Canonical Tag (linki kanoniczne)

    Canonical Tag czyli link/ adres kanoniczny, to jeden z tagów w nagłówku/ kodzie strony HTML, za pomocą którego oznacza się oryginalną wersję strony (jej oryginalny adres). Link kanoniczny umieszcza się w meta title i meta description strony, czyli w tytule witryny i w jej opisie. Podstawowym zadaniem linków kanonicznych jest ochrona przed duplikowaniem treści. Dzięki linkom kanonicznym programy indeksujące mogą rozpoznać oryginalną stronę, nawet jeśli doszło do jej zduplikowania. Ujmując rzecz najprościej, link/ adres kanoniczny wskazuje na stronę z oryginalną treścią.

    Linki kanoniczne a duplikaty stron

    Strony internetowe mogą się duplikować, czasem zdarza się też tak, że wersja różniąca się w detalach od oryginału zostanie uznana przez roboty sieciowe za duplikat strony oryginalnej (duplicate content). Linki kanoniczne w nagłówku strony wskazują programom indeksującym, którą wersję powinny uznać za oryginalną. Jeśli jasno tego nie określimy, wyszukiwarka automatycznie wybierze tę wersję, którą uzna za oryginalną, co nie musi pokrywać się z naszymi intencjami. Link kanoniczny można też ustawić w nagłówku HTTP.

    Dlaczego linki kanoniczne są ważne?

    Duplikacja stron, tzw. duplikacja wewnętrzna, jest niekorzystna ze względu na pozycjonowanie strony w wyszukiwarce. Strona może wyświetlać się pod różnymi adresami, co utrudnia klientom znalezienie tego właściwego i sprawia, że w wynikach wyszukiwania oryginalna wersja pokazuje się na dużo dalszych miejscach. Linki kanoniczne zapobiegają temu zjawisku, dając algorytmom indeksującym jasną informację, która wersja jest oryginalna. Duplikaty, w tym duplikacje wewnętrzne, są automatycznie usuwane z wyników wyszukiwania. Dobrym sposobem na oznaczenie oryginalnej strony jest wpisanie w jej kodzie jej własnego adresu URL – wtedy odnosi ona do samej siebie jako do wersji głównej. Duplikaty wewnętrzne treści także można oznaczyć za pomocą linku kanonicznego – wtedy w wynikach wyszukiwania te same frazy odnosić będą do strony głównej. Tagi kanoniczne sprawdzają się zwłaszcza na stronach, gdzie w opisach produktów powtarzają się te same słowa i informacje.

  • Content Marketing

    Content marketing, czyli marketing treści to rodzaj strategii marketingowej mającej na celu pozyskanie określonej grupy klientów. Działania w ramach internetowego content marketing obejmują publikację treści, które będą interesujące i przydatne dla danego grona odbiorców, tak by przyciągnąć ich uwagę i zyskać wiarygodność. Content marketing tradycyjny obejmuje m. in. dystrybucję gazetek i folderów informacyjnych.

    Marketing treści – podstawowe zasady

    Głównym celem content marketingu jest pozyskanie grupy stałych klientów, którzy uznają prezentowane na stronie treści za atrakcyjne i użyteczne, co będzie miało przełożenie na postrzeganie danej marki/ firmy. Jednym z elementów content marketingu jest zbudowanie relacji z klientem wykraczającej poza zwykłą formę sprzedaży. Interakcje oparte na zaangażowaniu i zaufaniu są tu priorytetowe.

    Działania content marketingu obejmują przede wszystkim publikowanie treści (bloga, poradnika, filmików, webinarów) interesujących dla danej grupy klientów, tak by przyciągnąć ich uwagę. Kolejny etap/ element to budowanie relacji i zaufania, tak by klienci chcieli zaangażować się na dłużej, a optymalnie na stałe.

    Bardzo ważna w kontekście content marketingu jest zarówno jakość treści, jaki i regularność publikowania.

    Content marketing w sieci

    Internetowy marketing treści ma wiele kanałów dystrybucji. Najpopularniejsze sposoby to:

    • zamieszczanie dobrych jakościowo artykułów i poradników na stronie internetowej,
    • artykuły sponsorowane,
    • merytoryczne opisy produktów,
    • zdjęcia i grafiki,
    • posty w social mediach,
    • newslettery,
    • ebooki,
    • mailingi.

    Content marketing wiąże się z dbałością o merytoryczną i wizualną jakość treści, dlatego ma wpływ również na SERP i pozycjonowanie strony. Dobór właściwych słów kluczowych i linki zwrotne sprawiają, że informacje są łatwiej dostępne dla robotów indeksujących, co z kolej ma wpływ na widoczność strony i jej pozycję na liście wyników organicznych.

    Bardzo ważne w content marketingu jest budowanie wizerunku marki/ firmy, tak by klienci uznali ją za godną polecenia. Budowanie relacji z klientem w content markietingu to m. in. quizy, konkursy, gry i inne interakcje wymagające aktywnego zaangażowania. Wymierne rezultaty to wzrost zasięgów, wyższe pozycjonowanie strony i lepsze wyniki sprzedaży.

  • Crawl Budget (budżet indeksowania stron)

    Crawl budget, czyli budżet indeksowania strony, to liczba podstron domeny, którą programy indeksujące mogą przeanalizować i zaindeksować w danym czasie. O budżecie indeksowania stron decydują parametry takie jak limit współczynnika indeksacji (crawl rate limit) oraz częstotliwość indeksacji.

    Parametry Crawl Budget czyli limit współczynnika indeksacji i częstotliwość indeksacji

    Algorytmy indeksujące wyszukiwarek, w tym Googlebots, mają określone moce przerobowe. Aby zapewnić płynność przepływu informacji, ustalono pewne wytyczne dla robotów sieciowych. Należą do nich limit współczynnika indeksacji i częstotliwość indeksacji, składające się na budżet indeksowania stron. Mówiąc najprościej, Crawl Budget jest to ilość czasu i pracy, jaką roboty sieciowe muszą poświęcić do przeanalizowania danej strony.

    Na Crawl Budget składa się kilka czynników takich jak:

    • szybkość ładowania podstron,
    • czas odpowiedzi i wydajność serwera,
    • liczba podstron i stopień ich skomplikowania.

    W Google Search Console znajduje się zakładka Statystyki indeksowania. Statystyki te pozwalają prześledzić ile stron dziennie jest indeksowanych w naszej domenie. Jest to ważna informacja dotycząca stanu witryny.  Współczynnik indeksacji można ustawić ręcznie, tak by zwiększyć limit.

    Częstotliwość indeksacji zależy od ruchu na stronie i od tego, czy regularnie publikowane są nowe treści. Roboty indeksujące wykonują swoją pracę za każdym razem, gdy na stronie pojawiają się nowe wpisy. Częstotliwość indeksowania zwiększa też liczba odwiedzin na stronie.

    Jak poprawić Crawl Budget

    Witryny internetowe z dużą ilością podstron mogą mieć problem z budżetem indeksowania stron, który mówiąc wprost staje się zbyt wysoki. Warto na bieżąco sprawdzać w panelu Google Search Console stan indeksacji strony i w razie potrzeby usuwać wadliwe lub blokowane podstrony ręcznie. Można też wymusić indeksację podstron jeśli nie zrobiły tego jeszcze roboty sieciowe. Dla poprawienia budżetu indeksowania strony zaleca się usunięcie przyczyn, dla których generowana jest duża liczba adresów związanych z daną stroną, czyli podobnych treści. Im mniej duplikacji i niepotrzebnych podstron, tym lepiej dla budżetu indeksowania. Treści zamieszczone na stronie powinny być jak najwyższej jakości i jasno określać tematykę oraz posiadać słowa kluczowe, tak by łatwo było je zaindeksować. Sposobem na poprawienie efektywności budżetu indeksowania strony jest wyposażenie jej w meta roboty, które będą blokować indeksowanie stron duplikujących treści lub niskiej jakości.

  • Dofollow vs. Nofollow

    Dofollow i Nofollow to określenia odnoszące się do linków zwrotnych czyli tzw. backlinks. Linki zwrotne umieszcza się na stronie internetowej tak, by odnosiły użytkownika do określonych podstron lub innych zaufanych domen. Linki Dofollow zwiększają moc strony i poprawiają jej pozycjonowanie. Linki Nowollow jedynie odsyłają do podstrony/ innej strony, ale nie mają większego znaczenia dla SEO.

    Linkbuilding – linki Dofollow i Nofollow

    Z punktu widzenia optymalizacji strony dużo ważniejsze są linki zwrotne Dofollow. Backlinki Dofollow odsyłają do podstrony/ innego tekstu zamieszczonego na stronie, przy czym wzmacniają pozycjonowanie strony linkującej. Innymi słowy, przekazują informację dla programów indeksujących stronę linkującą, że znajdują się na niej treści ważne z punktu widzenia użytkownika wpisującego w wyszukiwarce określone zapytanie. Backlinki Nofollow przekierowują do innych treści na stronie/ do innej strony, ale ich umieszczenie w tekście nie ma wpływu na optymalizację strony wyjściowej, czyli nie jest istotne z punktu widzenia SEO. Nadal może jednak zwiększać rozpoznawalność marki i ułatwiać nawigację strony.

    Gdzie umieszczać linki Dofollow i Nofollow?

    Baza linków zwrotnych Dofollow i Nofollow jest jednym z działań marketingowych i ma znaczący wpływ na ruch na stronie oraz wyniki sprzedaży. Linki Dofollow zamieszcza się w artykułach sponsorowanych, postach i komentarzach, wpisach na blogach i w artykułach gościnnych. Bardzo ważne jednak, by nie przesadzić z ich ilością. Zbyt duża liczba linków zwrotnych Dofollow może zostać odczytana przez algorytmy wyszukiwarki jako spamowanie, a nawet próba oszustwa, co może skutkować usunięciem strony z wyników wyszukiwania. Linki Nofollow umieszcza się dokładnie w tych samych miejscach, co Dofollow. Wprawdzie nie mają one wpływu na pozycjonowanie strony, ale nie są tak zupełnie bez znaczenia. Algorytmy wyszukiwarek doceniają teksty, w których występują linki zwrotne obydwu rodzajów – uznawane są one za bardziej naturalne. Linki Nofollow zwiększają też ruch na stronie, do której odsyłają.

  • Google Analytics

    Google Analytics to platforma, której zadaniem jest analiza danych z witryn internetowych i aplikacji. Na ich podstawie platforma opracowuje raporty ze szczegółowymi informacjami o stronie/ witrynie.

    W jaki sposób działa Google Analytics

    Google Analytics dokonuje pomiaru ruchu na stronie, przetwarza dane i tworzy raporty, które są następnie wysyłane do klienta. Usługa Google Analytics jest bezpłatna dla użytkowników, których witryny są odwiedzane nie więcej niż 5 milionów razy miesięcznie i dostępna dla wszystkich zainteresowanych od 2005 roku.

    Do korzystania z platformy konieczne jest założenie konta Google Analytics. Kolejny krok to umieszczenie na każdej ze stron witryny kodu pomiarowego JavaScript, który zbiera informacje o ilości użytkowników odwiedzających stronę, czyli zlicza liczbę kliknięć i interakcji w czasie rzeczywistym. Kod ten zlicza również ilość klientów, którzy dokonali zakupu po odwiedzeniu strony (w odróżnieniu od liczby osób jedynie zwiedzających witrynę).

    Kod pomiarowy Google Analytics analizuje też inne dane związane z użytkownikami odwiedzającymi witrynę, takie jak źródło, które sprawiło, że weszli na naszą stronę (np. inna witryna, artykuł z anchorem lub reklama czy inna forma marketingu).

    Kod pomiarowy wysyła te dane do Google Analytics, który przetwarza je, kataloguje i tworzy raporty w wybranym formacie. Możliwe jest takie ustawienie Google Analytics, aby raport nie uwzględniał odwiedzania witryny wewnątrz firmy.

    Zalety Google Analytics

    Google Analytics to narzędzie przydatne do śledzenia ruchu na witrynie oraz zbierania i analizowania danych dotyczących źródeł ruchu i zachowania użytkowników. Może mieć to przełożenie na strategie marketingowe i działania SEO.

    Google Analytics można łatwo zintegrować z kontami Google Ads i aplikacjami e-commerce. Nie ma ograniczeń w zbieraniu danych jeśli chodzi o ilość stron internetowych. Platforma jest dostępna również w języku polskim.

  • Indeksacja

    Indeksacja witryny/ strony to analiza przez roboty sieciowe wszystkich zamieszczonych na niej treści, w tym tekstów, linków, grafiki i filmów, które są dokładnie katalogowane. Bez indeksacji nie jest możliwe wyświetlanie się witryny w wynikach wyszukiwania.

    Jak przebiega indeksacja strony?

    Indeksowanie witryny/ strony polega na analizie treści witryny zamieszczonych na niej w różnych formatach. Analiza ta przeprowadzana jest automatycznie przez roboty sieciowe po utworzeniu witryny, ale można też dokonać indeksacji manualnie, wykorzystując w tym celu dostępne w wyszukiwarce narzędzia.

    Roboty sieciowe najpierw skanują witrynę, czyli wykonują tak zwany crawling. Analizowana jest treść i układ strony. Następnie algorytmy wyszukiwarki dokonują właściwej analizy treści zamieszczonych na stronie, czyli indeksowania. Głównym materiałem do analizy są teksty, dlatego zaleca się zamieszczać na stronie przejrzyste informacje i tytuły. Preferowane są krótkie, zrozumiałe zdania. W końcowej fazie indeksowania algorytmy pozycjonują stronę na podstawie jej jakości, czyli na przykład użycia wyszukiwanej przez internautów frazy.

    Jak przyspieszyć proces indeksowania

    Automatyczne indeksowanie witryny trwa od kilku do kilkunastu dni. Można ten proces przyspieszyć wykorzystując platformę Google Search Console, która pozwala administratorom strony zarządzać witryną. Google Search Console umożliwia dodatnie strony do zaindeksowania zaraz po jej utworzeniu. W ten sposób adres strony będzie od razu dostępny w wyszukiwarce. Jest to przydatne narzędzie do indeksowania nowych treści na stronie, tak by użytkownicy mieli do nich od razu dostęp. Można też ręcznie zaindeksować całą witrynę poprzez jej mapę, która zawiera wszystkie podstrony. Po indeksacji witryna/ strona jest dodawana do wyszukiwarki i dostępna dla użytkowników.

    To, czy proces indeksacji przebiegł pomyślnie można sprawdzić wpisując w wyszukiwarce nazwę strony. Można też sprawdzić status strony za pomocą Google Seach Console.

  • Linkowanie wewnętrzne (internal linking)

    Linkowanie wewnętrzne to system odnośników do treści zamieszczonych na stronie internetowych. Linki wewnętrzne mogą odsyłać do artykułów zamieszczonych na stronie, haseł, bloga lub do sklepu.

    Jak buduje się linkowanie wewnętrzne?

    Linki wewnętrzne zamieszcza się w tekście na zasadzie hiperłącza ukrytego pod wybraną frazą. Hiperłącze zawiera adres URL i anchor, czyli kotwicę z treścią linku. Linkowanie wewnętrzne, w odróżnieniu od linkowania zewnętrznego, odsyła do treści w obrębie tej samej strony internetowej. Po kliknięciu zaznaczonej zwykle na niebiesko frazy otwiera się podstrona, artykuł na blogu lub link odsyła do sklepu, gdzie można kupić wybrany produkt. Linkowanie wewnętrzne powinno być starannie przemyślane i wykonane. Linków wewnętrznych nie może być w tekście zbyt wiele – zamiast porządkować wprowadzą wówczas chaos. Linki wewnętrzne powinny być zamieszczone w odpowiednich miejscach (nigdy w tytule!), nie mogą też być osierocone, czyli muszą kierować do konkretnej podstrony.

    Linki wewnętrzne – rodzaje

    Linkowanie wewnętrzne może być zamieszczone w tekście lub w elementach graficznych widocznych na stronie. Linki tekstowe to zwykle wyróżniona kolorem i/ lub wyboldowana fraza. Po kliknięciu odsyłają do innego artykułu lub podstrony. Linki graficzne mogą być zamieszczone na przykład w logo firmy lub marki. Linkowanie wewnętrzne może być pojedyncze l(na jednej podstronie) ub site wide, czyli obecne we wszystkich treściach umieszczonych na stronie.

    Linki wewnętrzne tekstowe mogą być zakotwiczone we frazach kluczowych w mianowniku (Exact Match Anchor, EMA) lub we frazie kluczowej odmienionej przez przypadki, a nawet w jej synonimach (Partial Match). W tekście może też być umieszczony adres URL prowadzący na inną podstronę w obrębie tej samej witryny. Czasami linkowanie wewnętrzne ukryte jest pod słowami „zobacz tutaj”, czy „zobacz więcej” lub pod nazwą marki.

    Linkowanie wewnętrzne – zalety

    Linkowanie wewnętrzne ułatwia poruszanie się po stronie i wydłuża czas, jaki użytkownik spędza w obrębie danej witryny, odwiedzając kolejne podstrony. Dobrze zaplanowane i rozmieszczone linkowanie wewnętrzne zwiększa przejrzystość strony, co ma realne przełożenie na pozycjonowanie witryny w wyszukiwarce (SEO) oraz na rankingi i wyniki sprzedaży. Linkowanie wewnętrzne ułatwia i przyspiesza również proces indeksacji przez roboty wyszukiwarki, bez czego strona nie będzie widoczna w wynikach wyszukiwania.

  • Long-tail Keywords (Frazy kluczowe z długim ogonem)

    Long tail keywords, czyli frazy z długim ogonem, to frazy kluczowe zamieszczane w tekście, składające się z więcej niż 3 słów (zwykle w przedziale 3-5 słów). Frazy kluczowe z długim ogonem ą używane relatywnie rzadziej niż pojedyncze słowa kluczowe (frazy generyczne), ale postrzegane są jako bardziej precyzyjne narzędzie SEO.

    W jakim celu używa się fraz z długim ogonem

    Frazy z długim ogonem mają kilka zalet. Po pierwsze, lepiej niż generyczne słowa kluczowe określają zamiary użytkowników. Po drugie, są zaprojektowane tak, by lepiej odzwierciedlać faktyczne zapytania wpisywane w wyszukiwarkę. Dzięki zastosowaniu fraz z długim ogonem można wygenerować większy ruch na stronie, co będzie miało przełożenie na jej pozycjonowanie w wyszukiwarce. I wreszcie, stosowanie fraz z długim ogonem może pomóc odróżnić dany produkt od konkurencyjnych – użytkownicy wpisując w wyszukiwarce konkretne zapytanie otrzymają wynik optymalnie dostosowany do wpisanych fraz.

    Frazy z długim ogonem a SEO

    Szacuje się, że około 70 procent zapytań w wyszukiwarce zawiera frazy z długim ogonem, czyli złożone z więcej niż 3 słów. Jeśli na stronie użyte zostały adekwatne frazy z długim ogonem, będzie to miało ogromny wpływ na organiczne wyniki wyszukiwania. Z tego względu stosowanie fraz z długim ogonem jest coraz bardziej popularnym działaniem SEO. Dzięki frazom z długim ogonem poprawia się widoczność strony, a co za tym idzie – jej klikalność i wyniki sprzedaży.

    Frazy z długim ogonem – korzyści dla klientów i użytkowników sieci

    Frazy z długim ogonem sprawiają, że użytkownik po wpisaniu zapytania w wyszukiwarce otrzymuje wyniki optymalnie dostosowane do jego intencji. Dzięki temu szybciej i łatwiej znajduje produkt, o który mu chodzi lub odpowiedź na swoje wątpliwości. Frazy z długim ogonem wspierają dywersyfikację w sieci i pomagają znaleźć właściwą stronę. Jest to również z korzyścią dla firm, ponieważ wprowadzając odpowiednie frazy z długim ogonem mogą bardziej precyzyjnie przedstawić swoją ofertę, dostosowując ją do określonej grupy klientów.

    Frazy z długim ogonem – przykłady

    Frazy z długim ogonem powinny odzwierciedlać naturalne zapytania wpisywane w wyszukiwarkę, a jednocześnie być poprawne gramatycznie. Przykładowa fraza z długim ogonem to Sklep ogrodniczy w Warszawie lub, co bardziej prawdopodobne ze względu na formę zapytania Sklep ogrodniczy Warszawa. Frazę z długim ogonem należy umieścić w tekście tak, by w jak najbardziej naturalny sposób wpasowała się w jego treść.

  • Meta Description

    Meta description (opis meta) to opis zawartości strony, który wyświetla się pod tytułem i adresem URL. Meta description musi mieć określoną długość w przedziale od 140 do 160 znaków i jest zamieszczony w kodzie strony. Powinien jasno mówić, co znajduje się na danej stronie internetowej. Ta informacja jest ważna zarówno dla użytkowników, jak i algorytmów sieciowych.

    Meta description – jakie pełni funkcje

    Opis meta to dobry sposób, by zareklamować stronę i poprawić współczynnik klikalności. Sam tytuł strony może nie wystarczyć, by zainteresować użytkownika. Może też być nie do końca jasne, co znajduje się na stronie. Opis meta jest właśnie po to, by doprecyzować tematykę i zakres treści na stronie. Dzięki niemu algorytmy sieciowe mają ułatwione zadanie indeksowania, co przekłada się na lepsze pozycjonowanie strony w wynikach wyszukiwania. Użytkownik może sprawdzić meta opis klikając na stronę prawym przyciskiem myszy i wybierając„Zbadaj”.

    Jak przygotować dobry meta opis

    Meta opis to krótkie streszczenie tego, co znajduje się na stronie/ w zamieszczonym na stronie tekście. Aby spełniać swoje funkcje (reklamy i podniesienia rankingów strony), meta opis powinien być umiejętnie przygotowany pod kątem SEO. Dobry meta opis powinien zawierać słowa kluczowe, ważne dla indeksowania strony. Powinien też w zwięzły i precyzyjny sposób opisywać to, czego dotyczy artykuł/ strona, tak by zainteresować potencjalnego czytelnika. Można też umieścić w meta opisie frazy takie jak Sprawdź teraz czy Zobacz, by zachęcić użytkownika do odwiedzenia strony. Bardzo ważne jest, by meta opis mieścił się w określonym przedziale znaków. Zbyt długi meta opis może sprawić, że strona zostanie gorzej sklasyfikowana przez algorytmy sieciowe i pozycjonowana niżej niż konkurencyjne witryny/ strony z opisem spełniającym formalne warunki meta description.

  • Mobile-Friendly

    Mobile friendly (strona przyjazna mobilnie) oznacza stronę dostosowaną do korzystania z urządzeń mobilnych takich jak smartfony. Jest to jeden z czynników mających wpływ na rankingi strony.

    Jak zadbać o mobilną przyjazność strony

    Strona przyjazna mobilnie to taka, którą z łatwością czyta się na smartfonie i bez trudu można z niej korzystać w telefonie, na przykład naciskając przycisk koszyk. Oznacza to, że strona powinna być dostosowana  do mniejszego ekranu smartfona, tak by jej obsługa była na nim optymalna. Mobile friendly oznacza również uproszczenie strony, w tym zmniejszenie ilości zakładek. Ważne informacje powinny być dobrze widoczne, a najlepiej wyróżnione. Kontakt z firmą lub sklepem powinien być możliwy na zasadzie jednego kliknięcia, bez konieczności ręcznego wpisywania numeru telefonu czy adresu e-mail. Zamiast numerów stron sprawdzi się tzw. infinite scroll – użytkownik przewija stronę na ekranie telefonu w dół.

    Dlaczego mobilna przyjazność strony jest istotna

    Obecnie wielu użytkowników korzysta do przeglądania stron internetowych nie tylko z komputera czy laptopa, ale także z urządzeń mobilnych. Dostosowanie strony internetowej do przeglądania na telefonie ma coraz większy wpływ na jej pozycjonowanie w wyszukiwarce. Od 2015 roku wyszukiwarka Google popiera strony mobile friendly, czyli dostosowane do urządzeń mobilnych. Mobilne dostosowanie strony ma również wpływ na jej postrzeganie przez użytkowników i ruch na stronie, co zwiększa wyniki sprzedaży.

    Jak dostosować stronę do urządzeń mobilnych

    To, czy strona jest przyjazna mobilnie można sprawdzić w Google Search Console. Jeśli okaże się, że strona nie przeszła testu mobile friendly, zaleca się ją dostosować do potrzeb użytkowników urządzeń mobilnych. Można to zrobić korzystając z algorytmu mobilnego, który sprawia, że strona wygląda inaczej na laptopie i w telefonie.

  • Optymalizacja treści (Content optimalisation)

    Optymalizacja treści to kluczowy element SEO i SEM. Zwiększa widoczność strony i poprawia jej pozycjonowanie w wynikach organicznych. Jest bardzo ważnym czynnikiem mającym wpływ na rozpoznawalność witryny i zwiększenie ruchu, czyli liczby osób odwiedzających stronę.

    Optymalizacja treści pod kątem SEO

    Optymalizacja treści pod kątem SEO obejmuje następujące działania:

    • analizę i wprowadzenie odpowiednich słów kluczowych,
    • odpowiedni linkbuilding: wprowadzenie linków zwrotnych, usunięcie linków uszkodzonych i osieroconych,
    • aktualizację i rozbudowanie treści (można dodać FAQ, wypowiedzi ekspertów, etc.),
    • aktualizację tytułu i meta danych pod kątem aktualnych słów kluczowych,
    • optymalizację nagłówków i układu tekstu.

    Optymalizacja treści może też obejmować dodanie grafik czy filmów zwiększających atrakcyjność strony. Główny cel to zmiana treści w taki sposób, by jak najlepiej odpowiadała potrzebom użytkowników wybranej grupy docelowej i była dostosowana do najnowszych algorytmów wyszukiwarki.

    Optymalizacja treści – korzyści

    Optymalizacja treści to jedno z ważniejszych działań marketingowych. Jej celem jest poprawa pozycjonowania strony na liście SERP, tak by wyświetlała się wysoko w wykazie wyników organicznych (bezpłatnych). Wprowadzenie aktualnych słów kluczowych w tekście i w meta opisie sprawia, że informacje są lepiej widoczne dla programów indeksujących wyszukiwarki, a co za tym idzie, strona jest szybciej klasyfikowana jako odpowiednia w kontekście konkretnego zapytania – wyświetla się jako jedna z pierwszych. Linki zwrotne i optymalizacja struktury tekstu pełnią podobną rolę. Z punktu widzenia użytkownika istotna jest przydatność treści i jej atrakcyjność. Im bardziej oryginalny tekst i im bardziej konkretnie odpowiada na zapytania, tym lepiej ze względu na wiarygodność i rozpoznawalność strony.

    Optymalizacja treści ma przełożenie na zwiększenie ruchu, poprawę współczynnika klikalności i częstsze indeksowanie strony przez roboty indeksujące, co z kolei prowadzi do jej lepszego pozycjonowania i widoczności. Jest również dobrym pretekstem do zmiany treści (dodanie odpowiednich słów kluczowych, pozycjonowanie lokalne) tak, by pasowała do aktualnych algorytmów wyszukiwarki.

  • Page Speed

    Page speed to szybkość z jaką otwiera się (ładuje, wczytuje) strona internetowa. Określa się ją także jako wydajność strony. Szybkość ładowania się strony mierzona jest od chwili gdy kliknięcia adresu do pełnego wczytania strony, tak by widoczne były wszystkie dane i by możliwe było podejmowanie działań.

    Szybkość strony a szybkość witryny

    Szybkość strony to wskaźnik, który odnosi się do czasu potrzebnego na załadowanie pojedynczych stron lub podstron. Szybkość witryny ustala się obliczając średni czas ładowania się wszystkich składających się na nią stron.

    Od czego zależy szybkość strony

    Page speed zleży od następujących czynników:

    • konfiguracji serwera czyli hostingu,
    • optymalizacji pamięci podręcznej – służą do tego odpowiednie wtyczki,
    • wielkości plików graficznych – im większe pliki, tym dłużej trwa ich wczytywanie,
    • wykorzystania narzędzi SEO,
    • łańcucha przekierowań – im więcej automatycznych przekierować, tym zwykle dłuższy czas wczytywania się strony.

    Narzędzia do pomiaru szybkości ładowania strony

    Wskaźnik szybkości strony może być rozumiany jako czas potrzebny na jej pełne załadowanie po kliknięciu adresu URL lub czas jaki upływa od kliknięcia do otrzymania pierwszego bajta danych z serwera. Do mierzenia szybkości ładowania strony służą darmowe narzędzia takie jak Google Page Speed Insight. Wyniki pomiaru szybkości strony prezentowany jest w skali od 1 do 100. Szybkość ładowania strony można też zmierzyć za pomocą Google Analytics Site Speed lub Google Lighthouse. Ogólnie można powiedzieć, że czas wczytywania strony powinien wynosić poniżej 3 sekund. Jeśli strona ładuje się dłużej, użytkownik może się zniecierpliwić i ją opuścić, co negatywnie wpływa na jej rankingi.

    Dlaczego szybkość ładowania strony jest ważna

    Szybkość z jaką ładuje się strona ma wpływ na jej ocenę przez użytkowników oraz na wyniki pozycjonowania w wyszukiwarce (SERP). Ma przełożenie na parametry wyświetleń i współczynnik odrzuceń (bounce rate). Jest jednym z czynników, jaki należy wziąć pod uwagę w działaniach mających na celu optymalizację strony. Jako dobry wskaźnik page speed w Google Page Speed Insight uznaje się ten powyżej 90. Jeśli wynik szybkości strony wynosi poniżej 89 oznacza to, że trzeba ją poprawić (zoptymalizować).

  • Robots.txt

    Robots.txt to pliki tekstowe z instrukcjami dla robotów wykonujących skanowanie (crawling) i indeksację stron internetowych. Robots.txt zawierają wytyczne zezwalające na dostęp lub blokujące skanowanie. Plik robots.txt może być przeznaczony dla wszystkich botów sieciowych lub dla jednego robota (algorytmu).

    Jak tworzy się pliki robots.txt?

    Robots.txt to zwykły plik tekstowy, który zawiera instrukcje dla robotów sieciowych. Jego zadaniem jest zoptymalizowanie procesu skanowania i indeksacji witryny. Innymi słowy, plik robots.txt „mówi” botom, które treści witryny należy analizować i zaindeksować. Pliki robots.txt tworzy się za pomocą kodowania UTF-8, używając wyłącznie znaków z kodu ASCII. Robots.txt umieszcza się w głównym katalogu witryny.

    Jakie informacje zamieszcza się w robots.txt

    Pliki robots.txt zawierają następujące informacje:

    • jakiego rodzaju robotów dotyczą zamieszczone w pliku wytyczne (User-Agent: * oznacza wszystkie boty sieciowe, można też wpisać nazwę konkretnego robota, na przykład Googlebot),
    • zasoby dostępne dla robotów (Allow)
    • zasoby niedostępne dla robotów sieciowych (Disallow).

    Po wpisaniu tych informacji warto monitorować status witryny i upewnić się, że roboty sieciowe faktycznie nie mają dostępu do zablokowanych treści (stron). Boty sieciowe teoretycznie stosują się do dyrektyw zamieszczonych w robots.txt, ale jeśli chcemy mieć pewność, że będą respektować odmowę dostępu do danych treści, zaleca się zabezpieczyć je dodatkowo hasłem. Kolejność dyrektyw w robots.txt nie ma znaczenia.

  • Above-the-Fold Content (treść strony internetowej widoczna bez konieczności przewijania w dół)

    Wyrażenie Above-the-Fold Content ma swoje źródło w drukarstwie, gdzie oznaczało tekst lub zdjęcie zamieszczone na górze pierwszej strony gazety lub czasopisma. Dosłownie znaczy „nad fałdką”, czyli powyżej miejsca, gdzie gazeta składana była na pół. Above-the-Fold Content to treść priorytetowa, najlepiej widoczna. W odniesieniu do stron internetowych wyrażenie to oznacza treści, które użytkownik zobaczy jako pierwsze. Są one ważne, ponieważ zwykle pierwsze wrażenie decyduje o tym, czy użytkownik pozostanie na stronie i wykona dalsze czynności z nią związane (dokona zakupu lub zapisze się do Newslettera).

    Above-the-Fold Content a pozycjonowanie strony

    Above-the-Fold Content to treść strony internetowej widoczna bez konieczności przewijania (scrollowania) w dół. Użytkownik klikając w link lub wynik wyświetlony wyszukiwarce, najpierw zobaczy właśnie Above-the-Fold Content. Jeśli zamieszczone tam zdjęcia i teksty oraz układ strony zainteresują go i przekonają, że strona może być przydatna ze względu na wpisane w wyszukiwarkę zapytanie, wzrasta szansa, że pozostanie na stronie dłużej i dokona konwersji. Czas pozostawania na stronie, podobnie jak liczba kliknięć i interakcji oraz współczynnik odrzuceń, to ważne czynniki pozycjonowania strony, dlatego Above-the-Fold Content powinien być jak najbardziej atrakcyjny. Tak jak w erze przed internetem górna część prawej strony gazety zachęcała do jej kupienia, tak treść strony internetowej widoczna bez konieczności przewijania w dół zachęca do jej eksploracji, a tym samym zwiększa szansę na lepsze pozycjonowanie.

    Jak ulepszyć  treść strony widoczną bez konieczności przewijania

    Liczy się pierwsze wrażenie – ta maksyma sprawdza się również w przypadku stron internetowych. To, co zobaczy użytkownik po otworzeniu strony, jest bardzo istotne dla jego decyzji o pozostaniu na niej lub jej opuszczeniu. Działania SEO w tym obszarze powinny skupić się na optymalizacji tytułu i nagłówków, uporządkowaniu treści oraz dostosowaniu strony do otwierania na urządzeniach mobilnych. Treści zachęcające potencjalnego klienta/ użytkownika powinny być podane w sposób zwięzły i jasny oraz atrakcyjny graficznie. Above-the-Fold Content powinna też zawierać dane kontaktowe i słowa kluczowe, które przekonają użytkownika, że jest w miejscu, którego szukał wpisując swoje zapytanie w okno wyszukiwarki. Nie bez znaczenia jest również szybkość ładowania  Above-the-Fold Content.

  • Anchor Text (treść linka, tekst zakotwiczenia, etykieta łącza)

    Achor tekst to treść linka zamieszczonego na stronie internetowej. Po kliknięciu zaznaczonego na niebiesko tekstu, użytkownik jest przekierowywany do innej podstrony w obrębie tej samej witryny (linki wewnętrzne) lub do innej domeny (linki zewnętrzne). Anchor text określany jest również jako tekst zakotwiczenia (anchor to po angielsku kotwica) oraz etykieta łącza.

    Tekst zakotwiczenia – jak wygląda w w praktyce

    Tekst zakotwiczenia (popularnie: anchor teksty, anchory) umieszczany jest jako element kodu HTLM strony. Jego zadaniem jest określić treść hiperłącza w optymalnie zwięzły i jasny sposób, tak by użytkownik widział ją po najechaniu na link zaznaczony w tekście myszą, jeszcze przed kliknięciem w zaznaczoną frazę. Jest to bardzo przydatne z uwagi na wygodę użytkownika i lepsze wrażenie, jakie robi nawigacja strony. Wszystkie potrzebne informacje są widoczne bez konieczności otwierania kolejnych podstron. Użytkownik sam może zadecydować, które hiperłącza zamieszczone na stronie są w danym momencie dla niego przydatne.

    Teksty zakotwiczenia a pozycjonowanie strony

    Teksty – kotwice są bardzo ważne ze względu na pozycjonowanie strony. Algorytmy wyszukiwarki skrupulatnie analizują linki zamieszczone w tekście biorąc pod uwagę słowa kluczowe i tematykę określoną w metadanych strony. Wszelkie rozbieżności lub umieszczanie linków z podejrzanymi/ niejsanymi tekstami zakotwiczenia są interpretowane na niekorzyść strony i mogą mieć negatywny wpływ na jej pozycjonowanie. Z tego względu do działań SEO należy również optymalizacja pod kątem treści hiperłączy, czyli anchor tekstów.

    Różne rodzaje tekstów zakotwiczenia a SEO

    Jest kilka podstawowych rodzajów tekstów zakotwiczenia:

    • anchor teksty brandowe, czyli takie, w których jako słowo kluczowe występuje nazwa firmy lub marki,
    • „nagie” teksty zakotwiczenia – w treści linku występuje sam linkowania,
    • teksty zakotwiczenia exact match i partial match – w treści linku występują słowa kluczowe związane z tematyką strony lub ich synonimy,
    • generyczne teksty zakotwiczenia, nie związane z tematem strony.

    Z punktu widzenia SEO i pozycjonowania strony przez algorytmy wyszukiwarki, obecnie najlepiej sprawdzają się anchor teksty exact match i partial match oraz brandowe teksty zakotwiczenia.

  • Dwell Time (Czas spędzony na stronie)

    Dwell Time to wskaźnik określający ilość czasu, jaki użytkownik wyszukiwarki spędza na otworzonej stronie, mierzony od chwili kliknięcia w link z jej adresem URL do momentu opuszczenia strony, w tym do powrotu do listy wyników organicznych wyświetlanych dla danego zapytania. Dwell Time to ważny czynnik mający wpływ na pozycjonowanie strony.

    Dlaczego Czas spędzony na stronie jest ważny?

    To, ile czasu użytkownik spędził na stronie po jej otwarciu, jest ważną informacją na temat poziomu jej atrakcyjności i merytorycznej trafności w kontekście zapytania. Użytkownicy mogą opuszczać stronę z różnych względów. Do najczęstszych należą problemy z ładowaniem, nieczytelny układ strony, utrudniona nawigacja (co zdarza się np. w przypadku stron niedostosowanych do urządzeń mobilnych) oraz nieinteresująca dla użytkownika treść widoczna na pierwszy rzut oka, bez scrollowania w dół. Algorytmy Google prawdopodobnie biorą pod uwagę ile czasu użytkownik spędził na stronie zanim powrócił do listy wyników lub w ogóle zakończył internetową sesję. Nie ma jednak prostej zależności: dłuższy czas pozostawania na stronie = wyższe pozycjonowanie. Jest to jeden z parametrów mających wpływ na miejsce strony na liście wyników organicznych, ale zawsze należy go rozpatrywać i interpretować w połączeniu ze innymi wskaźnikami, zwłaszcza ze wskaźnikiem odrzuceń (bounce rate).

    Informacje na podstawie Dwell time dla właściciela strony

    Raport o ilości czasu, jaki użytkownicy pozostają na stronie jest ważną informacją dla administratora strony. Jeśli wskaźnik ten jest niski, może to wskazywać na problemy takie jak wolne wczytywanie się strony czy jej nieatrakcyjny wygląd. Działania SEO mają na celu wykrycie tych problemów (audyt SEO) i wdrożenie strategii optymalizacji strony. Wysoki wskaźnik czasu pozostawania na stronie to pozytywna informacja: zwykle oznacza, że zamieszczone na niej treści okazały się wartościowe i przydatne dla użytkownika. Jeśli jednak czas spędzany na stronie jest zbyt długi, może to świadczyć o nieintuicyjnej nawigacji i układzie strony, który utrudnia wyszukanie potrzebnych informacji.

  • Google Hummingbird Algorithm (Algorytm Google Koliber)

    Algorytm Google Hummingbird, czyli algorytm Koliber, to nazwa algorytmu wyszukiwarki Google wdrożonego w 2013 roku. Algorytm Koliber cechuje się dużą szybkością przetwarzania danych i tym, że bierze pod uwagę kontekst i znaczenie wpisywanych w wyszukiwarce zapytań, w odróżnieniu od wcześniejszych algorytmów, które skupiały się po prostu na wyszukiwaniu i prostej analizie słów kluczowych. Algorytm Koliber jest dostosowany do analizy języka naturalnego, tak jak używają go internauci. Pomaga zrozumieć kontekst zapytania, biorąc pod uwagę takie czynniki jak lokalizacja użytkownika, historia wyszukiwania, czas i inne informacje wpływające na to, czego użytkownik szuka.

    Algorytm Google Koliber – znaczenie i kontekst

    Algorytm Koliber to jedna z bardziej znaczących zmian, jakie ostatnio wdrożyła wyszukiwarka Google. Algorytm ten w dużo większym stopniu niż poprzednie wersje programów indeksujących bierze pod uwagę ‘ludzki’ aspekt wyszukiwań i treści, które mogą pasować do wpisywanych przez użytkowników zapytań. Innymi słowy, w ramach tego algorytmu mniej ważne są kwestie techniczne oraz liczba i trafność słów kluczowych, a bardziej istotny staje się kontekst, w jakim słowa kluczowe są użyte. Algorytm Koliber promuje naturalnie brzmiące treści, natomiast te stosujące np. taktykę keywords snuffing są automatycznie pozycjonowane niżej.

    Algorytm Google Koliber a SEO

    Algorytm Koliber znacznie lepiej „rozumie” zamieszczane na stronach internetowych treści niż poprzednie wersje programów indeksujących. Oznacza to, że trudniej go oszukać – np. stosując wspomnianą taktykę upychania słów kluczowych na siłę. Algorytm ten analizuje treść strony biorąc pod uwagę język, w jakim jest napisana (promowane są naturalnie brzmiące teksty), merytoryczną trafność i przydatność w kontekście zapytania (wartościowe treści), a także autorytet strony, a nawet autora zamieszczonych na niej tekstów. Dzięki temu wyświetlane strony mają być lepiej dopasowane do potrzeb użytkownika. Algorytm Koliber stawia zatem nowe wyzwania dla SEO. Strona lepiej pozycjonowana to ta, która nie tylko zawiera określone słowa kluczowe i odpowiednią strukturę linkowania, ale dodatkowo jest oryginalna i prezentuje merytoryczne, dobrze napisane (naturalnym językiem treści). Innymi słowy, algorytm Koliber promuje działania White Hat SEO, banuje zaś te określane jako taktyki Czarnego Kapelusza. Algorytm Koliber jest też istotny ze względu na wyszukiwania lokalne, ponieważ jest dostosowany do rozpoznawania intencji użytkowników. Z tego względu większe niż wcześniej znaczenie ma optymalizacja strony pod kątem pozycjonowania lokalnego. W skrócie: algorytm Google Koliber sprawia, że działania SEO powinny przede wszystkim brać pod uwagę rzeczywiste potrzeby i zapytania użytkowników. Dotyczy to na przykład używania fraz z długim ogonem (long tail Keywords), tak jak wpisują zapytania internauci.

  • 301 Redirect (Przekierowanie 301)

    Przekierowanie 301 to komunikat mający na celu poinformowanie użytkownika oraz programów indeksujących wyszukiwarki internetowej, że dana strona jest nieaktualna i została przeniesiona pod inny adres URL.

    Czym różni się Przekierowanie 301 od 302

    W przeglądarce czasem wyświetla się komunikat Redirect 302, który również przekierowuje pod nowy adres strony. W odróżnieniu od Przekierowania 301, Przekierowanie 302 jest jedynie tymczasowe – informuje użytkowników i roboty indeksujące, że strona została przeniesiona pod nowy adres na jakiś czas, na przykład gdy jedna z jej podstron jest czasowo niedostępna. Przekierowanie 301 używane jest wtedy, gdy strona jest przeniesiona na nowy adres na stałe.

    Kiedy i w jakim celu stosuje się Przekierowanie 301

    Przekierowania 301 pozwala na przeniesienie strony na nowy adres w taki sposób, by klienci przyzwyczajeni do wpisywania dawnego adresu byli przekierowywani automatycznie do nowszej wersji strony, na nowy adres. To dobry sposób, by uniknąć błędu 404 – taki komunikat wyświetli się, gdy np. usunięta lub czasowo zawieszona zostanie jedna podstrona. Z punktu widzenia klienta i rankingów strony jest to sytuacja niekorzystna. Lepiej jest w takim przypadku przenieść stronę na inny adres. Komunikat Redirect 301 wyświetla się jedynie na krótko, a przekierowanie następuje automatycznie. Przekierowanie 301 jest też istotne z punktu widzenia SEO. Jeśli strona jest modyfikowana pod względem treści lub usuwane są podstrony, może stać się na jakiś czas niewidoczna w wyszukiwarce. Korzystniej zatem jest przenieść ją na nowy adres i wprowadzić Przekierowanie 301 ze starej strony na nową.

    Jak stosować Przekierowanie 301 w praktyce

    Przekierowanie 301 stosuje się w następujący sposób:

    • przy usuwaniu podstrony dodajemy na niej Przekierowanie 301, tak by użytkownik był automatycznie przenoszony na stronę główną lub podstronę o zbliżonej tematyce,
    • jeśli na kilku podstronach występują podobne treści, można zastosować Przekierowanie 301 do jednej z nich (działanie SEO),
    • przy przenoszeniu strony z wersji http:// na https:// wprowadzamy Przekierowanie 301 dla całej witryny,
    • w przypadku zmianie adresu strony wprowadzamy Przekierowanie 301 na starej wersji, niezależnie od otwieranej podstrony.
  • 404 Error Page

    404 Error Page czyli Błąd 404 (kod błędu odpowiedzi HTTP), to komunikat, że danej strony nie udało się odnaleźć na serwerze. Jest to dość częsty problem, a jego przyczyny mogą być różne – od usunięcia strony/ podstron do niewłaściwej indeksacji lub jej braku. Czasami powodem jest błędne wpisanie adresu URL w wyszukiwarkę.

    Błąd 404 – powody problemów z odnalezieniem strony

    Oprócz prozaicznych przyczyny, takich jak usunięcie strony lub niepoprawne wpisanie adresu, Błąd 404 not found może być spowodowany także innymi czynnikami. Najczęstszy to przeniesienie strony na inny adres bez zastosowania przekierowania 301. Użytkownicy wpisujący dawny adres zobaczą wówczas komunikat Błąd 404 – nie znaleziono strony. Jeśli nie znają nowego adresu URL, nie ma możliwości, by zostali przekierowani automatycznie na nową stronę. Jest to niekorzystne z punktu widzenia SEO oraz wizerunku firmy. Część osób może uznać, że przestała ona istnieć lub jest niewiarygodna.

    Jak naprawić Błąd 404

    Rozwiązanie problemu Błąd 404 jest stosunkowo proste. Użytkownik widząc ten komunikat może wykonać następujące czynności:

    • Odświeżyć/ zrestartować stronę i załadować ją ponownie – czasami powodem Błędu 404 jest problem z wczytywaniem strony, zwłaszcza jeśli mamy otwartych wiele okienek/ podstron.
    • Wrócić do poziomu głównego strony.
    • Sprawdzić czy adres wpisany jest poprawnie.
    • Użyć trybu incognito.
    • Spróbować otworzyć stronę na innym urządzeniu.
    • Użyć funkcji wyszukiwania.
    • Usunąć zbędne pliki cookies, które spowalniają przeglądarkę i ponownie otworzyć stronę.

    Jeśli te metody nie działają i nadal wyświetla się komunikat  Błąd 404, należy skontaktować się administratorem strony. Administrator może sprawdzić, czy strona nie została usunięta zawartość strony w systemie CMS (zarządzania treścią). Jeśli usunięte zostały podstrony lub cała strona, można podjąć działania w celu ich odzyskania. Jeśli strona przeniesiona została na inny adres, administrator może (a nawet powinien!) dodać przekierowanie 301. Stan strony pod kątem błędu 404 można sprawdzić w Google Search Console.

  • Black Hat SEO (czarne SEO, techniki czarnego kapelusza)

    Black Hat SEO, czyli techniki Czarnego Kapelusza w pozycjonowaniu strony, to działania SEO niezgodne z kodeksem etycznym stosowanym przez wyszukiwarki internetowe, zwłaszcza przez Google. Black Hat SEO może przynieść więcej szkody niż pożytku, z zablokowaniem strony przez algorytmy indeksujące włącznie.

    Czarne SEO – na czym polega

    Lepsza widoczność i lepsze pozycjonowanie strony to pożądane wyniki. Działania SEO mają jeden podstawowy cel: sprawić, by strona wyświetlała się wyżej w wynikach organicznych (naturalnych, bezpłatnych) wyszukiwarki. Służą do tego różnego typu strategie i narzędzia, przede wszystkim umiejętne stosowanie słów kluczowych, rozpoznawanych przez algorytmy sieciowe jako pasujące do zapytań użytkowników. Niektóre działania SEO zaczęły jednak budzić wątpliwości natury etycznej – wyszukiwarki dysponują obecnie narzędziami takimi jak algorytm Panda i Pingwin, które skutecznie wykrywają strategię czarnego kapelusza SEO. Polega ona m.in. na nadmiernym nasyceniu słowami kluczowymi (keyword stuffing), powtarzaniem treści na różnych podstronach (duplicate content), czy nieuczciwym, nadmiernym linkowaniem. Mogą też polegać na przekazywaniu innej treści użytkownikom, a innej algorytmom sieciowym. Black Hat SEO definiowane jest jako stosowanie technik manipulacyjnych, nieuczciwych ze względu na intencje użytkownika i algorytmy wyszukiwarki, mających na celu sztuczne podbicie wyniku, czyli wyższe pozycjonowanie strony.

    Kary za praktyki Black Hat SEO

    Techniki czarnego kapelusza nie są (w większości) prawnie zakazane, ale wyszukiwarki mają swoje sposoby, by je wykryć i ukarać stosującą je stronę. Zwykle wykrycie strategii WH SEO skutkuje obniżeniem pozycjonowania strony w wyszukiwarce. W niektórych przypadkach strona, a nawet cała witryna, może stać się zupełnie niewidoczna w przeglądarce.

    Czy Black Hat SEO ma jakieś zalety?

    Jedyną zaletą Black Hat SEO jest możliwość szybkiego wywindowania strony/ witryny w przeglądarce. Wyniki organiczne mogą być bardzo dobre, ale jedynie na krótką metę. Po wykryciu nieuczciwych strategii przez algorytmy sieciowe na stronę zostanie nałożony filtr depozycjonujący lub zostanie ona trwale usunięta z wyników wyszukiwania.

  • Canonicalization (wybór strony kanonicznej)

    Wybór strony kanonicznej to określenie jednej spośród wielu stron o podobnej treści jako tej właściwej. Jeśli algorytmy wyszukiwarki wykryją wiele stron/ podstron, które wydają się takie same lub bardzo podobne pod względem treści, wybierają tę, która z ich punktu widzenia jest najbardziej przydatna dla użytkowników.

    Od czego zależy wybór strony kanonicznej

    Algorytmy dokonują wyboru strony na podstawie takich parametrów jak jej oryginalność, kompletność, użycie słów kluczowych, szybkość wczytywania, przyjazność mobilna, i innych. Wybrana strona oznaczona jest jako kanoniczna, co oznacza, że będzie wyświetlać się w wyszukiwarce jako pierwsza spośród innych podobnych. Strony duplikujące treści strony kanonicznej (duplicat content) mogą w ogóle być pominięte w wynikach organicznych wyszukiwarki.

    Jak samodzielnie ustalić wybór strony kanonicznej

    Jeśli chcemy, aby dana strona określona została jako kanoniczna, należy wprowadzić w nagłówku strony link kanoniczny (canonical tag). Jest to informacja dla programów indeksujących, że to właśnie ta strona ma zostać uznana jako kanoniczna. Wprowadzenie linku kanonicznego nie gwarantuje tego, że programy indeksujące wybiorą tę właśnie stronę i oznaczą ją jako kanoniczną (ma na to wpływ wiele innych czynników), ale zwiększa tego prawdopodobieństwo. Tg kanoniczny wpisuje się w nagłówku strony HTLM lub HTTP.

    Dlaczego wybór strony kanonicznej jest ważny

    Duplikowanie treści przez wiele stron/ podstron ma niekorzystny wpływ na wyniki organiczne strony oryginalnej. Strona oryginalna wyświetla się niżej w wyszukiwarce, czyli jest gorzej pozycjonowana. Może też wyświetlać się pod różnymi adresami, co utrudnia jej znalezienie. Samodzielny wybór strony kanonicznej za pomocą wpisania linku kanonicznego (także jej własnego adresu URL) zapobiega tym problemom i sprawia, że roboty indeksujące mają ułatwione zadanie. Strona oryginalna jest dobrze widoczna, co ma przełożenie na jej rankingi i wyniki sprzedaży.

  • Google My Business

    Google My Business to dawna (do 2022 roku) nazwa usługi, która obecnie nosi nazwę Google Business Profile. W języku polskim to odpowiednio: Moja Firma w Google (do 2022 roku) i Profil Firmy w Google (obecnie). Usługa ta jest darmowa i przydatna dla zarządzania wizytówkami firmy.

    Google My Business/ Google Business Profile – do czego jest przydatna

    Panel Google My Business/ Google Business Profile jest używany do tworzenia i zwiększenia lokalnej rozpoznawalności firmy oraz zainteresowania użytkowników daną ofertą. Usługa Google My Business/ Google Business Profile pozwala na stworzenie atrakcyjnie wizualnie wizytówki oraz ułatwia klientowi kontakt z firmą/ sklepem. Dzięki panelowi profilu firmy w Google można  też  gromadzić pozytywne opinie, które dobrze jest zamieścić w Rich snippets (rozszerzonych elementach opisu), tak by wyświetlały się w wynikach wyszukiwania. Tworzenie wizytówki w  Google My Business/ Google Business Profile jest jednym z działań promocyjnych i PR-owych. Zwiększa zasięgi strony i poprawia pozycjonowanie lokalne. Dzięki o firmie mają szansę dowiedzieć się użytkownicy poszukujący danego typu usługi/ produktu w danej lokalizacji. Należy przy tym pamiętać, że pozycjonowanie wizytówki w wynikach wyszukiwarki zależy od wielu czynników branych pod uwagę przez algorytmy indeksujące.

    Google My Business/ Google Business Profile w praktyce

    Google My Business/ Google Business Profile pozwala na utworzenie wizytówki firmy, na której widoczne będą wszystkie istotne informacje takie jak jej nazwa, zakres działalności, dni i godziny otwarcia, lokalizacja i mapka, numer telefonu i adres e-mail, adres URL, logo firmy, oferowane produkty/ usługi, opinie klientów i średnia ocena usług oraz opcjonalnie inne dane. W wizytówce można zamieścić również zdjęcia i grafikę. Po dodaniu wizytówki w  Google My Business/ Google Business Profile należy ją zweryfikować, to jest potwierdzić, że jesteśmy uprawnieni do zarządzania wizytówkami danej firmy (np. jest ona naszą własnością). Do weryfikacji służy specjalny kod weryfikacyjny, który można otrzymać za pośrednictwem poczty, telefonicznie lub mailowo. Dla wybranych firm możliwa jest weryfikacja natychmiastowa lub zbiorcza (dostępna dla firm działających w ponad 10 lokalizacjach).

  • Google Panda Algorithm (Algorytm Google Panda)

    Algorytm Google Panda to program (algorytm) indeksujący wyszukiwarki Google wprowadzony w 2011 roku. Głównym zadaniem algorytmu Panda jest wyeliminowanie z wyników organicznych lub obniżenia pozycji stron zawierających treści mało wartościowe i powtarzające się (duplicate content).

    Algorytm Google Panda a pozycjonowanie strony

    Algorytm Google Panda ma na celu promowanie stron zawierających treści wysokiej jakości, merytorycznie odpowiadające na zapytania użytkowników. Dotyczy to zarówno tekstów, jak i zamieszczonych na stronie filmów oraz infografik. Aby zwiększyć widoczność strony i uzyskać lepsze wyniki organiczne, nie wystarczy zatem jedynie umieścić w tekstach oraz meta danych słów kluczowych oraz otagować stronę pod kątem robotów wykonujących wstępną analizę i skanowanie (crawlerów). Algorytm Google Panda to wyspecjalizowane narzędzie, które rozpozna szyte grubymi nićmi działania mające na celu wypromowanie strony. Aby uzyskać dobre wyniki organiczne i zachować je na dłużej, należy publikować oryginalne, wartościowe treści, czyli teksty i infografiki dobrej jakości, przydatne dla użytkowników a nie stworzone pod roboty sieciowe.  Algorytm Google Panda rozpozna i ukarze złe praktyki SEO – w ten sposób, że obniży ich pozycjonowanie, a nawet całkowicie wykluczy z przeglądarki.

    Algorytm Google Panda a SEO

    Algorytm Google Panda to narzędzie promujące działania White Hat SEO. Od czasu jego wprowadzenia praktyki takie jak duplikowanie treści (wewnętrzne i zewnętrzne) czy keyword stuffing (upychanie słów kluczowych na siłę) straciły na znaczeniu jeśli chodzi o podbicie wyników organicznych. Mogą one zadziałać jedynie na krótką metę – po ich wykryciu przez  Algorytm Google Panda strona automatycznie obniży pozycję w rankingu wyników organicznych. Z uwagi na  Algorytm Google Panda ważna jest jakość strony oraz jej regularne aktualizowanie. Promowane są dłuższe teksty, bardziej wnikliwie omawiające temat oraz strony zawierające większą ilość tekstów. Algorytm Google Panda analizuje też ilość reklam na stronie – jeśli jest ich zbyt wiele w stosunku do treści, ma to negatywny wpływ na pozycję strony w wynikach organicznych. Należy przy tym pamiętać, że algorytmy indeksujące biorą przy pozycjonowaniu strony pod uwagę szereg innych czynników, a niektóre z nich nadal pozostają tajemnicą. Z uwagi na  Algorytm Google Panda warto zatem publikować dobre jakościowo treści, ale nie należy zapominać o pozycjonowaniu lokalnym, układzie strony czy utworzeniu sitemap.

  • Google Penguin Algorithm (Algorytm Google Pingwin)

    Algorytm Google Pingwin to algorytm wyszukiwarki Google po raz pierwszy zastosowany w 2012 roku. Podstawowym zadaniem Algorytmu Google Pingwin jest obniżanie pozycjonowania w wynikach organicznych stron, które zawierają linki niskiej wartości oraz stosują techniki uznawane za spamowanie. Jednocześnie Algorytm Google Pingwin promuje te strony, które zawierają linkowanie i treści przydatne dla użytkowników.

    Algorytm Google Pingwin – jak działa w praktyce

    Algorytm Google Pingwin stanowi integralną część oprogramowania indeksującego wyszukiwarki Google (wraz z algorytmami Panda i Koliber). Jego działania skupiają się na wykrywaniu stron, które stosują nieuczciwe praktyki pod względem linkowania, na przykład praktykują automatyczne wymienianie się linkami oraz duplikują treści i/ lub nasycają je w nienaturalny sposób słowami kluczowymi. Strony tego rodzaju są klasyfikowane jako spam lub/ i próba oszustwa, a ich pozycja w wynikach organicznych automatycznie spada. Algorytm Google Pingwin promuje natomiast te strony, które używają linków w sposób naturalny, na przykład odsyłając do innych (wartościowych) treści w obrębie tej samej witryny. Badane jest również nasycenie słowami kluczowymi oraz naturalność ich użycia w tekście.

    Algorytm Google Pingwin – filtry i kary

    Jeśli Algorytm Google Pingwin uzna, że strona łamie dobre praktyki lub z jakiegoś powodu jest szkodliwa, nakładany jest na nią karę w postaci filtra obniżającego wyniki organiczne. Najbardziej dotkliwą karą jest wyrejestrowanie (wykluczenie) z wyszukiwarki – strona w ogóle przestaje się wyświetlać w wynikach wyszukiwania. Zanim jednak Algorytm Google Pingwin podejmie działanie penalizujące, ostrzega administratora strony i zaleca podjęcie działań w celu poprawy jakości linkowania i treści umieszczonych na stronie. Oczywiście, powinny to być działania z zakresu dobrych (uczciwych) taktyk SEO, czyli optymalizacja treści pod względem ich oryginalności i jakości, a linków tak, by były naturalne i użyteczne dla osób odwiedzających strony. Dobrym sposobem na poprawę sieci linkowania zewnętrznego jest na przykład wprowadzenie hiperłączy prowadzących do dyskusji na forach czy w mediach społecznościowych.

  • Google RankBrain Algorithm (Algorytm uczenia maszynowego, Inteligentne wyszukiwanie, AI)

    RankBrain to jeden z najnowszych algorytmów Google, korzystający ze sztucznej inteligencji i używany przez tę wyszukiwarkę od 2015 roku. RankBrain został utworzony w oparciu o uczenie maszynowe i jest stosowany do tak zwanego inteligentnego wyszukiwania. Oznacza to, że słowa lub frazy wpisywane przez użytkowników są interpretowane w oparciu o wcześniejsze ich zachowania i wyszukiwania. Algorytm RankBrain „uczy się” poprawnej i jak najbardziej przydatnej interpretacji analizując kilkaset milionów słów kluczowych dziennie.

    Algorytm RankBrain Google – inteligentna wyszukiwarka

    Większość użytkowników sieci nie zdaje sobie z tego sprawy, ale wyszukiwarki skrupulatnie zbierają wszystkie dane na temat ich zachowań i dokładnie je analizują. Ma to służyć wyświetlaniu jak najbardziej trafnych i dobranych do intencji użytkownika, lokalizacji, w jakiej się znajduje i wcześniejszych wyszukiwań. Algorytm RankBrain Google to pionierskie narzędzie wykorzystujące tak zwaną sztuczną inteligencję, czyli umiejętność uczenia się i ulepszania na tej podstawie dostarczanych wyników. Algorytm RankBrain poznaje potrzeby i preferencje danego użytkownika analizując to, jak dotychczas zachowywał się w sieci. Zadaniem Algorytm RankBrain jest również trafna interpretacja zapytań skomplikowanych i złożonych z dużej ilości słów. Użytkownik może nie wiedzieć, czego dokładnie szuka, ale Inteligentne wyszukiwanie podsunie podpowiedź, wyświetlając strony najbardziej pasujące do wpisanych fraz i do informacji, jakie zebrał o zachowaniu danej osoby online. Każdy kolejny wynik będzie lepszy od poprzedniego, ponieważ Inteligentna wyszukiwarka korzystająca z Algorytmu RankBrain uczy się cały czas.

    Algorytm RankBrain Google a SEO

    Algorytm RankBrain to element najnowszego oprogramowania wyszukiwarki internetowej Google. Wraz z algorytmami Panda, Pingwin i Koliber tworzy „team”, który dba o pozytywne doświadczenia użytkowników przeglądarki. Chodzi przede wszystkim o to, by wyświetlane strony były optymalnie dopasowane do rzeczywistych potrzeb użytkownika oraz prezentowały treści merytorycznie trafne, wysokiej jakości, przydatne i atrakcyjne (dla danej osoby). Algorytm RankBrain dba właśnie o spersonalizowane wyniki wyszukiwania – można zaryzykować stwierdzenie, że każdy użytkownik wyszukiwarki otrzyma różniące się w mniejszym lub większym stopniu wyniki organiczne. Algorytm RankBrain ma wpływ na pozycjonowanie strony, podobnie jak pozostałe algorytmy sieciowe. Odnośnie działań SEO wymusza taktyki z obszaru White Hat SEO, czyli optymalizację jak najbardziej uczciwą i fair wobec użytkownika. Narzędzia przydatne do optymalizacji strony pod RankBrain to Google Analytics i Google Search Console, które pokazują wyglądają rzeczywiste interakcje i zachowania użytkowników. Ważne jest pozycjonowanie lokalne, słowa kluczowe i linkowanie – te i inne informacje o stronie są brane pod uwagę przez Algorytm RankBrain odnośnie decyzji, czy będzie ona przydatna dla danego użytkownika w kontekście jego zapytania.

  • Google Search Console

    Google Search Console (dawniej  Google Webmaster Tools) to bezpłatna platforma Google udostępniająca narzędzia do monitorowania statusu strony oraz raporty przydatne dla administratora strony oraz ze względu na działania SEO.

    Do czego służy Google Search Console

    Google Search Console umożliwia sprawdzenie statusu indeksowania strony i całej witryny. W razie potrzeby umożliwia manualne indeksowanie, co przyspiesza proces uwzględnienia strony/ witryny w wynikach wyszukiwarki. Google Search Console udostępnia też darmowe narzędzia pozwalające na:

    • generowanie plików robot.txt
    • sprawdzanie statusu mapy witryny
    • otrzymywanie raportów o wskaźniku odrzuceń strony
    • otrzymywanie informacji o wadliwych linkach i innych problemach związanych ze stroną
    • analizę pozycjonowania strony w wynikach organicznych ze względu na słowa kluczowe
    • otrzymywanie informacji o nieuczciwych taktykach SEO wykrytych przez algorytmy wyszukiwarki i możliwości nałożenia kary w postaci filtra lub wykluczenia strony z listy wyników organicznych
    • analizę struktury linkowania
    • analizę liczby kliknięć na stronie, wyświetleń strony i czasu, jaki użytkownicy pozostają na niej po otworzeniu

    Google Search Console a SEO

    Google Search Console to jedno z ważniejszych narzędzi z uwagi wykrywanie problemów i na wybór odpowiedniej strategii SEO. Informacje o problemach z indeksowaniem strony, raporty i analizy dostępne na platformie Google Search Console znacznie ułatwiają pracę podczas audytu SEO. Pozwalają wykryć miejsca, które wymagają optymalizacji i mogą podsunąć korzystne dla pozycjonowania strony rozwiązania.

  • Gray Hat SEO (szare SEO, techniki Szarego Kapelusza)

    Gray Hat SEO, czyli tak zwane szare SEO, lub SEO stosujące techniki Szarego Kapelusza, to praktyki mające na celu lepsze pozycjonowanie strony na względu na SERP i wyniki organiczne, w których korzysta się zarówno ze strategii White Hat SEO, jak i Black Hat SEO. Gray Hat SEO może dawać szybsze efekty niż czyste White Hat SEO (uczciwe taktyki Białego Kapelusza), ale wiąże się z określonym ryzykiem.

    Gray Hat SEO – szara magia SEO

    Jeśli użyjemy analogii do białej magii, która ma pomagać, ale nie korzysta z podejrzanych moralnie źródeł oraz magii czarnej, która swoje efekty opiera na konszachtach z nieczystymi siłami (strategiami), to Gray Hat SEO, niczym szara magia, plasuje się gdzieś pomiędzy. Najprościej jest powiedzieć, że Gray Hat SEO korzysta zarówno z nienagannych praktyk White Hat SEO, jaki i z zakazanych strategie Black Hat SEO. Może to być nadmierne nasycenie tekstów na stronie słowami kluczowymi, tak by „oszukać” roboty indeksujące, a także automatyczne generowanie treści niskiej jakości (np. poprzez automatycznego tłumacza) lub kupowanie linków zwrotnych. Takie działania mogą szybko podbić widoczność i pozycję strony, ale mogą też spotkać się ze stanowczą odpowiedzią algorytmów wyszukiwarki.

    Ryzyko związane z Gray Hat SEO

    Nowoczesne algorytmy sieciowe dysponują narzędziami, by skutecznie wykrywać i piętnować nieetyczne strategie marketingowe i podejrzane działania SEO. Jeśli roboty Google uznają, że dana strona używa taktyk klasyfikowanych jako Black Hat SEO, może nałożyć na nią filtr, który automatycznie obniży jej pozycję w wynikach organicznych wyszukiwarki. W skrajnym przypadku taka strona może zostać trwale usunięta z przeglądarki, co jest bardzo dotkliwą karą. Gray Hat SEO nie zawsze zatem się opłaca – „białe” taktyki przynoszą efekty wolniej, ale są bezpieczne.

  • HTTPS Protocol (Hypertext Transfer Protocol Secure)

    HTTPS to skrót od pierwszych liter angielskiego wyrażenia Hypertext Transfer Protocol Secure, co oznacza, że protokół HTTP jest chroniony szyfrowaniem TLS (aktualna wersja szyfrowania SSL). Protokół HTTPS ma gwarantować bezpieczeństwo użytkownikom sieci poprzez zapobieganie atakom hakerów I przechwytywaniu danych.

    Protokół HTTPS – jak działa szyfrowanie I kiedy jest konieczne

    Szyfrowanie TLS sprawia, że przechwycenie lub zmiana treści pomiędzy żądaniem (zapytaniem wpisanym w wyszukiwarce) użytkownika a wysłaniem odpowiedzi z serwera jest teoretycznie niemożliwe. Strony z protokołem HTTPS określane są jako bezpieczne. Obecnie protokołu tego używają (powinny używać) wszystkie strony, na których dokonuje się płatności online i udostępnia swoje dane. Protokół HTTPS jest obowiązkowy na stronach banków i innych instytucji finansowych oraz zaufania publicznego. Protokół z szyfrowaniem TLS powinien również chronić strony portali społecznościowych i witryn, na których można zamieszczać komentarze. W trosce o własne bezpieczeństwo w sieci zaleca się odwiedzać strony chronione protokołem HTTPS i z symbolem zielonej kłódki przy adresie URL. Nie znaczy to, że wszystkie strony HTTP są podejrzane – nie dają jednak gwarancji, że udostępniane na nich dane są w pełni bezpieczne.

    Protokół HTTPS a pozycjonowanie strony

    Obecnie nie ma (jeszcze) obowiązku dla wszystkich (innych poza wymienionymi powyżej) stron i witryn, by stosowały one zabezpieczanie protokołem HTTPS. W praktyce jest to jednak dobrze widziane przez algorytmy indeksujące wyszukiwarki. Strony HTTPS na razie nie wyświetlają się znacząco wyżej w wynikach organicznych od tych ze zwykłym protokołem HTTP, ale biorąc pod uwagę znaczenia bezpieczeństwa w sieci, już niedługo może się to zmienić. Zabezpieczenie strony protokołem HTTPS jest z pewnością dobrym działaniem wizerunkowym: pokazuje, że firma dba o bezpieczeństwo klientów odwiedzających jej strony online.

  • Inbound Links (Linki zwrotne, linki przychodzące)

    Linki Inbound to takie hiperłącza, które przekierowują z innej (zewnętrznej) strony na daną stronę. Odróżnia się je od tzw Outbound linków, które prowadzą z danej strony na inną stronę oraz linków wewnętrznych, które przekierowują użytkownika na podstrony w obrębie tej samej domeny/ witryny.

    Do czego służą linki przychodzące

    Linki przychodzące (inbound links) są przydatne z punktu widzenia SEO i pozycjonowania strony. Wzmacniają jej autorytet i zwiększają ruch na stronie – przekierowują do niej użytkowników z innych stron czy domen. Nie jest to jedyny ani główny czynnik mający wpływ na rankingi strony (jej pozycjonowanie), ale dobrze zaplanowane i rozmieszczone linki przychodzące mogą poprawić jej wyniki. Z całą pewnością zwiększają ruch na stronie, co ma przełożenie na jej wyższe pozycjonowanie. Aby algorytmy Google potraktowały link przychodzący jako wartościowy, powinien on zawierać dobry tekst zakotwiczenia i pochodzić z wysoko pozycjonowanej strony.

    Wartościowe linki przychodzące a SEO

    Linki przychodzące wartościowe ze względu na SEO działają na zasadzie analogii do liczby cytować w publikacjach naukowych. Im jest ich więcej i im bardziej wartościowe teksty, w jakich cytowana jest dana praca, tym lepsza jej pozycja w naukowej domenie publikacji. Niekorzystna jest zarówno mała ilość cytowań, jak i cytowanie w niewłaściwych (nieuznawanych, słabo punktowanych) czasopismach. Podobnie jest z linkowaniem przychodzącym. Sama ilość linków przychodzących to dopiero połowa sukcesu. Muszą one pochodzić z wartościowych stron/ domen, by wzmocnić pozycję strony, do której odsyłają. Nowoczesnych algorytmów nie da się łatwo oszukać, więc nie wystarczy samo linkowanie do wybranej strony, by wzmocnić jej pozycję.

  • Indexing Issues (problemy z indeksowaniem)

    Problemy z indeksowaniem mogą być dwojakiego rodzaju. Pierwszy to brak indeksowania, opóźniające się z jakiś przyczyn indeksowanie lub niepoprawne indeksowanie. Stanowi to poważną przeszkodę do tego, by strona wyświetlała się poprawnie w wynikach organicznych. Drugi rodzaj problemów z indeksowaniem, to indeksowanie stron, które miały pozostać niewidoczne dla wyszukiwarki.

    Problemy z indeksowaniem – brak indeksowania

    Zaindeksowanie strony przez algorytmy sieciowe jest warunkiem koniecznym jej widoczności w SERP. Nowo powstała lub zaktualizowana strona jest najpierw skanowana przez roboty crawlujące, a następnie analizowana i katalogowana przez algorytmy sieciowe. To właśnie indeksowanie strony, które sprawia, że staje się ona widoczna w wyszukiwarce Google. Indeksowanie automatycznie także pozycjonuje stronę, czyli przyznaje jej określone miejsce na liście wyników. Brak indeksowania lub opóźniające się indeksowanie może wynikać z wielu przyczyn. Może być związane z niejasnym (dla algorytmów) otagowaniem strony lub użyciem wieloznacznych słów kluczowych, czy przeniesieniem strony na inny adres bez przekierowania 301. Indeksowanie strony można wymusić i wykonać ręcznie w Google Search Console.

    Problemy z indeksowaniem – indeksowanie stron, które nie powinny być indeksowane

    Rzadziej omawiany przykład problemów z indeksowaniem, to indeksowanie stron, które nie są przeznaczone dla wyszukiwarek. Może dotyczyć to prywatnych treści lub stron niskiej jakości, roboczych. Jeśli algorytmy sieciowe zaindeksują taką stronę, stanie się ona widoczna dla użytkowników wyszukiwarki. Grozi to wyciekiem prywatnych danych lub nałożeniem przez wyszukiwarkę kar w postaci filtrów w przypadku zaindeksowania stron niskiej jakości.

    Problemy z indeksowanie stron a SEO

    Działania SEO są bardzo ważne z uwagi na właściwe zaindeksowanie strony i jej optymalne pozycjonowanie w wynikach organicznych. Nawet najlepsza optymalizacja pod kątem SEO nie przyniesie jednak efektów, jeśli strona w ogóle nie zostanie zaindeksowana. Problemy z indeksowaniem strony sprawiają, że nie jest ona widoczna w wyszukiwarce lub jej rankingi spadają. Dlatego warto sprawdzać raporty odnośnie statusu strony w Google Search Console. Można tam również sprawdzić, jaki rodzaj błędów jest przyczyną braku indeksacji witryny lub poszczególnych stron. Pozwala to je naprawić. Jeśli jakaś podstrona nie ma być indeksowana, należy użyć tagi noindex lub zabezpieczyć ją za pomocą odpowiedniego robot.txt.

  • Internal Linking Structure (Linkowanie wewnętrzne)

    Linkowanie wewnętrzne to zgodnie z nazwą wszystkie linki, które zamieszczone są na stronie. Linki wewnętrzne są przydatne dla użytkowników: służyć do nawigacji w obszarze witryny i łatwiejszego odnajdywania szukanych treści. Linkowanie wewnętrzne jest również konieczne z uwagi na algorytmy indeksujące. Odpowiednia struktura linkowania wewnętrznego pozwala im łatwiej sklasyfikować witrynę/ stronę i może być przydatna do optymalizacji wyników organicznych w wyszukiwarce.

    Linkowanie wewnętrzne – rodzaje linków

    Linkowanie wewnętrzne obejmuje kilka rodzajów linków. Przede wszystkim są to linki na stronie głównej i menu. W tekstachna stronie można zamieszczać linki wewnętrzne kontekstowe, które odsyłają do innych treści w obrębie tej samej witryny. Może to być na przykład definicja danego pojęcia albo artykuł szerzej prezentujący tematykę, która zainteresowała użytkownika. Po kliknięciu w link wewnętrzny jest on przekierowywany do innej podstrony, przy czym z łatwością może wrócić do wyjściowego poziomu/ tekstu zawierającego dany link.

    Linkowanie wewnętrzne a SEO

    Linkowanie wewnętrzne, podobnie jak zamieszczanie na stronie linków zewnętrznych, należy do działań SEO, które mają na celu poprawę widoczności i pozycjonowania strony. Umiejętnie wprowadzone linki wewnętrzne porządkują treści obecne na stronie i ułatwiają poruszanie się po niej – zarówno użytkownikom, jak i robotom crawlującym i indeksującym. Z tego względu linkowanie wewnętrzne jest przydatne do lepszego pozycjonowania strony i dla bardziej korzystnego jej odbioru przez użytkowników. Dzięki linkowaniu wewnętrznemu pozostają też oni dłużej na stronie – nie muszą szukać wyjaśnień czy interesujących ich treści gdzie indziej. To zaś także ma przełożenie na lepsze pozycjonowanie strony w wyszukiwarce. Linki wewnętrzne pozwalają też ustalić relacje między podstronami na tej samej stronie i ustalić jedną z nich jako główną.

    Wartość linkowania wewnętrznego

    Linki wewnętrzne mają różną wartość. Zwykle najbardziej znaczące są te umieszczone na stronie głównej, ale wysoką wartość mają również linki wewnętrzne zamieszczone w nowych tekstach zamieszczanych na stronie. Dlatego zaleca się umieszczać w nich linki odsyłające do strony głównej – zyskuje ona dzięki temu pod względem pozycjonowania. Dobrze jest też dodać linki wewnętrzne do najbardziej popularnych wpisów na stronie oraz do kategorii i tagów.

  • Keyword Cannibalization (Kanibalizacja słów kluczowych)

    Kanibalizacja słów kluczowych to problem, który może pojawić się podczas rozszerzania strony internetowej o nowe treści (wpisy). Jeśli strony w obrębie tej samej witryny zawierają podobne słowa kluczowe i frazy z długim ogonem, zaczynają ze sobą konkurować i  zabierają sobie nawzajem elementy kluczowe do lepszego pozycjonowania.

    Kanibalizacja słów kluczowych – przykłady

    Kanibalizacja słów kluczowych ma miejsce wówczas, gdy na stronie zamieszczane są wpisy na podobne tematy i o podobnej treści. Na przykład, jeśli jeden z tekstów zawiera słowa kluczowe kanibalizacja słów kluczowych, a drugi zagrożenie kanibalizacja słów kluczowych, to algorytmy wyszukiwarki Google mogą mieć problem z zakwalifikowaniem tylko jednego z tych tekstów jako głównego na dany temat. W efekcie spada pozycjonowanie obydwu podstron. Prawdopodobieństwo  Kanibalizacji słów kluczowych wzrasta jeśli w obydwu tekstach użyte są te same frazy, jedynie odmienione przez przypadki lub ze zmienioną kolejnością wyrazów.

    Kanibalizacja słów kluczowych a SEO

    Kanibalizacja słów kluczowych to zjawisko niekorzystne ze względu na pozycjonowanie stron. Teksty zawierające podobne słowa kluczowe powodują, że podstrony, na których są publikowane, zaczynają ze sobą konkurować w obrębie tej samej witryny, co finalnie może osłabić pozycję nie tylko ich, ale całej domeny. Z tego względu w działaniach SEO należy brać pod uwagę poprzednie wpisy na stronie i przeanalizować je pod kątem użytych w nich słów kluczowych.

    Jak rozwiązać problem Kanibalizacji słów kluczowych

    Działania SEO w kierunku uniknięcia Kanibalizacji słów kluczowych, to przede wszystkim audyt, który ma na celu wykrycie problemu i określenie jakie teksty wzajemnie „pożerają” użyte w nich słowa kluczowe. Aby ten problem rozwiązać, można usunąć niektóre wpisy lub połączyć dwa lub więcej tekstów w jeden. Algorytmy wyszukiwarki będą wówczas analizować, indeksować i pozycjonować ze względu na dane słowa kluczowe tylko jedną podstronę. Jeśli chcemy zachować wszystkie wpisy i ich oryginalny układ, problem Kanibalizacji słów kluczowych można częściowo rozwiązać optymalizując strukturę linkowania wewnętrznego.

  • Keyword Density (nasycenie słowami kluczowymi)

    Keyword density, czyli nasycenie słowami kluczowymi lub gęstość słów kluczowych, to wyrażany w procentach wskaźnik mówiący jak przedstawia się ilość występowania słowa kluczowego w danym tekście względem długości tego tekstu. Nasycenie słowami kluczowymi liczy się według wzoru: Liczba użyć danego słowa kluczowego dzielona przez liczbę wszystkich słów występujących w tekście razy 100, przy czym wynik wyrażany jest w procentach. Zatem jeśli dane słowo kluczowe występuje w tekście 3 razy, a tekst ma 100 słów, to wskaźnik Keyword dDnsity dla tego słowa kluczowego będzie wynosił 3 procent.

    Nasycenie słowami kluczowymi – optymalne wartości

    Wbrew pozorom zbyt duże nasycenie słowami kluczowymi nie jest korzystne z punktu widzenia SEO. Obecnie nadmierne użycie słów kluczowych w tekście nie jest promowane przez wyszukiwarki. Zbyt duża ilość słów kluczowych może zostać sklasyfikowana przez algorytmy indeksujące jako spamowanie i w rezultacie strona będzie wyświetlać się niżej w wynikach organicznych lub w ogóle zostanie wykluczona. Te same słowa kluczowe zamieszczone w tekstach na różnych podstronach witryny mogą też wzajemnie się kanibalizować, a to znaczy, że w ogóle nie będą widoczne dla algorytmów wyszukiwarki. Dlatego bardzo ważna jest nie tylko jakość słów kluczowych, ale także odpowiednie rozmieszczenie ich w tekście pod względem ilości. Optymalna wartość wskaźnika nasycenia słowami kluczowymi dla całego tekstu powinna wynosić kilkanaście procent, a dla pojedynczego słowa kilka procent. Przyjmuje się, że fraza kluczowa nie powinna powtarzać się częściej niż 2-3 razy na tysiąc znaków ze spacjami. Należy przy tym pamiętać, że jeśli na stronie użyte są alternatywne opisy plików graficznych, użyte w nich słowa kluczowe będą wliczać się do wskaźnika gęstości słów kluczowych.

    Nasycenie słowami kluczowymi a naturalność tekstu

    Podstawowym warunkiem, jaki musi spełniać tekst, by strona miała szansę na dobre pozycjonowanie, to jego naturalność i oryginalność. Powinien być przydatny dla użytkownika, czyli odpowiadać na zapytania wpisywane w wyszukiwarkę. Umiejętnie użyte słowa kluczowe zwiększają widoczność strony dla programów indeksujących, ale biorą one także pod uwagę naturalność języka, jakim napisany jest tekst. Dlatego na stronach w języku polskim dobrym działaniem jest zamieszczanie słów kluczowych nie tylko w mianowniku, ale też odmienianych przez przypadki i w taki, żeby naturalnie wpasowywały się w treść.

  • Keyword Research Tools (Narzędzia do wyszukiwania słów kluczowych)

    Keyword Research Tools to narzędzia pozwalające na wyszukiwanie słów kluczowych ważnych z punktu widzenia optymalizacji SEO. Keyword Research Tools są dostępne online.

    Narzędzia do wyszukiwania słów kluczowych – wyszukiwanie słów kluczowych

    Aby znaleźć odpowiednie słowa kluczowe należy wejść np. na stronę Google Keyword Planner i wpisać poszukiwaną frazę/ zapytanie. Wyszukiwarka wyświetli sugerowane słowa kluczowe, także słowa kluczowe z długim ogonem, przydatne do specyfikacji treści pod konkretną grupę użytkowników. Keyword Research Tools dostarczają sugestii odnośnie słów kluczowych (zakładka Keyword Suggestions) oraz zapytań, jakie mogą być wpisywane przez użytkowników w wyszukiwarkę (zakładka Questions).

    Narzędzia do wyszukiwania słów kluczowych – działania zaawansowane

    Długa lista słów kluczowych udostępniona przez narzędzia do wyszukiwania słów kluczowych może zawierać powtórzenia i frazy nieprzydatne dla danego tekstu. Zaawansowane funkcje dostępne na stronach z narzędziami do wyszukiwania słów kluczowych pozwalają na wykluczanie niektórych fraz. Ostateczna lista sugerowanych słów kluczowych powinna być znacznie bardziej przydatna. Wartościowe słowa kluczowe można też wybrać samodzielnie, po zapisaniu wyników sugerowanych przez narzędzia do wyszukiwania słów kluczowych w Excelu lub w notatniku. Przy korzystaniu z narzędzi do wyszukiwania słów kluczowych przy każdej proponowanej frazie wyświetlana jest średnia liczba jej wyszukiwań w miesiącu. Te dane mają duże znaczenie dla wyboru słów kluczowych w celu optymalizacji tekstu.

    Narzędzia do wyszukiwania słów kluczowych – korzyści

    Narzędzia do wyszukiwania słów kluczowych ułatwiają wyszukiwanie fraz, które po wprowadzeniu do tekstu mogą przyczynić się do lepszego pozycjonowania strony. Korzystając z Keyword Research Tools można sprawdzić średnią miesięczną liczbę  wyszukiwań dla danej frazy, konkurencyjność frazy oraz stawkę za kliknięcie w reklamę. Dzięki tym danym można podjąć sprawne działania SEO w celu lepszego pozycjonowania strony.

  • Keyword Stuffing (Umieszczanie słów kluczowych na siłę)

    Keyword Stuffing, czyli umieszczanie w tekście (upychanie) słów kluczowych na siłę, to praktyka należąca do nieetycznych praktyk Black Hat SEO. Jest ona źle postrzegana przez algorytmy wyszukiwarki i na dłuższą metę działa na niekorzyść strony – obniża jej pozycjonowanie w wynikach organicznych.

    Keyword Stuffing – dlaczego nie warto upychać słów kluczowych na siłę

    Słowa kluczowe w tekście to podstawa SEO. Algorytmy indeksujące wyszukiwarki na ich podstawie klasyfikują zawartość strony pod kątem użyteczności dla osób wpisujących dane zapytanie/ frazy. Mogłoby się wydawać, że im więcej słów kluczowych w tekście, tym lepiej. Sprawa jest jednak bardziej subtelna i skomplikowana. Nadmierne nasycenie tekstu słowami kluczowymi, czyli Keyword stuffing sprawia, że treść wygląda nienaturalnie. Użytkownik nawet po pobieżnej lekturze ma wrażenie, że coś z danym tekstem jest nie tak. Podobnie oceniają tekst z nadmierną ilością słów kluczowych najnowsze algorytmy wyszukiwarki Google (Google Panda i Google Penguin). Jest on klasyfikowany jako spamowanie i próba oszustwa, a to sprawia, że nawet jeśli początkowo wyniki organiczne były świetne, po wykryciu Keyword stuffing strona może znaleźć się na dużo gorszej pozycji w rankingach, a nawet zostać usunięta z przeglądarki.

    Keyword stuffing – przykłady

    Algorytmy Google za keyword stuffing uznają:

    • zbyt częste powtarzanie tego samego słowa lub frazy, tak że tekst traci na naturalności,
    • wpisywanie w meta description słów kluczowych w jednym ciągu,
    • podawanie listy nazw miejsc lub miejscowości (pozycjonowanie lokalne w stylu Black Hat SEO).

    Jak uniknąć keyword stuffingu?

    Warto postawić na dobre praktyki SEO i stosować starannie dobrane słowa kluczowe w wyważonej ilości. Przydatny jest tu wskaźnik nasycenia tekstu słowami kluczowymi – nie powinno być ich więcej niż 3 na 1000 znaków ze spacjami. Nie należy też ulegać pokusie wpisywania słów kluczowych często wpisywanych w wyszukiwarkę, ale nie mających związku z treścią tekstu na stronie.

  • Local SEO Pozycjonowanie lokalne (SEO lokalne)

    SEO lokalne to działania mające na celu optymalizację strony na skalę lokalną, to jest w wyszukiwaniach w przeglądarce dotyczących określonego miejsca – na przykład miasta albo jego dzielnicy. SEO lokalne jest także określane jako pozycjonowanie lokalne strony, co ma ścisły związek z Mapami Google.

    SEO lokalne – optymalizacja na konkretną skalę

    SEO lokalne wychodzi naprzeciw realnym zapytaniom użytkowników wpisywanym w wyszukiwarkę. Wiele osób szuka danego typu usług – sklepu, lokalu, specjalisty – w konkretnym miejscu. Użytkownicy często wpisują przy zapytaniu w wyszukiwarce nazwę miasta, dzielnicy lub mniejszej miejscowości, zależnie od tego, gdzie w danym czasie się znajdują. SEO lokalne to taka optymalizacja strony, by wyświetlała się ona po wpisaniu nazwy usługi/ sklepu oraz nazwy miejscowości/ dzielnicy miasta. Dzięki lokalnemu SEO strona jest dostosowana do konkretnej grupy użytkowników, potencjalnie zainteresowanych skorzystaniem z oferowanych usług.

    Jak wprowadza się SEO lokalne

    Pozycjonowanie lojalne strony (SEO lokalne) realizuje się poprzez lokalne pozycjonowanie w wyszukiwarce oraz poprzez dodanie wizytówki firmy w Mapach Google (Google Maps). W celu realizacji pozycjonowania lokalnego można użyć dostępnych online narzędzi, które podpowiedzą jakie słowa kluczowe będą odpowiednie ze względu na daną lokalizację. Zwykle jest to nazwa usługi + nazwa miasta. Jeśli w treściach na stronie pojawią się takie właśnie frazy kluczowe, także (a zwłaszcza!) te z długim ogonem, zwiększa się szansa na lepszą rozpoznawalność dla algorytmów indeksujących, właściwe sklasyfikowanie, a co za tym idzie lepsze wyniki organiczne (wyższe pozycjonowanie w wyszukiwarce). Dodanie wizytówki w Mapach Google automatycznie spełni podobne zadanie.

    Optymalizacja SEO lokalne – dla kogo jest przydatna

    SEO lokalne to dobra strategia promocji zwłaszcza dla mniejszych i średnich firm, które nie są ogólnie rozpoznawalne. Po wpisaniu rodzaju usług i nazwy geograficznej użytkownik otrzymuje wyniki uwzględniające na wysokich miejscach w wyszukiwarce daną firmę, co zwiększa prawdopodobieństwo skorzystania z jej oferty. SEO lokalne sprawdzi się zarówno w przypadku mieszkańców danej miejscowości, którzy jeszcze nie wiedzą o twojej firmie, jak i turystów, którzy skorzystają z oferty sporadycznie, ale być może polecą twoje usługi znajomym.

  • LSI Keywords (Latent Semantic Indexing Keywords)

    LSI (Latent Semantic Indexing Keywords), czyli utajone/ ukryte semantyczne słowa kluczowe/ ukryte indeksowanie semantyczne, to słowa i frazy mające związek semantyczny (znaczeniowy) ze słowami kluczowymi użytymi w treściach zamieszczonych na stronie.

    Czym dokładnie są  semantyczne słowa kluczowe

    Semantyka to nauka o znaczeniach słów i wyrażeń, w odróżnieniu od syntaktyki, która zajmuje się jedynie formalną budową wyrazów i fraz. Ukryte semantyczne słowa kluczowe są powiązane z treściami zamieszczonymi na stronie, a konkretnie z użytymi w nich słowami kluczowymi, które mają wpływ na pozycjonowania strony.  Utajone semantyczne słowa kluczowe wpasowują się naturalnie w treść tekstu i są istotne ze względu na poruszaną w nim tematykę. Doprecyzowują znaczenia użytych w tekście terminów, tak by ich znaczenie było jednoznaczne dla algorytmów indeksujących oraz dla czytelnika.

    Semantyczne słowa kluczowe – przykłady

    Semantyczne słowa kluczowe są przydatne gdy w tekście pojawiają się wieloznaczne słowa  kluczowe, na przykład słowo pióro, które może odnosić do przyrządu służącego dawniej do pisania lub elementu pokrywającego ciało ptaka. Ukryte indeksowanie semantyczne może w tym przypadku polegać na wprowadzeniu w tekście ujednoznaczniających fraz takich jak upierzenie czy ptasie pióra. Opcjonalnie można dodać nazwę gatunku ptaka, którego dotyczy tekst. Inny przykład do słowo Saturn. Może oznaczać szóstą planetę Układu Słonecznego, staroitalskiego boga rolnictwa, zasiewów i czasu, greckie bóstwo utożsamiane z Kronosem lub być nazwą własną np. sklepu/ klubu fitness/ solarium. Doprecyzowanie znaczenia, w jakim użyte jest kluczowe słowo w tekście za pomocą ukrytego indeksowania semantycznego pozwala algorytmom wyszukiwarki na poprawne sklasyfikowanie strony, a co za tym idzie zwiększa szansę na wyższe jej pozycjonowanie w wynikach organicznych. Ukryte indeksowanie semantyczne może być postrzegane jako jedno z działań SEO, które ma na celu optymalizację treści tak, by poprawić rankingi strony.

    Użycie semantycznych słów kluczowych – czy jest przydatne

    LSI doprecyzowują znaczenie słów kluczowych i umieszczają je, podobnie jak cały tekst, we właściwym kontekście. Można rozumieć je również jako wyrazy z bliskiej okolicy/ rodziny słów kluczowych. Korzystanie z LSI jest przydatne zarówno ze względu na indeksowanie strony (roboty indeksujące mają ułatwione zadanie), jak i komfort czytelników, którzy łatwiej odnajdują treści, o które im chodziło w zapytaniu wpisywanym w wyszukiwarce. Używanie w tekście semantycznych słów kluczowych jest też z korzyścią dla jego oryginalności i atrakcyjności. Nie ma nic bardziej zniechęcającego niż monotonne użycie tych samych słów kluczowych lub niedoprecyzowanie znaczenia, w jakim są używane. Co ważne, LSI to nie zwykłe synonimy, a frazy powiązane znaczeniowo ze słowem kluczowym.

  • Mobile-First Indexing (Indeksowanie zoptymalizowane pod kątem urządzeń mobilnych)

    Mobile-First Indexing to indeksowanie ze względu na wersję strony dostosowaną do wyświetlania na urządzeniach mobilnych (mobile friendly). Taki rodzaj indeksowania nie wyklucza stron nieprzeznaczonych dla urządzeń mobilnych (wersji na komputer), jednak pozycjonuje je niżej.

    Indeksowanie zoptymalizowane pod kątem urządzeń mobilnych – cel

    Wyszukiwarki internetowe takie jak Google biorą pod uwagę zmieniające się przyzwyczajenia i zachowania użytkowników sieci i starają się dostosować do nich wyświetlane wyniki organiczne. Coraz więcej osób przegląda strony internetowe w telefonie, stąd strategia Mobile-First Indexing. Jej celem jest zwiększenie przydatności wyświetlanych wyników dla użytkownika, tak by miał on dostęp do stron odpowiednich dla urządzeń mobilnych. Strony te będą wyświetlać się na liście wyników na pierwszych miejscach, co nie oznacza, że starsze wersje (przeznaczone na komputer) zupełnie z tej listy znikną.

    Indeksowanie zoptymalizowane pod kątem urządzeń mobilnych a SEO

    Dostosowanie strony do wymogów związanych z wyświetlaniem na urządzeniach mobilnych (prostszy układ, większe przyciski, infinite scrolling) jest jednym z działań SEO. Algorytmy indeksujące wyszukiwarki biorą pod uwagę wiele czynników związanych z układem i jakością treści na stronie, jak również kwestie techniczne, takie jak to, czy strona jest dostosowana do wyświetlania na urządzeniach mobilnych. To obecnie ważny parametr, z uwagi na strategię indeksowania pod kątem urządzeń mobilnych. Do oceniania trafności strony w kontekście danego zapytania w pierwszej kolejności brana jest pod uwagę jej wersja mobilna (jeśli strona nie ma takiej wersji, także jest indeksowana, ale brak dostosowania do urządzeń mobilnych obniża jej pozycję w rankingach). Dlatego to na wersji mobilnej  (a w pierwszej kolejności na utworzeniu wersji strony mobile friendly) powinny skupić się zabiegi SEO. Najbardziej przydatne z ekonomicznego widzenia w przypadku tworzenia nowych stron jest wprowadzenie od razu wersji mobilnej i jej optymalizacja pod kątem SEO.

  • Niche SEO (SEO niszowe)

    SEO niszowe to działania mające na celu optymalizację strony prezentującej specjalistyczne treści skierowane do konkretnej, niekoniecznie licznej grupy odbiorców.

    SEO niszowe – specyfika i wpływ na pozycjonowanie strony

    SEO niszowe, czyli optymalizacja strony skierowanej do konkretnej grupy klientów, teoretycznie jest dość prostym zadaniem. Taka strona ma swoich lojalnych czytelników i odbiorców, a słowa kluczowe użyte w publikowanych na niej treściach jasno wskazują na to, czego dotyczy. Taka strona ma mniejszą konkurencję (mniej stron zamieszcza podobne lub identyczne treści), jest też prostsza do zaindeksowania przez algorytmy wyszukiwarki. Strona, która wykorzystuje SEO niszowe ma duże szanse na lepsze pozycjonowanie, czyli wyświetlanie się wyżej w wynikach organicznych.

    SEO niszowe w praktyce i jego zalety

    SEO niszowe to działania polegające na lepszej, bardziej dokładnej specyfikacji strony, czyli dookreślenia, czego dotyczą publikowane na niej treści. Można to zrobić ujednolicając i precyzując meta dane, a także wprowadzając w tekstach zamieszczonych na stronie niszowe słowa kluczowe.

    Taka strona, o ile optymalizacja wykonana jest zgodnie z zasadami sztuki dobrego SEO, będzie wyświetlać się wyżej w wynikach organicznych, a to dlatego że:

    • niszowe obszary rynku online są zawsze mniej liczne, zatem strona ma mniejszą konkurencję,
    • algorytmy sieciowe dokładnie wiedzą, czego dotyczy strona i mogą dopasować wyniki wyszukiwania do intencji i preferencji użytkownika – w tym przypadku liczy się zainteresowanie konkretnych potencjalnych klientów, nie ilość kliknięć i odwiedzeń strony,
    • im bardziej niszowa strona, tym większy jej autorytet w wyszukiwarce, co ma przełożenie na lepsze pozycjonowanie w kontekście danej frazy kluczowej.

    SEO niszowe jest też dobrym sposobem na redukcję kosztów reklamy. Ustalenie specyfiki rynku zbytu i profilu klienta, do którego chcemy dotrzeć, skutecznie przesuwa stronę w górę na liście wyników organicznych, a więc bezpłatnych. Aby sprawdzić skuteczność działań SEO niszowego warto korzystać z narzędzi Google Analytics i Google Search Console.

  • Outbound Links (linki wychodzące)

    Outbound links, czyli Linki wychodzące, to rodzaj hiperłączy zamieszczonych w tekście, które przekierowują do innej domeny/ witryny. Linki wychodzące są przydatne zarówno dla użytkowników, którzy mogą przejść na adres innej domeny bezpośrednio z danej strony, a także dla robotów indeksujących.

    Linki wychodzące – znaczenie dla SEO

    Linki wychodzące mają mniejsze znaczenie dla pozycjonowania strony niż linki zwrotne (przekierowujące z innej strony na naszą), ale mogą być w tym celu przydatne. Wszystko zależy od rodzaju linków wychodzących dodanych na stronie. Niektóre z nich mogą oddawać moc stronie, do której przekierowują (Dofollow), a to wzmacnia jej pozycję w wyszukiwarce. Jeśli więc chcemy poprawić pozycjonowanie strony w wynikach organicznych, jednym z działań SEO może być dodanie linków wychodzących Dofollow na innej stronie/ stronach.

    Linki wychodzące – korzyści dla użytkowników

    Linki wychodzące są praktycznym rozwiązaniem, które doceniają użytkownicy internetu. Dzięki zamieszczeniu tego rodzaju linków w tekście możliwe jest przekierowanie np. do sklepu, gdzie można kupić dany produkt albo na stronę firmy/ producenta. Użytkownik nie musi wpisywać dodatkowych zapytań w wyszukiwarkę, co znacznie poprawia komfort i skraca czas potrzebny na wyszukiwanie informacji.

    Ważną zasadą jest to, by Linki wychodzące były wysokiej jakości, to jest prowadziły do zaufanych, autoryzowanych witryn, powiązanych tematycznie z treścią artykułu. Jest to istotne ze względu na doświadczenie użytkownika, a także brane pod uwagę przez algorytmy wyszukiwarki podczas indeksowania strony.

  • Page Authority (Autorytet strony)

    Autorytet strony to określenie służące jako wskaźnik jej wartości w określonej dziedzinie lub dla danego typu zapytań wpisywanych w okno wyszukiwarki. Autorytet strony jest zależny od wielu czynników i jest postrzegany jako jeden z elementów mających wpływ na pozycjonowanie strony w wynikach organicznych przez algorytmy indeksujące.

    Od czego zależy Autorytet strony

    Autorytet strony zależy między innymi od:

    • wieku domeny – witryny funkcjonujące ponad 3 lata postrzegane są jako posiadające autorytet,
    • wartości publikowanych treści (tekstów wysokiej jakości)
    • autorytetu autorów tekstów (chodzi głównie o ich rozpoznawalność jako ekspertów)
    • konkurencyjności strony w danej dziedzinie.

    Ocena autorytetu strony przebiega inaczej w zależności czy dokonują jej realni użytkownicy, czy roboty sieciowe. Użytkownicy biorą pod uwagę głównie merytoryczną poprawność i przydatność treści, opinie innych użytkowników oraz prestiż autorów tekstów zamieszczanych na stronie (cenione są wypowiedzi ekspertów). Algorytmy sieciowe przy ocenie autorytetu strony kierują się jej wiekiem, przydatnością treści w kontekście danego zapytania, ruchem na stronie, wskaźnikiem odrzuceń, opiniami użytkowników i wieloma innymi czynnikami, z których część pozostaje tajemnicą znaną jedynie programistom i/ lub programom indeksującym.

    Autorytet strony a jej pozycjonowanie

    Strony oceniane przez algorytmy wyszukiwarki jako posiadające wyższy autorytet nie są automatycznie pozycjonowane najwyżej, ale autorytet strony jest ważnym elementem pozycjonowania. Podobnie jest z wartości linków przychodzących – jeśli pochodzą z witryny o wysokim autorytecie, linkowanie pozytywnie wpłynie na pozycjonowanie naszej strony. Na zwiększenie autorytetu strony składają się działania SEO związane z wyborem odpowiednich słów kluczowych, poprawie struktury linkowania i publikowaniem kompetentnych, wartościowych treści. Taktyki te same w sobie mają wpływ na lepsze pozycjonowanie strony, więc można powiedzieć, że dążenie do poprawy autorytetu strony jest dobrą strategią uzyskania lepszych wyników organicznych.

  • Rich Snippets (wyniki rozszerzone, rozszerzony opis strony)

    Rich snippets, czyli wyniki rozszerzone, to elementy opisu strony zawierające dodatkowe informacje, które pozwalają na lepsze pozycjonowanie strony w wynikach organicznych wyszukiwarki. Wyniki rozszerzone są przydatne dla użytkownika i zwiększają zainteresowanie stroną oraz generują pozytywne doświadczenia związane z jej odwiedzeniem.

    Jak wyglądają Rich Snippets w praktyce

    Rich Snippets są bardziej szczegółowe niż zwykłe opisy i mogą podawać informacje takie jak godziny otwarcia, adres firmy/ sklepu, telefon i opinie innych użytkowników. Wśród standardowych elementów  Rich Snippets znajdują się też informacje odnośnie średniej oceny produktu/ usługi oraz zdjęcia, cena i aktualna dostępność produktu. Mile widziane są breadcrumbs ułatwiające poruszanie się na stronie (jej nawigację). Wyniki rozszerzone to także mapy, obrazki, atrakcyjne formy reklamy oraz filmiki zachęcające do aktywności na stronie i dłuższego pozostania w jej obrębie. W przypadku tekstów merytorycznych w Rich Snippets podaje się autora tekstu i datę publikacji. O tym jakie wyniki rozszerzone zostaną wyświetlone w wyszukiwarce decydują jej algorytmy.

    Wyniki rozszerzone a SEO

    Wyniki rozszerzone mają na celu zwiększyć atrakcyjność strony z punktu widzenia użytkownika. Pomagają budować pozytywny wizerunek firmy/ marki/ produktu i zachęcają do zakupu, skorzystania z usługi lub zapisania się do newslettera. Rich snippets to także dobry sposób, by doprecyzować ofertę i wyróżnić ją na tle konkurencyjnych stron. Generują większy ruch na stronie, dzięki czemu jest ona wyżej pozycjonowana w wynikach wyszukiwarki. Wyniki rozszerzone pozwalają także zbudować pozytywną relację z klientem, który postrzega stronę jako ciekawszą i bardziej przydatną ze względu na jego preferencje i to, czego akurat szuka.

    Wyniki rozszerzone a opinie klientów i informacje o dostępności produktu

    Oceny i opinie klientów to bardzo ważny element strategii wizerunkowej firmy/ marki. Informacja o średniej ocen podana w wynikach rozszerzonych pozwala użytkownikom wyciągnąć wstępne wnioski na temat jakości produktu/ usługi i skłonić ich do skorzystania z oferty. Podobnie działają informacje o dostępności produktu. Jeśli jest on chwilowo niedostępny, warto o tym uczciwie poinformować, tak by potencjalny klient nie poczuł się rozczarowany przystępując do zakupów. Można też dać przekierowanie do innego, podobnego produktu.

  • Robots Meta Tag

    Robots Meta Tag, to meta znaczniki przeznaczone dla robotów wyszukiwarki. Stosujac Robots Meta Tag można przekazać robotom crawlingującym i algorytmom indeksującym określone informacje na temat strony, co ułatwia im pracę i zapobiega problemom z indeksowaniem.

    Robots Meta Tag – do czego służą

    Meta tagi nadpisane są w kodzie strony w HTLM. Nie są widoczne dla użytkowników, a jedynie dla robotów sieciowych. Zawierają instrukcje dla robotów odnośnie tego, jak powinny one traktować daną stronę. Za pomocą tych znaczników można zablokować dostęp do strony, ograniczyć go lub zezwolić na pełne indeksowanie. Meta tagi chronią treści, które nie powinny być udostępniane w wyszukiwarce (na przykład zdjęcia) i jednocześnie są użyteczne ze względu na SEO – dają algorytmom instrukcje, które mogą mieć wpływ na pozycjonowanie strony. W odróżnieniu od robots.txt,robots meta tag dotyczą jednej, konkretnej strony (podstrony), nie całej witryny. Można dzięki nim oznaczyć na przykład jeden konkretny tekst.

    Robots Meta Tag a SEO

    Robots Meta Tag to narzędzie przydatne w działaniach mających na celu optymalizację strony, czyli SEO. Dzięki meta tagom robots można oznaczyć konkretne treści i inne elementy strony (na przykład linki, zdjęcia), które mają pozostać niewidoczne dla programów indeksujących. Takie ograniczenie dostępu sprawdzi się w sytuacji, jeśli z jakiegoś powodu te elementy mogłyby wpłynąć na niższe pozycjonowanie strony – na przykład dany wpis jest dopiero wersją roboczą i może zawierać linki niskiej jakości. Programy indeksujące nie biorą go pod uwagę widząc instrukcję Robots meta tag, a zatem nie będzie on miał negatywnego wpływu na kolejność wyświetlania się strony na liście wyników organicznych. Zatem: dzięki meta tagom robots można chronić prywatne treści, można też zadbać o pozycjonowanie strony.

    Robots Meta Tag w praktyce

    Meta tagi dla robotów sieciowych mogą mieć dowolną treść. Najczęściej stosuje się instrukcje:

    • index (strona przeznaczona do indeksowania)
    • noindex (blokowanie indeksowania)
    • follow (zezwolenie na indeksowanie linków)
    • nofollow (blokowanie linków)
    • noarchive (zakaz przechowywania kopii poprzedniej wersji strony w pamięci podręcznej)
    • no snippet (blokowanie widoczności snippetów)
    • all (zezwolenie na indeksowanie strony i linków)
  • Schema Markup (Znacznik schematu)

    Schema Markup czyli Znacznik schematu to metadane służące do wygenerowania rozszerzonego opisu strony nad kodem HTLM. Opis ten jest widoczny jedynie dla algorytmów indeksujących wyszukiwarki i ułatwia sklasyfikowanie treści strony w kontekście wpisywanych w wyszukiwarkę zapytań.

    Znacznik schematu – dodatkowe dane dla wyszukiwarek

    Znaczniki schematu to dane strukturalne współpracujące z HTLM, które pozwalają ujednoznacznić treści zamieszczone na stronie. Na przykład, jeśli w tekstach zamieszczonych na stronie i w tagu pojawia się słowo kluczowe Saturn, nadpisanie znacznika schematu nad kodem HTLM pomoże wyszukiwarce rozstrzygnąć, czy chodzi o nazwę planety, czy o nazwę własną firmy/ sklepu.

    W internecie dostępne są narzędzia, za pomocą których możliwe jest dodawanie znaczników schematu do witryny. Po wpisaniu danych do formularza na stronie (np. schema.org) otrzymamy sformatowane znaczniki schematu odpowiednie dla danej witryny. Obecnie wykorzystywane przez wyszukiwarki są również znaczniki wyszukiwania głosowego.

    Znacznik schematu a SEO

    Znaczniki schematu mają wpływ na pozycjonowanie strony, ich dodawanie i optymalizacja jest zatem jednym z elementów działań SEO. Algorytmy sieciowe mogą dzięki znacznikom schematu szybciej i efektywniej zaindeksować stronę. To przydatne dane strukturalne, za pomocą których można poprawić widoczność i pozycjonowanie strony. Znaczniki schematu produktu mogą też pobierać jego obraz i inne informację i wyświetlać je w wynikach organicznych. Mogą również wyświetlać treść z witryny odpowiadającą na wpisane w wyszukiwarce pytanie jeszcze zanim użytkownik otworzy stronę. Są zatem użyteczne z punktu widzenia SEO, zarówno ze względu na algorytmy wyszukiwarki, jak i odbiór strony przez użytkowników.

    Znaczniki schematu – formaty i rodzaje

    Stosuje się trzy typy formatów znaczników schematu: JSON-LD, Microdata i RDFa. Są one kompatybilne z większością wyszukiwarek, przy czym Google preferuje JSON-LD.

    Najczęściej używa się znaczników schematu produktu, artykułów i recenzji. Dzięki tym metadanym algorytmy sieciowe otrzymują uproszczony schemat potrzebny do indeksowania strony.

  • SEO Audit (Audyt SEO)

    Audyt SEO to kompleksowa i wnikliwa analiza strony/ witryny internetowej pod kątem jej dostosowania do wymogów algorytmów wyszukiwarki. Audyt SEO ma na celu wykrycie słabych punktów i problemów, które mogą mieć negatywny wpływ na pozycjonowanie strony w wyszukiwarce.

    Jak przeprowadza się Audyt SEO?

    Audyt SEO polega na przeprowadzeniu szeregu czynności mających za zadanie ocenę stopnia zoptymalizowana strony/ witryny, czyli wcześniejszych działań SEO. Sprawdzane są:

    • wskaźniki klikalności,
    • współczynnik odrzuceń,
    • pozycjonowanie strony w wyszukiwarce/ miejsce na liście wyników organicznych,
    • użycie słów kluczowych/ nasycenie słowami kluczowymi,
    • kwestie techniczne związane ze stroną, w tym szybkość ładowania,
    • użyte linki zwrotne/ struktura linkowania
    • widoczność strony,
    • ruch na stronie,
    • dostosowanie do urządzeń mobilnych.

    Do przeprowadzanie Audytu SEO przydatne są narzędzia, które pozwalają monitorować liczbę i jakość linków zwrotnych, nasycenie tekstu słowami kluczowymi oraz kwestie związane z ruchem na stronie. Wiele z nich można znaleźć w Google Search Console (dawniej Google Webmaster Tools), ale dostępne są także bardziej specjalistyczne programy służące do Audytu SEO.

    Kiedy przeprowadza się Audyt SEO

    Audyt SEO można przeprowadzić w dowolnym czasie kampanii mającej na celu optymalizację strony. Agencja SEO zwykle przeprowadza taki audyt na samym początku współpracy, a następnie proponuje i wdraża strategię mającą na celu poprawę widoczności i pozycjonowania strony/ witryny. Audyt SEO można także przeprowadzić w trakcie optymalizacji, żeby sprawdzić czy działania SEO przynoszą pożądane efekty..

  • SEO-Friendly URLs (Adres URL zgodny z SEO, Adres URL zgodny z SEO i przyjazny dla użytkownika)

    Adres URL zgodny z SEO to adres strony, która jest zoptymalizowana zgodnie z zasadami SEO, czyli zawiera odpowiednie słowa kluczowe, posiada właściwą strukturę linków oraz jest użyteczna i atrakcyjna dla użytkownika. SEO-Friendly URL (adres URL zgodny z zasadami SEO) powinien być również User Friendly (przyjazny dla użytkownika).

    Adres URL zgodny z SEO i przyjazny dla użytkownika

    Strategie SEO obejmują różne działania, zależnie od aktualnych potrzeb i problemów dotyczących strony. Optymalizacja zwykle polega na dodaniu odpowiednich słów kluczowych we właściwej ilości, rozbudowaniu i zoptymalizowaniu struktury linków oraz dostosowaniu strony do korzystania z niej na urządzeniach mobilnych. Czasami trzeba poprawić również kwestie mające wpływ na szybkość ładowania strony. Adres URL zgodny z SEO powinien zawierać odpowiedni tytuł i nagłówki, słowa kluczowe i posiadać czytelny układ ułatwiający nawigację strony. Warto usunąć wszystkie niepotrzebne informacje i podstrony, uporządkować zamieszczone treści i zadbać o to, by były one zrozumiałe i przydatne dla użytkownika. Zaleca się też usunąć numerację stron oraz daty poszczególnych postów.

    Adres URL zgodny z SEO a pozycjonowanie strony

    Adres URL zgodny z SEO ma spory wpływ na pozycjonowanie strony w wynikach organicznych wyszukiwarki. Dodanie wartościowych słów kluczowych i fraz z długim ogonem oraz usunięcie lub połączenie tych stron, na których słowa kluczowe się kanibalizują, może znacząco podnieść pozycję strony w rankingach. Precyzyjne określenie tematyki strony za pomocą tytułu i meta danych jest zaś pomocne dla programów indeksujących wyszukiwarki, które mogą dzięki temu łatwiej i z lepszym wynikiem dla pozycjonowania strony sklasyfikować jej treść.

  • SERM (Search Engine Reputation Management)

    SERM (Search Engine Reputation Management) czyli SEO wizerunkowe/ pozycjonowanie wizerunkowe SEO to zestaw działań mających na celu poprawę wizerunku firmy/ bloga/ sklepu i lepsze pozycjonowania strony w wyszukiwarkach. SERM określane jest również jako zarządzanie wizerunkiem marki/ strony/ firmy z uwagi na wyniki organiczne wyszukiwarki.

    SERM – promocja wizerunku w wyszukiwarce

    SERM obejmuje działania SEO i PR-owe, których zadaniem jest zbudowanie rozpoznawalnego i budzącego pozytywne skojarzenia wizerunku marki/ firmy oraz zwiększenie zasięgów w sieci poprzez lepsze pozycjonowanie stron z pozytywnymi odniesieniami do oferowanego produktu/ usługi. Dwa kluczowe elementy SERM to optymalizacja strony z uwagi na lepsze wyniki w wyszukiwarce oraz wyeksponowanie w przeglądarce pozytywnych recenzji wzmacniających reputację firmy. Pozycjonowanie wizerunkowe promuje strony, na których nazwa firmy/ marki pojawia się w pozytywnym kontekście, a obniża miejsce w wynikach organicznych tych stron, na których znaleźć można negatywne recenzje. W większości przypadków użytkownicy klikają w pierwsze 5-10 linków, które wyświetliły się w wynikach wyszukiwania. Jeśli uda się skutecznie obniżyć pozycję stron negatywnie opiniujących markę/ firmę, w zasadzie pozostają one bez wpływu na jej wizerunek.

    SERM a SEO

    Działania SERM nie mają charakteru czysto SEO, czyli optymalizacji strony pod kątem słów kluczowych czy budowania struktury linków. Mogą być jednak traktowane jako jeden z elementów optymalizacji pod względem wyszukiwania. Są też elementem marketingu. Wyeksponowanie na pierwszych miejscach w wynikach organicznych stron, na których pojawiają się pozytywne opinie o marce/ firmie jest dobrą strategią, by zdobyć zaufanie klientów i zwiększyć wyniki ruchu na stronie oraz sprzedaży. Oczywiście, strategia SERM powinna być popierana przez realną jakość produktu – w przeciwnym razie zadziała jedynie na krótką metę.

  • SERP Features (Funkcje SERP)

    SERP Feature, czyli Funkcje SERP (Search Engine Results Page) to wszystkie informacje, jakie widoczne są w wynikach wyszukiwania. Poza typowymi wynikami organicznymi i reklam obejmują również m.in. wyróżnione fragmenty tekstu odpowiadające na zapytanie użytkownika (featured snippets) wraz z linkiem do strony, zdjęcia i wizytówki firmy w Google My Business/ Google Business Profile.

    Funkcje SERP – dodatkowe wyniki wyszukiwania

    Standardowe sugestie wyświetlane po wpisaniu danej frazy w okno wyszukiwarki to wyniki organiczne i płatne, czyli strony, których treść najlepiej odpowiada zdaniem algorytmów wyszukiwarki na zapytanie użytkownika. Oprócz nich wyświetlane są również elementy dodatkowe takie jak szybkie odpowiedzi i Rich snippets, czyli wszelkie informacje ułatwiające użytkownikowi wybór odpowiedniej strony. Taki sposób wyświetlania jest bardzo wygodny i przydatny, ponieważ można zapoznać się z profilem strony jeszcze zanim ją otworzymy. Ułatwia to wybór i oszczędza czas.

    W Funkcjach SERP mogą wyświetlać się również zdjęcia, tłumacz Google, przeliczniki jednostek i walut (tłumacz Google i przeliczniki oraz konwertery należą do tzw. Direct Answers, czyli szybkich odpowiedzi), filmy, mapy Google, wiadomości i grafy wiedzy Google.

    Funkcje SERP a SEO

    Funkcje SERP są bardzo użyteczne z punktu widzenia SEO, czyli optymalizacji strony pod kątem jej pozycjonowania w wyszukiwarce. Za ich pomocą można dowiedzieć się wiele o intencji użytkowników wyszukujących daną frazę, co pozwoli odpowiednio dostosować treści publikowane na stronie i wybrać wartościowe słowa kluczowe. Optymalizacja strony obejmuje również umieszczenie dodatkowych znaczników i elementów, które będą zaliczane do Funkcji SERP. Im więcej wartościowych, dostosowanych do intencji użytkowników i atrakcyjnych elementów na stronie, które wyświetlają się w wynikach wyszukiwania, tym lepiej pod względem pozycjonowania prezentują się jej SERP Features.

  • Sitemap (mapa strony)

    Sitemap czyli mapa strony, to protokół (plik XML) wykorzystywany do utworzenia mapy witryny, czyli mapy uporządkowanych informacji na temat wszystkich stron, które wchodzą w jej skład.

    Co zawiera mapa strony

    W mapie strony umieszczone są szczegółowe informacje dotyczące stron składających się na witrynę. Mapa strony zawiera znaczniki, które określają:

    • adres URL każdej podstrony, czyli jej lokalizację (znacznik loc),
    • datę jej ostatniej aktualizacji i to jak często jest aktualizowania (changefreq),
    • informacje o linkach,
    • informację o modyfikacjach strony (lastmod)
    • informację o jej statusie pod względem ważności dla wyszukiwarek (znacznik priority – warto jednak wiedzieć, że wyszukiwarka Google nie bierze tego znacznika pod uwagę).

    Lista wszystkich map na stronie zamieszczana jest w indeksie sitemap (sitemapindex). Indeks sitemap jest szczególnie przydatny w przypadku dużych witryn – ułatwia nawigację i zachowanie porządku.

    Mapa strony a pozycjonowanie w wyszukiwarce

    Mapa strony jest przydatna ze względu na indeksowanie przez algorytmy sieciowe. Dobrze skonstruowana mapa strony pomaga sprawnie ją sklasyfikować i zaindeksować i jest jednym z czynników optymalizacji strony (SEO) ze względu na wymagania algorytmów. Korzystne jest również utworzenie indeksu map stron – wyszukiwarki otrzymują za jego sprawą uporządkowaną informację jakie strony w witrynie wymagają indeksacji.

    Mapy stron – rodzaje i generowanie

    Sitemap może dotyczyć standardowej witryny z plikami tekstowymi, a także witryn z plikami graficznymi, filmami oraz stron Wiadomości Google.

    Mapy strony można tworzyć ręcznie lub wygenerować je w systemie CMS. Ta druga metoda wymaga użycia odpowiednich wtyczek (np. Yoast SEO lub All in One SEO Tool) i/ lub programów. Można też skorzystać z darmowych generatorów map stron.

  • Time on Page (Czas spędzony na stronie)

    Czas spędzony na stronie to parametr określający ilość czasu, jaką użytkownik przeznaczył na korzystanie z/ czytanie pojedynczej strony. Jest ważnym wskaźnikiem ze względu na monitorowanie ruchu na stronie i działania SEO.

    Czas spędzony na stronie – jak jest mierzony przez Google

    Czas spędzony na stronie liczony jest od momentu kliknięcia w jej adres (otworzenia strony) do przejścia do kolejnej podstrony w obrębie tej samej witryny. Jest to zatem wskaźnik czasu, przez jaki użytkownik pozostaje na jednej (pod)stronie. Jeśli użytkownik otworzy stronę i od razu z niej wyjdzie, Czas spędzony na stronie w ogóle nie jest mierzony. Jeśli natomiast użytkownik otwiera wiele podstron w obrębie tej samej witryny, Czas spędzony na stronie nie jest liczony dla ostatniej z nich.

    Czas spędzony na stronie – na co wskazuje jego długość

    Czas spędzony na stronie to wskaźnik informujący zarówno o możliwych problemach, jak i o zainteresowaniu stroną. Nie zawsze im dłuższy czas spędzony na stronie, tym lepiej. Zbyt długi czas spędzony na pojedynczej stronie może świadczyć o tym, że wolno się ona ładuje lub że użytkownik ma problem ze znalezieniem na niej potrzebnych informacji. Krótki czas spędzony na stronie zwykle świadczy o tym, że użytkownik uznał jej treść za nieprzydatną lub nieinteresującą, ale nie zawsze zachodzi taka właśnie korelacja. Wiele zależy od charakteru strony – jeśli użytkownik szukał na niej linku do interesującej go podstrony i szybko go znalazł, Czas spędzony na stronie będzie krótki, ale strona okazała się przydatna.

    Czas spędzony na stronie – pozycjonowanie i SEO

    Czas spędzony na stronie może być brany pod uwagę przez algorytmy wyszukiwarki, ale nie jest to najważniejszy parametr, głównie z uwagi na to, że należy traktować go relatywnie (np. do charakteru podstrony). Wskaźnik ten, dostępny w raportach Google Analytics jest jednak istotny ze względu na działania SEO i często wykorzystywany do wykrywania problemów oraz generowania większego ruchu na stronie. Jeśli pojawią się problemy w postaci zbyt krótkiego/ zbyt długiego  Czasu na stronie, warto poprawić strukturę linkowania wewnętrznego i przyjrzeć się treściom zamieszczonym na stronie pod kątem ich wyglądu, jasności i przydatności dla użytkownika. Zaleca się również dostosowanie strony do urządzeń mobilnych.

  • User Intent (Intencja użytkownika, Intencja wyszukiwania)

    Intencja użytkownika to rozpoznanie przez algorytmy wyszukiwarki zamiaru wyszukiwania, czyli intencji, jaką kierował się użytkownik wpisując daną frazę/ zapytanie. Intencja/ zamiar wyszukiwania jest bardzo ważnym parametrem z uwagi na optymalizację wyświetlanych wyników i dostosowanie ich do konkretnego użytkownika. Wyszukiwarki analizują i porównują w tym celu zachowania internautów i na tej podstawie optymalizują współczynnik konwersji.

    Intencje użytkownika – ważne narzędzie optymalizacji

    Algorytmy Google, zwłaszcza algorytmy RankBrain i Koliber, biorą pod uwagę realne intencje użytkowników i dostosowują wyświetlane wyniki do ich wcześniejszych zachowań w sieci. Z tego względu nowoczesne rozwiązania SEO muszą dostosować swoje strategie do rzeczywistych zachowań i naturalnego języka, jakim posługują się użytkownicy internetowych wyszukiwarek. Optymalizacja ze względu na intencje użytkownika jest jednym z działań SEO, które może poprawić pozycjonowanie strony. Optymalizacja taka polega m. in. na merytorycznym ulepszeniu i rozbudowie treści zamieszczonych na stronie, które będą stanowić konkurencyjną względem podobnych stron odpowiedź na wpisywane przez internautów zapytanie. Im lepiej dostosowana jest strona pod kątem algorytmów Google korzystających ze sztucznej inteligencji (RankBrain), tym większa szansa, że wyświetli się wyżej na liście wyników w SERP.

    Typy intencji użytkownika

    Algorytmy rozpoznające intencje użytkownika starają się tak dostosować wyniki wyszukiwania, by te trafne wyświetlały się już po wpisaniu fragmentu frazy, a nawet słowa kluczowego. Do najczęstszych typów rozpoznawanych intencji użytkownika należą:

    • intencja nawigacji – na przykład strona logowania
    • intencja uzyskania informacji – o osobie/ miejscu/ produkcie/ sposobie wykonywania czegoś (np. szydełkowania)
    • intencja dokonania zakupu
    • intencja porównania produktów (najlepsze kosmetyki, topowe marki)
    • intencja wyszukania usług w pobliżu (wyszukiwanie lokalne) – np. lody dla psów Mokotów, najbliższy dentysta.

    Zwykle po wpisaniu zapytania Google wyświetla funkcje SERP, tak by użytkownik mógł wybrać najbardziej interesującą go stronę bez konieczności otwierania i sprawdzania pozostałych.

  • White Hat SEO (białe SEO, techniki Białego Kapelusza)

    White Hat SEO, czyli techniki Białego Kapelusza, to działania SEO zgodne z normami uznawanymi za uczciwe i etyczne z punktu widzenia użytkownika i algorytmów sieciowych. Do White Hat SEO należą strategie mające na celu poprawę pozycjonowania strony w wynikach organicznych, ale w najmniejszym stopniu nie wprowadzające użytkownika i algorytmów w błąd ani nie nadużywające narzędzi dostępnych dla specjalistów SEO.

    White Hat SEO – cele

    Podstawowe cele White Hat SEO to poprawienie widoczności strony oraz jej optymalizacja pod kątem wyszukiwarki, tak by wyświetlała się jak najwyżej na liście wyników organicznych. W odróżnieniu od Black Hat SEO i od Gray Hat SEO, White Hat SEO stosuje jedynie takie praktyki i działania, którym nie można nic zarzucić. Strategia White Hat SEO stroni od wszelkiej manipulacji tagami, upychaniu w tekście nadmiaru słów kluczowych, nieuczciwego linkowania i innych podejrzanych praktyk. Przy stosowaniu WH SEO budowanie pozycji strony w wyszukiwarce może zająć nieco więcej czasu, ale za to w przeciwieństwie do wyników organicznych opartych na Black Hat SEO pozycja ta będzie mocna na dłuższą metę. Oczywiście, każda strona wymaga po jakimś czasie aktualizacji pod względem SEO, jednak strategie White Hat są znacznie bardziej bezpieczne i długoterminowo skuteczne.

    White Hat SEO w praktyce

    Strategia White Hat SEO skupia się na zoptymalizowaniu treści dostępnych na stronie, tak by były jak najbardziej pomocne dla użytkowników. Liczą się oryginalność i merytoryczna trafność. Słowa kluczowe pojawiają się w tekście w stosownej ilości i w naturalny sposób, podobnie jak linki zwrotne. White Hat SEO obejmuje również dostosowanie strony do urządzeń mobilnych oraz wprowadzenie meta opisów, danych strukturalnych i meta tagów, które ułatwią analizę na poziomie algorytmów indeksujących. Ważny jest również układ strony, jej uporządkowanie i intuicyjna nawigacja. White Hat SEO dba zarówno o atrakcyjność treści prezentowanych na stronie, jak i o jej atrakcyjność wizualną. Dobrze widziane są infografiki, prezentacje i filmy. Duże znaczenie dla pozycjonowania ma szybkość ładowania się strony – jej usprawnienie także należy do działań White Hat SEO, podobnie jak zadbanie o bezpieczeństwo strony, na przykład zabezpieczeniu jej certyfikatem SSL.