- SEO (Search Engine Optimization)
SEO, czyli akronim (skrót) od pierwszych liter angielskiego wyrażenia Search Engine Optimization, inaczej pozycjonowanie lub optymalizacja strony, to działania mające na celu optymalizację strony pod kątem wyszukiwarek. SEO ma za zadanie poprawić stronę tak, by wyświetlała się wyżej w wynikach organicznych, optymalnie jako pierwsza, po wpisaniu w wyszukiwarce danego zapytania/ frazy.
SEO – zasady pozycjonowania
SEO obejmuje działania poprawiające wygląd strony i dostosowujące ją do wymagań wyszukiwarek działających według określonych algorytmów. Wyszukiwarki internetowe, w tym Google, funkcjonują w oparciu o zasady takie jak crawling i indeksowanie. Crawling to proces wstępnej analizy treści i układu stron internetowych przez boty. Indeksowanie polega na automatycznym analizowaniu, katalogowaniu i zapisywaniu wszystkich treści zamieszczonych na stronie. Dopiero po zaindeksowaniu strony będzie się ona wyświetlać w wynikach wyszukiwania. Jej pozycja będzie tym wyższa, im więcej czynników określanych jako SEO zostanie uwzględnionych.
Jak SEO wygląda w praktyce?
Czynniki mające wpływ na pozycjonowanie strony to:
- treści publikowane na stronie (on site): ich ilość i jakość, ze szczególnym uwzględnieniem słów kluczowych (keywords),
- kwestie techniczne związane ze stroną (szybkość ładowania, dostosowanie do urządzeń mobilnych),
- treści publikowane off site (poza stroną),
- profil linków zwrotnych,
- struktura linkowania wewnętrznego,
- popularność marki,
- czynniki związane z domeną witryny, w tym jej wiek.
SEO obejmuje szereg działań. Wśród nich wyróżnić można te, których celem jest lepsze dostosowanie witryny do algorytmów wyszukiwarki oraz działania optymalizujące czynniki techniczne związane z witryną. Skuteczne działania SEO mogą znacznie poprawić widoczność i rankingi strony, zwiększyć liczbę wyświetleń, zapisów do newslettera oraz zakupów dokonywanych na stronie. Kwestii, które należy wziąć pod uwagę w działaniach SEO jest wiele i zmieniają się one wraz ze zmianą algorytmów wyszukiwarek. Z tego względu konieczna jest raz na jakiś czas aktualizacja strony pod kątem SEO. Należy przy tym pamiętać, że pozycjonowanie strony zależy od wielu czynników i zmienia się w zależności od kraju i preferencji użytkowników. Z tego względu kluczowa jest optymalizacja zgodnie z obowiązującymi w danym miejscu i czasie (zmiennymi) parametrami.
- SERP (Search Engine Results Page)
SERP (Search Engine Results Page) to strona internetowa, na której znajdują się adresy wyświetlane w wyszukiwarce po wpisaniu danej frazy lub zapytania. Obejmuje ona zarówno adresy znalezione automatycznie przez algorytmy wyszukiwarki (wyniki organiczne) jak i adresy wprowadzone ręcznie oraz adresy opłacone (reklamy, wyniki płatne). W SERP mogą także wyświetlać się obrazy, filmy, wyróżnione fragmenty tekstów odpowiadające na wpisane w wyszukiwarce zapytanie (Google Featured Snippets) i mapy – w zależności od tego, co algorytm uzna za najbardziej odpowiednie w danym kontekście.
Od czego zależy pozycjonowanie strony w SERP
Kolejność adresów na liście SERP nie jest przypadkowa. Zwykle na pierwszych miejscach i na końcu listy wyświetlają się wyniki płatne. Pozycjonowanie wyników organicznych (bezpłatnych) zależy od wielu czynników, w tym od użytych słów kluczowych, linkowania wewnętrznego i zewnętrznego oraz od układu i przejrzystości strony. Kolejność stron w kategorii wyniki organiczne jest bardzo ważna ze względu na rankingi i rozpoznawalność firmy, a także w celu analizy działań konkurencji i zwiększenia wyników sprzedaży. Działania SEO (Search Engine Optimization) mają na celu optymalizację strony tak, by po wpisaniu danej frazy/ zapytania wyświetlała się ona w wyszukiwarce jako jedna z pierwszych w wynikach organicznych. Programy do analizy SERP dostarczają istotnych danych, na których podstawie podejmowane są działania SEO.
SERP – wyniki organiczne i płatne
Wyniki organiczne są uważane przez internautów za bardziej wiarygodne, dlatego wiele firm stawia na optymalizację treści witryn tak, by osiągnąć jak najlepsze wyniki bezpłatne w wyszukiwarce. W przypadku wyników płatnych (reklam) bardzo często stosowany jest model CPC (koszt za kliknięcie) – ogłoszeniodawca płaci wówczas, gdy użytkownik otworzy okienko z reklamą. Optymalizacja strony (SEO) często stosowana jest w celu obniżenia kosztów reklamy – jeśli link do witryny wyświetla się wysoko na liście wyników organicznych SERP, nie jest konieczne wykupywanie wyników płatnych. Optymalizacja strony pod kątem wyników bezpłatnych obejmuje zarówno kwestie techniczne (szybkość ładowania strony), jak i optymalizację treści oraz struktury tekstu, w tym umieszczenie w tekście słów kluczowych, optymalizację meta danych i wprowadzenie linków zwrotnych.
- Wyniki organiczne (organic results, organic search)
Wyniki organiczne (inne nazwy to wyniki naturalne lub wyniki bezpłatne) to adresy URL wyświetlane po wpisaniu danej frazy w wyszukiwarce. Wyniki organiczne są generowane przez algorytm wyszukiwarki na podstawie czynników analizowanych przez algorytmy (roboty) sieciowe w określonej kolejności. Pozycjonowanie strony (kolejność wyświetlania na liście wyników organicznych) zależy głównie od oceny jej jakości i tego, czy zamieszczone na niej treści pasują do zapytania wpisanego w wyszukiwarkę.
Czym charakteryzują się wyniki organiczne
Wyniki organiczne są określane jako bezpłatne, ponieważ nie można ich kupić – nie da się zmienić pozycjonowania strony inaczej niż poprzez jej optymalizację. W odróżnieniu od wyników płatnych, wyniki organiczne są postrzegane jako miarodajne źródło informacji na temat jakości i adekwatności witryny. Wyniki organiczne mają przełożenie na rankingi strony i częstotliwość jej odwiedzania, a co za tym idzie – na możliwość dotarcia do klienta i wyniki sprzedaży.
Od czego zależą wyniki organiczne
Wyniki naturalne zależą od jakości strony, zarówno pod względem zamieszczanych treści, jak i kwestii technicznych takich jak szybkości ładowania i kompatybilność z urządzeniami mobilnymi. Kluczowe dla wyników organicznych są działania SEO, czyli optymalizowanie strony pod kątem jej analizy przez algorytmy wyszukiwarki. Im więcej czynników mających wpływ na lepszą jakość strony (słowa kluczowe, linkowanie, odpowiedni układ nagłówków etc.), tym większe prawdopodobieństwo wysokiego pozycjonowania strony w wyszukiwaniach. Na wyniki organiczne mają również wpływ metadane zamieszczone na stronie – meta title czy dyrektywy przeznaczone dla robotów sieciowych, których zadaniem jest indeksowanie witryny. Ważny jest wiek witryny oraz to, czy posiada certyfikat SSL. Kluczową kwestią jest jednak treść strony. Algorytmy generujące wyniki organiczne biorą pod uwagę jej przydatność dla użytkownika i oryginalność.
Wyniki organiczne a SEO
Działania SEO mają duży wpływ na poprawę wyników organicznych. Chodzi głównie o wprowadzenie słów kluczowych oraz optymalizację treści i metadanych, tak by strona była lepiej widoczna i wyżej oceniana przez roboty indeksujące. Ważna jest również optymalizacja techniczna, poprawiająca m. in. szybkość ładowania/ wczytywania się witryny/ strony.
- Słowo kluczowe (Keyword)
Słowo kluczowe to pojedynczy wyraz lub fraza, zamieszczane w tekście oraz w meta danych w celu łatwiejszego dostępu do informacji zawartych na stronie. Słowa kluczowe mają wpływ na pozycjonowanie strony w wyszukiwarce, ponieważ stanowią informację dla robotów indeksujących, że w danej witrynie znajdują się treści odpowiadające na zapytania internautów.
Od czego zależy wybór słów kluczowych
To, jakie słowa kluczowe zostaną użyte w konkretnym tekście, zależy od jego tematyki i specyfiki strony. Zwykle są to frazy w mianowniku, odnoszące się do głównych informacji zawartych w tekście. Stanowią informacje dla algorytmów wyszukiwarki, że dany tekst porusza określony temat i może być przydatny dla użytkowników w kontekście wpisanego w wyszukiwarce zapytania. Bardzo ważne jest wpisanie odpowiednich słów kluczowych w meta danych strony, tak by były dobrze widoczne dla programów indeksujących. Ważna jest również ilość słów kluczowych w tekście – nie powinno ich być zbyt wiele, ponieważ algorytmy mogą uznać to za spamowanie i wykluczyć stronę z wyników wyszukiwania. Słowa kluczowe powinny być powiązane z treścią tekstu – używanie innych słów kluczowych, często wpisywanych w wyszukiwarce, może być odebrane jako wprowadzanie w błąd i w efekcie obniżyć wiarygodność strony.
Słowa kluczowe – przydatność dla pozycjonowania strony
Słowa kluczowe zamieszczane są w bazie danych wyszukiwarki. Po wpisaniu frazy (np. kosmetyki naturalne) wyświetlane są wyniki stron najlepiej pasujących zdaniem algorytmu do zapytania, czyli tych, które prezentują treści dotyczące kosmetyków z naturalnymi składnikami. To tak zwana lista SERP, czyli wyniki wyszukiwania pasujące do wpisanego w wyszukiwarce zapytania. Odpowiednio dobrane i rozmieszczone w tekście słowa kluczowe są jednym z ważniejszych czynników pozycjonowania witryny. Działania SEO obejmują w pierwszej kolejności wprowadzenie słów kluczowych, co pozwala zwiększyć widoczność witryny i ruch na stronie. Jeśli dana marka jest już rozpoznawalna, można stosować tak zwane brandowe słowa kluczowe, to znaczy nazwę marki lub firmy. Użytkownicy po wpisaniu jej w wyszukiwarce otrzymają listę wyników, na której szczycie będzie link do strony firmowej.
- ALT Text
Alt text czyli tekst alternatywny (inne nazwy to alt tag i atrybut alt), to słowny opis elementów graficznych zamieszczonych na stronie (zdjęć, obrazków). Jego zadaniem jest dostarczenie informacji na temat zamieszczonych plików graficznych, tak by były dostępne dla wyników wyszukiwania nawet jeśli obraz nie może być poprawnie wczytany. Alt text jest również przydatny dla osób niewidomych i niedowidzących oraz dla osób używających przeglądarek i czytników ekranowych, które nie są w stanie przetwarzać plików graficznych.
Tekst alternatywny – korzyści
Tekst alternatywny dla zdjęcia należy obecnie do standardowych praktyk przy tworzeniu strony, na której zamieszczone są pliki graficzne (zdjęcia, obrazki). Zwiększa przejrzystość strony i jej dostępność dla robotów indeksujących, co z kolei przekłada się na wyniki organiczne SERP i pozycjonowanie strony. Tekst alternatywny może być postrzegany jako jeden z elementów SEO, czyli optymalizacji strony – takie zadanie spełni użycie w opisie zdjęcia słów kluczowych. Programy indeksujące przeszukują sieć w poszukiwaniu stron najlepiej pasujących do zapytań wpisywanych w wyszukiwarkę. Odpowiednio zbudowany pod względem SEO Alt text zwiększa szansę na dobry wynik w rankingu stron i zwiększa klikalność.
Dobry alt text – zasady
Dobry tekst alternatywny powinien w zwięzły sposób opisywać to, co widoczne jest na zamieszczonej na stronie grafice. Optymalnie jeśli w opisie grafiki (tekście alternatywnym) znajdą się słowa kluczowe związane z treściami publikowanymi na stronie. W tekście alternatywnym należy podawać konkrety dotyczące treści grafiki, nie jest natomiast wskazane opisywanie kolorów i innych detali związanych z wyglądem zdjęcia. Bardzo ważne, by informacja zawarta w alt tekście była jasna i przydatna nie tylko dla robotów sieciowych, ale także dla użytkownika, który z jakiś powodów potrzebuje opisu obrazka słowami. Usłyszy on dokładnie taki opis zdjęcia, jaki zamieściliśmy w tekście alternatywnym.
- Backlink
Backlink (link przychodzący lub link zwrotny) to odnośnik zamieszczony w treści strony internetowej, który po kliknięciu przenosi do podstrony lub strony zewnętrznej. Umieszcza się je w tekście na zasadzie hiperłączy pod frazami w tekście (anchorami). Umieszczanie backlinków w treści tekstu na stronie to tak zwany linkbuilding.
Backlinki – dlaczego są przydatne
Linki zwrotne są jednym z ważniejszych czynników pozycjonowania strony, czyli działań związanych z SEO i marketingiem. Zwiększają widoczność strony w wyszukiwarce i poprawiają jej rankingi oraz rozpoznawalność. Najlepiej jeśli backlinki odsyłają do witryny danej firmy, ale mogą kierować również do innej zaufanej domeny. Linki zwrotne zwykle są zaznaczone w tekście kolorem niebieskim.
Rodzaje backlinków
Są dwa rodzaje linków zwrotnych:
- backlinki doffolow: odsyłają do innego tekstu/ treści na stronie, przy czym przekazują moc stronie linkującej – wzmacniają jej pozycjonowanie (SEO),
- backlinki nofollow: kierują do innej strony/ podstrony/ tekstu i nie przekazują mocy stronie linkującej.
Backlinki dofollow są obecnie najczęściej wykorzystywanym rodzajem linkowania.
Wyróżnia się również różne rodzaje backlinków ze względu na charakter anchorów, czyli treści, pod którą linki zwrotne są ukryte w tekście. Anchory brandowe to hiperłącza (linki) ukryte pod nazwą marki lub firmy, Exact Match to backlinki otwierające się po kliknięciu frazy kluczowej, backlinki mogą mieć też postać adresu URL bezpośrednio zamieszczonego w tekście.
Linkbuilding
Budowanie bazy linków zwrotnych to odpowiedzialne zadanie. Powinna być ona bogata i zróżnicowana, a jednocześnie tak zaplanowana, by docierać do grupy docelowej potencjalnych klientów. Backlinki można zamieszczać w artykułach sponsorowanych, artykułach gościnnych, ogłoszeniach, we wpisach na blogach i forach oraz w komentarzach, w social mediach, na zaprzyjaźnionych stronach i poprzez system wymiany linków. Umieszczanie zbyt wielu backlinków może być jednak sklasyfikowane przez algorytmy wyszukiwarki jako podejrzane działanie i w efekcie pozycjonowanie strony obniży się.
- Bounce rate (Współczynnik odrzuceń)
Bounce rate czyli współczynnik odrzuceń to ważny wskaźnik pokazujący, jaka jest realna liczba wyjść ze strony przed wykonaniem jakichkolwiek działań. Współczynnik odrzuceń pokazuje ilu potencjalnych klientów kliknęło na stronę, a następnie ją opuściło nie podejmując żadnych dodatkowych czynności.
Jak liczony jest współczynnik odrzuceń
Współczynnik odrzuceń liczony jest przez Google Analytics jako wartość procentowa. Statystyki pokazują jaki procent wizyt na stronie kończy się odrzuceniem, czyli wyjściem ze strony bez podjęcia działań, czyli dodatkowych żądań wysyłanych do serwera.
Od czego zależy bounce rate
Współczynnik odrzuceń może zależeć od różnych kwestii związanych ze stroną. Należy wziąć pod uwagę takie czynniki jak:
- szybkość ładowania strony,
- atrakcyjność strony,
- przydatność treści dla danego użytkownika,
- dostosowanie strony do urządzeń mobilnych (jeśli użytkownik z nich korzysta),
- typu strony.
Strony z danymi kontaktowymi wyświetlane są zwykle krócej niż na przykład strona sklepu, więc typ strony ma duże znaczenie. To, i inne czynniki mogące mieć wpływ na bounce rate sprawia, że współczynnik odrzuceń jest wartością relatywną, a interpretacja wyniku musi brać pod uwagę różne parametry.
Jak zmniejszyć współczynnik odrzuceń strony
W przypadku stron takich jak blog czy sklep internetowy, wysoki współczynnik odrzuceń może wskazywać na brak zainteresowania ofertą lub na problemy techniczne (wolne wczytywanie się strony). Użytkownicy mogą też opuszczać stronę ze względu na jej niedostosowanie do korzystania ze smartfona czy nieintuicyjną nawigację. Parametry te można odpowiednio zmienić i poprawić, co powinno mieć przełożenie na niższy współczynnik odrzuceń. Konieczne mogą być również działania SEO, które zoptymalizują treści dostępne na stronie pod kątem ich przydatności i atrakcyjności dla użytkowników.
- Canonical Tag (linki kanoniczne)
Canonical Tag czyli link/ adres kanoniczny, to jeden z tagów w nagłówku/ kodzie strony HTML, za pomocą którego oznacza się oryginalną wersję strony (jej oryginalny adres). Link kanoniczny umieszcza się w meta title i meta description strony, czyli w tytule witryny i w jej opisie. Podstawowym zadaniem linków kanonicznych jest ochrona przed duplikowaniem treści. Dzięki linkom kanonicznym programy indeksujące mogą rozpoznać oryginalną stronę, nawet jeśli doszło do jej zduplikowania. Ujmując rzecz najprościej, link/ adres kanoniczny wskazuje na stronę z oryginalną treścią.
Linki kanoniczne a duplikaty stron
Strony internetowe mogą się duplikować, czasem zdarza się też tak, że wersja różniąca się w detalach od oryginału zostanie uznana przez roboty sieciowe za duplikat strony oryginalnej (duplicate content). Linki kanoniczne w nagłówku strony wskazują programom indeksującym, którą wersję powinny uznać za oryginalną. Jeśli jasno tego nie określimy, wyszukiwarka automatycznie wybierze tę wersję, którą uzna za oryginalną, co nie musi pokrywać się z naszymi intencjami. Link kanoniczny można też ustawić w nagłówku HTTP.
Dlaczego linki kanoniczne są ważne?
Duplikacja stron, tzw. duplikacja wewnętrzna, jest niekorzystna ze względu na pozycjonowanie strony w wyszukiwarce. Strona może wyświetlać się pod różnymi adresami, co utrudnia klientom znalezienie tego właściwego i sprawia, że w wynikach wyszukiwania oryginalna wersja pokazuje się na dużo dalszych miejscach. Linki kanoniczne zapobiegają temu zjawisku, dając algorytmom indeksującym jasną informację, która wersja jest oryginalna. Duplikaty, w tym duplikacje wewnętrzne, są automatycznie usuwane z wyników wyszukiwania. Dobrym sposobem na oznaczenie oryginalnej strony jest wpisanie w jej kodzie jej własnego adresu URL – wtedy odnosi ona do samej siebie jako do wersji głównej. Duplikaty wewnętrzne treści także można oznaczyć za pomocą linku kanonicznego – wtedy w wynikach wyszukiwania te same frazy odnosić będą do strony głównej. Tagi kanoniczne sprawdzają się zwłaszcza na stronach, gdzie w opisach produktów powtarzają się te same słowa i informacje.
- Content Marketing
Content marketing, czyli marketing treści to rodzaj strategii marketingowej mającej na celu pozyskanie określonej grupy klientów. Działania w ramach internetowego content marketing obejmują publikację treści, które będą interesujące i przydatne dla danego grona odbiorców, tak by przyciągnąć ich uwagę i zyskać wiarygodność. Content marketing tradycyjny obejmuje m. in. dystrybucję gazetek i folderów informacyjnych.
Marketing treści – podstawowe zasady
Głównym celem content marketingu jest pozyskanie grupy stałych klientów, którzy uznają prezentowane na stronie treści za atrakcyjne i użyteczne, co będzie miało przełożenie na postrzeganie danej marki/ firmy. Jednym z elementów content marketingu jest zbudowanie relacji z klientem wykraczającej poza zwykłą formę sprzedaży. Interakcje oparte na zaangażowaniu i zaufaniu są tu priorytetowe.
Działania content marketingu obejmują przede wszystkim publikowanie treści (bloga, poradnika, filmików, webinarów) interesujących dla danej grupy klientów, tak by przyciągnąć ich uwagę. Kolejny etap/ element to budowanie relacji i zaufania, tak by klienci chcieli zaangażować się na dłużej, a optymalnie na stałe.
Bardzo ważna w kontekście content marketingu jest zarówno jakość treści, jaki i regularność publikowania.
Content marketing w sieci
Internetowy marketing treści ma wiele kanałów dystrybucji. Najpopularniejsze sposoby to:
- zamieszczanie dobrych jakościowo artykułów i poradników na stronie internetowej,
- artykuły sponsorowane,
- merytoryczne opisy produktów,
- zdjęcia i grafiki,
- posty w social mediach,
- newslettery,
- ebooki,
- mailingi.
Content marketing wiąże się z dbałością o merytoryczną i wizualną jakość treści, dlatego ma wpływ również na SERP i pozycjonowanie strony. Dobór właściwych słów kluczowych i linki zwrotne sprawiają, że informacje są łatwiej dostępne dla robotów indeksujących, co z kolej ma wpływ na widoczność strony i jej pozycję na liście wyników organicznych.
Bardzo ważne w content marketingu jest budowanie wizerunku marki/ firmy, tak by klienci uznali ją za godną polecenia. Budowanie relacji z klientem w content markietingu to m. in. quizy, konkursy, gry i inne interakcje wymagające aktywnego zaangażowania. Wymierne rezultaty to wzrost zasięgów, wyższe pozycjonowanie strony i lepsze wyniki sprzedaży.
- Crawl Budget (budżet indeksowania stron)
Crawl budget, czyli budżet indeksowania strony, to liczba podstron domeny, którą programy indeksujące mogą przeanalizować i zaindeksować w danym czasie. O budżecie indeksowania stron decydują parametry takie jak limit współczynnika indeksacji (crawl rate limit) oraz częstotliwość indeksacji.
Parametry Crawl Budget czyli limit współczynnika indeksacji i częstotliwość indeksacji
Algorytmy indeksujące wyszukiwarek, w tym Googlebots, mają określone moce przerobowe. Aby zapewnić płynność przepływu informacji, ustalono pewne wytyczne dla robotów sieciowych. Należą do nich limit współczynnika indeksacji i częstotliwość indeksacji, składające się na budżet indeksowania stron. Mówiąc najprościej, Crawl Budget jest to ilość czasu i pracy, jaką roboty sieciowe muszą poświęcić do przeanalizowania danej strony.
Na Crawl Budget składa się kilka czynników takich jak:
- szybkość ładowania podstron,
- czas odpowiedzi i wydajność serwera,
- liczba podstron i stopień ich skomplikowania.
W Google Search Console znajduje się zakładka Statystyki indeksowania. Statystyki te pozwalają prześledzić ile stron dziennie jest indeksowanych w naszej domenie. Jest to ważna informacja dotycząca stanu witryny. Współczynnik indeksacji można ustawić ręcznie, tak by zwiększyć limit.
Częstotliwość indeksacji zależy od ruchu na stronie i od tego, czy regularnie publikowane są nowe treści. Roboty indeksujące wykonują swoją pracę za każdym razem, gdy na stronie pojawiają się nowe wpisy. Częstotliwość indeksowania zwiększa też liczba odwiedzin na stronie.
Jak poprawić Crawl Budget
Witryny internetowe z dużą ilością podstron mogą mieć problem z budżetem indeksowania stron, który mówiąc wprost staje się zbyt wysoki. Warto na bieżąco sprawdzać w panelu Google Search Console stan indeksacji strony i w razie potrzeby usuwać wadliwe lub blokowane podstrony ręcznie. Można też wymusić indeksację podstron jeśli nie zrobiły tego jeszcze roboty sieciowe. Dla poprawienia budżetu indeksowania strony zaleca się usunięcie przyczyn, dla których generowana jest duża liczba adresów związanych z daną stroną, czyli podobnych treści. Im mniej duplikacji i niepotrzebnych podstron, tym lepiej dla budżetu indeksowania. Treści zamieszczone na stronie powinny być jak najwyższej jakości i jasno określać tematykę oraz posiadać słowa kluczowe, tak by łatwo było je zaindeksować. Sposobem na poprawienie efektywności budżetu indeksowania strony jest wyposażenie jej w meta roboty, które będą blokować indeksowanie stron duplikujących treści lub niskiej jakości.
- Dofollow vs. Nofollow
Dofollow i Nofollow to określenia odnoszące się do linków zwrotnych czyli tzw. backlinks. Linki zwrotne umieszcza się na stronie internetowej tak, by odnosiły użytkownika do określonych podstron lub innych zaufanych domen. Linki Dofollow zwiększają moc strony i poprawiają jej pozycjonowanie. Linki Nowollow jedynie odsyłają do podstrony/ innej strony, ale nie mają większego znaczenia dla SEO.
Linkbuilding – linki Dofollow i Nofollow
Z punktu widzenia optymalizacji strony dużo ważniejsze są linki zwrotne Dofollow. Backlinki Dofollow odsyłają do podstrony/ innego tekstu zamieszczonego na stronie, przy czym wzmacniają pozycjonowanie strony linkującej. Innymi słowy, przekazują informację dla programów indeksujących stronę linkującą, że znajdują się na niej treści ważne z punktu widzenia użytkownika wpisującego w wyszukiwarce określone zapytanie. Backlinki Nofollow przekierowują do innych treści na stronie/ do innej strony, ale ich umieszczenie w tekście nie ma wpływu na optymalizację strony wyjściowej, czyli nie jest istotne z punktu widzenia SEO. Nadal może jednak zwiększać rozpoznawalność marki i ułatwiać nawigację strony.
Gdzie umieszczać linki Dofollow i Nofollow?
Baza linków zwrotnych Dofollow i Nofollow jest jednym z działań marketingowych i ma znaczący wpływ na ruch na stronie oraz wyniki sprzedaży. Linki Dofollow zamieszcza się w artykułach sponsorowanych, postach i komentarzach, wpisach na blogach i w artykułach gościnnych. Bardzo ważne jednak, by nie przesadzić z ich ilością. Zbyt duża liczba linków zwrotnych Dofollow może zostać odczytana przez algorytmy wyszukiwarki jako spamowanie, a nawet próba oszustwa, co może skutkować usunięciem strony z wyników wyszukiwania. Linki Nofollow umieszcza się dokładnie w tych samych miejscach, co Dofollow. Wprawdzie nie mają one wpływu na pozycjonowanie strony, ale nie są tak zupełnie bez znaczenia. Algorytmy wyszukiwarek doceniają teksty, w których występują linki zwrotne obydwu rodzajów – uznawane są one za bardziej naturalne. Linki Nofollow zwiększają też ruch na stronie, do której odsyłają.
- Google Analytics
Google Analytics to platforma, której zadaniem jest analiza danych z witryn internetowych i aplikacji. Na ich podstawie platforma opracowuje raporty ze szczegółowymi informacjami o stronie/ witrynie.
W jaki sposób działa Google Analytics
Google Analytics dokonuje pomiaru ruchu na stronie, przetwarza dane i tworzy raporty, które są następnie wysyłane do klienta. Usługa Google Analytics jest bezpłatna dla użytkowników, których witryny są odwiedzane nie więcej niż 5 milionów razy miesięcznie i dostępna dla wszystkich zainteresowanych od 2005 roku.
Do korzystania z platformy konieczne jest założenie konta Google Analytics. Kolejny krok to umieszczenie na każdej ze stron witryny kodu pomiarowego JavaScript, który zbiera informacje o ilości użytkowników odwiedzających stronę, czyli zlicza liczbę kliknięć i interakcji w czasie rzeczywistym. Kod ten zlicza również ilość klientów, którzy dokonali zakupu po odwiedzeniu strony (w odróżnieniu od liczby osób jedynie zwiedzających witrynę).
Kod pomiarowy Google Analytics analizuje też inne dane związane z użytkownikami odwiedzającymi witrynę, takie jak źródło, które sprawiło, że weszli na naszą stronę (np. inna witryna, artykuł z anchorem lub reklama czy inna forma marketingu).
Kod pomiarowy wysyła te dane do Google Analytics, który przetwarza je, kataloguje i tworzy raporty w wybranym formacie. Możliwe jest takie ustawienie Google Analytics, aby raport nie uwzględniał odwiedzania witryny wewnątrz firmy.
Zalety Google Analytics
Google Analytics to narzędzie przydatne do śledzenia ruchu na witrynie oraz zbierania i analizowania danych dotyczących źródeł ruchu i zachowania użytkowników. Może mieć to przełożenie na strategie marketingowe i działania SEO.
Google Analytics można łatwo zintegrować z kontami Google Ads i aplikacjami e-commerce. Nie ma ograniczeń w zbieraniu danych jeśli chodzi o ilość stron internetowych. Platforma jest dostępna również w języku polskim.
- Indeksacja
Indeksacja witryny/ strony to analiza przez roboty sieciowe wszystkich zamieszczonych na niej treści, w tym tekstów, linków, grafiki i filmów, które są dokładnie katalogowane. Bez indeksacji nie jest możliwe wyświetlanie się witryny w wynikach wyszukiwania.
Jak przebiega indeksacja strony?
Indeksowanie witryny/ strony polega na analizie treści witryny zamieszczonych na niej w różnych formatach. Analiza ta przeprowadzana jest automatycznie przez roboty sieciowe po utworzeniu witryny, ale można też dokonać indeksacji manualnie, wykorzystując w tym celu dostępne w wyszukiwarce narzędzia.
Roboty sieciowe najpierw skanują witrynę, czyli wykonują tak zwany crawling. Analizowana jest treść i układ strony. Następnie algorytmy wyszukiwarki dokonują właściwej analizy treści zamieszczonych na stronie, czyli indeksowania. Głównym materiałem do analizy są teksty, dlatego zaleca się zamieszczać na stronie przejrzyste informacje i tytuły. Preferowane są krótkie, zrozumiałe zdania. W końcowej fazie indeksowania algorytmy pozycjonują stronę na podstawie jej jakości, czyli na przykład użycia wyszukiwanej przez internautów frazy.
Jak przyspieszyć proces indeksowania
Automatyczne indeksowanie witryny trwa od kilku do kilkunastu dni. Można ten proces przyspieszyć wykorzystując platformę Google Search Console, która pozwala administratorom strony zarządzać witryną. Google Search Console umożliwia dodatnie strony do zaindeksowania zaraz po jej utworzeniu. W ten sposób adres strony będzie od razu dostępny w wyszukiwarce. Jest to przydatne narzędzie do indeksowania nowych treści na stronie, tak by użytkownicy mieli do nich od razu dostęp. Można też ręcznie zaindeksować całą witrynę poprzez jej mapę, która zawiera wszystkie podstrony. Po indeksacji witryna/ strona jest dodawana do wyszukiwarki i dostępna dla użytkowników.
To, czy proces indeksacji przebiegł pomyślnie można sprawdzić wpisując w wyszukiwarce nazwę strony. Można też sprawdzić status strony za pomocą Google Seach Console.
- Linkowanie wewnętrzne (internal linking)
Linkowanie wewnętrzne to system odnośników do treści zamieszczonych na stronie internetowych. Linki wewnętrzne mogą odsyłać do artykułów zamieszczonych na stronie, haseł, bloga lub do sklepu.
Jak buduje się linkowanie wewnętrzne?
Linki wewnętrzne zamieszcza się w tekście na zasadzie hiperłącza ukrytego pod wybraną frazą. Hiperłącze zawiera adres URL i anchor, czyli kotwicę z treścią linku. Linkowanie wewnętrzne, w odróżnieniu od linkowania zewnętrznego, odsyła do treści w obrębie tej samej strony internetowej. Po kliknięciu zaznaczonej zwykle na niebiesko frazy otwiera się podstrona, artykuł na blogu lub link odsyła do sklepu, gdzie można kupić wybrany produkt. Linkowanie wewnętrzne powinno być starannie przemyślane i wykonane. Linków wewnętrznych nie może być w tekście zbyt wiele – zamiast porządkować wprowadzą wówczas chaos. Linki wewnętrzne powinny być zamieszczone w odpowiednich miejscach (nigdy w tytule!), nie mogą też być osierocone, czyli muszą kierować do konkretnej podstrony.
Linki wewnętrzne – rodzaje
Linkowanie wewnętrzne może być zamieszczone w tekście lub w elementach graficznych widocznych na stronie. Linki tekstowe to zwykle wyróżniona kolorem i/ lub wyboldowana fraza. Po kliknięciu odsyłają do innego artykułu lub podstrony. Linki graficzne mogą być zamieszczone na przykład w logo firmy lub marki. Linkowanie wewnętrzne może być pojedyncze l(na jednej podstronie) ub site wide, czyli obecne we wszystkich treściach umieszczonych na stronie.
Linki wewnętrzne tekstowe mogą być zakotwiczone we frazach kluczowych w mianowniku (Exact Match Anchor, EMA) lub we frazie kluczowej odmienionej przez przypadki, a nawet w jej synonimach (Partial Match). W tekście może też być umieszczony adres URL prowadzący na inną podstronę w obrębie tej samej witryny. Czasami linkowanie wewnętrzne ukryte jest pod słowami „zobacz tutaj”, czy „zobacz więcej” lub pod nazwą marki.
Linkowanie wewnętrzne – zalety
Linkowanie wewnętrzne ułatwia poruszanie się po stronie i wydłuża czas, jaki użytkownik spędza w obrębie danej witryny, odwiedzając kolejne podstrony. Dobrze zaplanowane i rozmieszczone linkowanie wewnętrzne zwiększa przejrzystość strony, co ma realne przełożenie na pozycjonowanie witryny w wyszukiwarce (SEO) oraz na rankingi i wyniki sprzedaży. Linkowanie wewnętrzne ułatwia i przyspiesza również proces indeksacji przez roboty wyszukiwarki, bez czego strona nie będzie widoczna w wynikach wyszukiwania.
- Long-tail Keywords (Frazy kluczowe z długim ogonem)
Long tail keywords, czyli frazy z długim ogonem, to frazy kluczowe zamieszczane w tekście, składające się z więcej niż 3 słów (zwykle w przedziale 3-5 słów). Frazy kluczowe z długim ogonem ą używane relatywnie rzadziej niż pojedyncze słowa kluczowe (frazy generyczne), ale postrzegane są jako bardziej precyzyjne narzędzie SEO.
W jakim celu używa się fraz z długim ogonem
Frazy z długim ogonem mają kilka zalet. Po pierwsze, lepiej niż generyczne słowa kluczowe określają zamiary użytkowników. Po drugie, są zaprojektowane tak, by lepiej odzwierciedlać faktyczne zapytania wpisywane w wyszukiwarkę. Dzięki zastosowaniu fraz z długim ogonem można wygenerować większy ruch na stronie, co będzie miało przełożenie na jej pozycjonowanie w wyszukiwarce. I wreszcie, stosowanie fraz z długim ogonem może pomóc odróżnić dany produkt od konkurencyjnych – użytkownicy wpisując w wyszukiwarce konkretne zapytanie otrzymają wynik optymalnie dostosowany do wpisanych fraz.
Frazy z długim ogonem a SEO
Szacuje się, że około 70 procent zapytań w wyszukiwarce zawiera frazy z długim ogonem, czyli złożone z więcej niż 3 słów. Jeśli na stronie użyte zostały adekwatne frazy z długim ogonem, będzie to miało ogromny wpływ na organiczne wyniki wyszukiwania. Z tego względu stosowanie fraz z długim ogonem jest coraz bardziej popularnym działaniem SEO. Dzięki frazom z długim ogonem poprawia się widoczność strony, a co za tym idzie – jej klikalność i wyniki sprzedaży.
Frazy z długim ogonem – korzyści dla klientów i użytkowników sieci
Frazy z długim ogonem sprawiają, że użytkownik po wpisaniu zapytania w wyszukiwarce otrzymuje wyniki optymalnie dostosowane do jego intencji. Dzięki temu szybciej i łatwiej znajduje produkt, o który mu chodzi lub odpowiedź na swoje wątpliwości. Frazy z długim ogonem wspierają dywersyfikację w sieci i pomagają znaleźć właściwą stronę. Jest to również z korzyścią dla firm, ponieważ wprowadzając odpowiednie frazy z długim ogonem mogą bardziej precyzyjnie przedstawić swoją ofertę, dostosowując ją do określonej grupy klientów.
Frazy z długim ogonem – przykłady
Frazy z długim ogonem powinny odzwierciedlać naturalne zapytania wpisywane w wyszukiwarkę, a jednocześnie być poprawne gramatycznie. Przykładowa fraza z długim ogonem to Sklep ogrodniczy w Warszawie lub, co bardziej prawdopodobne ze względu na formę zapytania Sklep ogrodniczy Warszawa. Frazę z długim ogonem należy umieścić w tekście tak, by w jak najbardziej naturalny sposób wpasowała się w jego treść.
- Meta Description
Meta description (opis meta) to opis zawartości strony, który wyświetla się pod tytułem i adresem URL. Meta description musi mieć określoną długość w przedziale od 140 do 160 znaków i jest zamieszczony w kodzie strony. Powinien jasno mówić, co znajduje się na danej stronie internetowej. Ta informacja jest ważna zarówno dla użytkowników, jak i algorytmów sieciowych.
Meta description – jakie pełni funkcje
Opis meta to dobry sposób, by zareklamować stronę i poprawić współczynnik klikalności. Sam tytuł strony może nie wystarczyć, by zainteresować użytkownika. Może też być nie do końca jasne, co znajduje się na stronie. Opis meta jest właśnie po to, by doprecyzować tematykę i zakres treści na stronie. Dzięki niemu algorytmy sieciowe mają ułatwione zadanie indeksowania, co przekłada się na lepsze pozycjonowanie strony w wynikach wyszukiwania. Użytkownik może sprawdzić meta opis klikając na stronę prawym przyciskiem myszy i wybierając„Zbadaj”.
Jak przygotować dobry meta opis
Meta opis to krótkie streszczenie tego, co znajduje się na stronie/ w zamieszczonym na stronie tekście. Aby spełniać swoje funkcje (reklamy i podniesienia rankingów strony), meta opis powinien być umiejętnie przygotowany pod kątem SEO. Dobry meta opis powinien zawierać słowa kluczowe, ważne dla indeksowania strony. Powinien też w zwięzły i precyzyjny sposób opisywać to, czego dotyczy artykuł/ strona, tak by zainteresować potencjalnego czytelnika. Można też umieścić w meta opisie frazy takie jak Sprawdź teraz czy Zobacz, by zachęcić użytkownika do odwiedzenia strony. Bardzo ważne jest, by meta opis mieścił się w określonym przedziale znaków. Zbyt długi meta opis może sprawić, że strona zostanie gorzej sklasyfikowana przez algorytmy sieciowe i pozycjonowana niżej niż konkurencyjne witryny/ strony z opisem spełniającym formalne warunki meta description.
- Mobile-Friendly
Mobile friendly (strona przyjazna mobilnie) oznacza stronę dostosowaną do korzystania z urządzeń mobilnych takich jak smartfony. Jest to jeden z czynników mających wpływ na rankingi strony.
Jak zadbać o mobilną przyjazność strony
Strona przyjazna mobilnie to taka, którą z łatwością czyta się na smartfonie i bez trudu można z niej korzystać w telefonie, na przykład naciskając przycisk koszyk. Oznacza to, że strona powinna być dostosowana do mniejszego ekranu smartfona, tak by jej obsługa była na nim optymalna. Mobile friendly oznacza również uproszczenie strony, w tym zmniejszenie ilości zakładek. Ważne informacje powinny być dobrze widoczne, a najlepiej wyróżnione. Kontakt z firmą lub sklepem powinien być możliwy na zasadzie jednego kliknięcia, bez konieczności ręcznego wpisywania numeru telefonu czy adresu e-mail. Zamiast numerów stron sprawdzi się tzw. infinite scroll – użytkownik przewija stronę na ekranie telefonu w dół.
Dlaczego mobilna przyjazność strony jest istotna
Obecnie wielu użytkowników korzysta do przeglądania stron internetowych nie tylko z komputera czy laptopa, ale także z urządzeń mobilnych. Dostosowanie strony internetowej do przeglądania na telefonie ma coraz większy wpływ na jej pozycjonowanie w wyszukiwarce. Od 2015 roku wyszukiwarka Google popiera strony mobile friendly, czyli dostosowane do urządzeń mobilnych. Mobilne dostosowanie strony ma również wpływ na jej postrzeganie przez użytkowników i ruch na stronie, co zwiększa wyniki sprzedaży.
Jak dostosować stronę do urządzeń mobilnych
To, czy strona jest przyjazna mobilnie można sprawdzić w Google Search Console. Jeśli okaże się, że strona nie przeszła testu mobile friendly, zaleca się ją dostosować do potrzeb użytkowników urządzeń mobilnych. Można to zrobić korzystając z algorytmu mobilnego, który sprawia, że strona wygląda inaczej na laptopie i w telefonie.
- Optymalizacja treści (Content optimalisation)
Optymalizacja treści to kluczowy element SEO i SEM. Zwiększa widoczność strony i poprawia jej pozycjonowanie w wynikach organicznych. Jest bardzo ważnym czynnikiem mającym wpływ na rozpoznawalność witryny i zwiększenie ruchu, czyli liczby osób odwiedzających stronę.
Optymalizacja treści pod kątem SEO
Optymalizacja treści pod kątem SEO obejmuje następujące działania:
- analizę i wprowadzenie odpowiednich słów kluczowych,
- odpowiedni linkbuilding: wprowadzenie linków zwrotnych, usunięcie linków uszkodzonych i osieroconych,
- aktualizację i rozbudowanie treści (można dodać FAQ, wypowiedzi ekspertów, etc.),
- aktualizację tytułu i meta danych pod kątem aktualnych słów kluczowych,
- optymalizację nagłówków i układu tekstu.
Optymalizacja treści może też obejmować dodanie grafik czy filmów zwiększających atrakcyjność strony. Główny cel to zmiana treści w taki sposób, by jak najlepiej odpowiadała potrzebom użytkowników wybranej grupy docelowej i była dostosowana do najnowszych algorytmów wyszukiwarki.
Optymalizacja treści – korzyści
Optymalizacja treści to jedno z ważniejszych działań marketingowych. Jej celem jest poprawa pozycjonowania strony na liście SERP, tak by wyświetlała się wysoko w wykazie wyników organicznych (bezpłatnych). Wprowadzenie aktualnych słów kluczowych w tekście i w meta opisie sprawia, że informacje są lepiej widoczne dla programów indeksujących wyszukiwarki, a co za tym idzie, strona jest szybciej klasyfikowana jako odpowiednia w kontekście konkretnego zapytania – wyświetla się jako jedna z pierwszych. Linki zwrotne i optymalizacja struktury tekstu pełnią podobną rolę. Z punktu widzenia użytkownika istotna jest przydatność treści i jej atrakcyjność. Im bardziej oryginalny tekst i im bardziej konkretnie odpowiada na zapytania, tym lepiej ze względu na wiarygodność i rozpoznawalność strony.
Optymalizacja treści ma przełożenie na zwiększenie ruchu, poprawę współczynnika klikalności i częstsze indeksowanie strony przez roboty indeksujące, co z kolei prowadzi do jej lepszego pozycjonowania i widoczności. Jest również dobrym pretekstem do zmiany treści (dodanie odpowiednich słów kluczowych, pozycjonowanie lokalne) tak, by pasowała do aktualnych algorytmów wyszukiwarki.
- Page Speed
Page speed to szybkość z jaką otwiera się (ładuje, wczytuje) strona internetowa. Określa się ją także jako wydajność strony. Szybkość ładowania się strony mierzona jest od chwili gdy kliknięcia adresu do pełnego wczytania strony, tak by widoczne były wszystkie dane i by możliwe było podejmowanie działań.
Szybkość strony a szybkość witryny
Szybkość strony to wskaźnik, który odnosi się do czasu potrzebnego na załadowanie pojedynczych stron lub podstron. Szybkość witryny ustala się obliczając średni czas ładowania się wszystkich składających się na nią stron.
Od czego zależy szybkość strony
Page speed zleży od następujących czynników:
- konfiguracji serwera czyli hostingu,
- optymalizacji pamięci podręcznej – służą do tego odpowiednie wtyczki,
- wielkości plików graficznych – im większe pliki, tym dłużej trwa ich wczytywanie,
- wykorzystania narzędzi SEO,
- łańcucha przekierowań – im więcej automatycznych przekierować, tym zwykle dłuższy czas wczytywania się strony.
Narzędzia do pomiaru szybkości ładowania strony
Wskaźnik szybkości strony może być rozumiany jako czas potrzebny na jej pełne załadowanie po kliknięciu adresu URL lub czas jaki upływa od kliknięcia do otrzymania pierwszego bajta danych z serwera. Do mierzenia szybkości ładowania strony służą darmowe narzędzia takie jak Google Page Speed Insight. Wyniki pomiaru szybkości strony prezentowany jest w skali od 1 do 100. Szybkość ładowania strony można też zmierzyć za pomocą Google Analytics Site Speed lub Google Lighthouse. Ogólnie można powiedzieć, że czas wczytywania strony powinien wynosić poniżej 3 sekund. Jeśli strona ładuje się dłużej, użytkownik może się zniecierpliwić i ją opuścić, co negatywnie wpływa na jej rankingi.
Dlaczego szybkość ładowania strony jest ważna
Szybkość z jaką ładuje się strona ma wpływ na jej ocenę przez użytkowników oraz na wyniki pozycjonowania w wyszukiwarce (SERP). Ma przełożenie na parametry wyświetleń i współczynnik odrzuceń (bounce rate). Jest jednym z czynników, jaki należy wziąć pod uwagę w działaniach mających na celu optymalizację strony. Jako dobry wskaźnik page speed w Google Page Speed Insight uznaje się ten powyżej 90. Jeśli wynik szybkości strony wynosi poniżej 89 oznacza to, że trzeba ją poprawić (zoptymalizować).
- Robots.txt
Robots.txt to pliki tekstowe z instrukcjami dla robotów wykonujących skanowanie (crawling) i indeksację stron internetowych. Robots.txt zawierają wytyczne zezwalające na dostęp lub blokujące skanowanie. Plik robots.txt może być przeznaczony dla wszystkich botów sieciowych lub dla jednego robota (algorytmu).
Jak tworzy się pliki robots.txt?
Robots.txt to zwykły plik tekstowy, który zawiera instrukcje dla robotów sieciowych. Jego zadaniem jest zoptymalizowanie procesu skanowania i indeksacji witryny. Innymi słowy, plik robots.txt „mówi” botom, które treści witryny należy analizować i zaindeksować. Pliki robots.txt tworzy się za pomocą kodowania UTF-8, używając wyłącznie znaków z kodu ASCII. Robots.txt umieszcza się w głównym katalogu witryny.
Jakie informacje zamieszcza się w robots.txt
Pliki robots.txt zawierają następujące informacje:
- jakiego rodzaju robotów dotyczą zamieszczone w pliku wytyczne (User-Agent: * oznacza wszystkie boty sieciowe, można też wpisać nazwę konkretnego robota, na przykład Googlebot),
- zasoby dostępne dla robotów (Allow)
- zasoby niedostępne dla robotów sieciowych (Disallow).
Po wpisaniu tych informacji warto monitorować status witryny i upewnić się, że roboty sieciowe faktycznie nie mają dostępu do zablokowanych treści (stron). Boty sieciowe teoretycznie stosują się do dyrektyw zamieszczonych w robots.txt, ale jeśli chcemy mieć pewność, że będą respektować odmowę dostępu do danych treści, zaleca się zabezpieczyć je dodatkowo hasłem. Kolejność dyrektyw w robots.txt nie ma znaczenia.
- Above-the-Fold Content (treść strony internetowej widoczna bez konieczności przewijania w dół)
Wyrażenie Above-the-Fold Content ma swoje źródło w drukarstwie, gdzie oznaczało tekst lub zdjęcie zamieszczone na górze pierwszej strony gazety lub czasopisma. Dosłownie znaczy „nad fałdką”, czyli powyżej miejsca, gdzie gazeta składana była na pół. Above-the-Fold Content to treść priorytetowa, najlepiej widoczna. W odniesieniu do stron internetowych wyrażenie to oznacza treści, które użytkownik zobaczy jako pierwsze. Są one ważne, ponieważ zwykle pierwsze wrażenie decyduje o tym, czy użytkownik pozostanie na stronie i wykona dalsze czynności z nią związane (dokona zakupu lub zapisze się do Newslettera).
Above-the-Fold Content a pozycjonowanie strony
Above-the-Fold Content to treść strony internetowej widoczna bez konieczności przewijania (scrollowania) w dół. Użytkownik klikając w link lub wynik wyświetlony wyszukiwarce, najpierw zobaczy właśnie Above-the-Fold Content. Jeśli zamieszczone tam zdjęcia i teksty oraz układ strony zainteresują go i przekonają, że strona może być przydatna ze względu na wpisane w wyszukiwarkę zapytanie, wzrasta szansa, że pozostanie na stronie dłużej i dokona konwersji. Czas pozostawania na stronie, podobnie jak liczba kliknięć i interakcji oraz współczynnik odrzuceń, to ważne czynniki pozycjonowania strony, dlatego Above-the-Fold Content powinien być jak najbardziej atrakcyjny. Tak jak w erze przed internetem górna część prawej strony gazety zachęcała do jej kupienia, tak treść strony internetowej widoczna bez konieczności przewijania w dół zachęca do jej eksploracji, a tym samym zwiększa szansę na lepsze pozycjonowanie.
Jak ulepszyć treść strony widoczną bez konieczności przewijania
Liczy się pierwsze wrażenie – ta maksyma sprawdza się również w przypadku stron internetowych. To, co zobaczy użytkownik po otworzeniu strony, jest bardzo istotne dla jego decyzji o pozostaniu na niej lub jej opuszczeniu. Działania SEO w tym obszarze powinny skupić się na optymalizacji tytułu i nagłówków, uporządkowaniu treści oraz dostosowaniu strony do otwierania na urządzeniach mobilnych. Treści zachęcające potencjalnego klienta/ użytkownika powinny być podane w sposób zwięzły i jasny oraz atrakcyjny graficznie. Above-the-Fold Content powinna też zawierać dane kontaktowe i słowa kluczowe, które przekonają użytkownika, że jest w miejscu, którego szukał wpisując swoje zapytanie w okno wyszukiwarki. Nie bez znaczenia jest również szybkość ładowania Above-the-Fold Content.
- Anchor Text (treść linka, tekst zakotwiczenia, etykieta łącza)
Achor tekst to treść linka zamieszczonego na stronie internetowej. Po kliknięciu zaznaczonego na niebiesko tekstu, użytkownik jest przekierowywany do innej podstrony w obrębie tej samej witryny (linki wewnętrzne) lub do innej domeny (linki zewnętrzne). Anchor text określany jest również jako tekst zakotwiczenia (anchor to po angielsku kotwica) oraz etykieta łącza.
Tekst zakotwiczenia – jak wygląda w w praktyce
Tekst zakotwiczenia (popularnie: anchor teksty, anchory) umieszczany jest jako element kodu HTLM strony. Jego zadaniem jest określić treść hiperłącza w optymalnie zwięzły i jasny sposób, tak by użytkownik widział ją po najechaniu na link zaznaczony w tekście myszą, jeszcze przed kliknięciem w zaznaczoną frazę. Jest to bardzo przydatne z uwagi na wygodę użytkownika i lepsze wrażenie, jakie robi nawigacja strony. Wszystkie potrzebne informacje są widoczne bez konieczności otwierania kolejnych podstron. Użytkownik sam może zadecydować, które hiperłącza zamieszczone na stronie są w danym momencie dla niego przydatne.
Teksty zakotwiczenia a pozycjonowanie strony
Teksty – kotwice są bardzo ważne ze względu na pozycjonowanie strony. Algorytmy wyszukiwarki skrupulatnie analizują linki zamieszczone w tekście biorąc pod uwagę słowa kluczowe i tematykę określoną w metadanych strony. Wszelkie rozbieżności lub umieszczanie linków z podejrzanymi/ niejsanymi tekstami zakotwiczenia są interpretowane na niekorzyść strony i mogą mieć negatywny wpływ na jej pozycjonowanie. Z tego względu do działań SEO należy również optymalizacja pod kątem treści hiperłączy, czyli anchor tekstów.
Różne rodzaje tekstów zakotwiczenia a SEO
Jest kilka podstawowych rodzajów tekstów zakotwiczenia:
- anchor teksty brandowe, czyli takie, w których jako słowo kluczowe występuje nazwa firmy lub marki,
- „nagie” teksty zakotwiczenia – w treści linku występuje sam linkowania,
- teksty zakotwiczenia exact match i partial match – w treści linku występują słowa kluczowe związane z tematyką strony lub ich synonimy,
- generyczne teksty zakotwiczenia, nie związane z tematem strony.
Z punktu widzenia SEO i pozycjonowania strony przez algorytmy wyszukiwarki, obecnie najlepiej sprawdzają się anchor teksty exact match i partial match oraz brandowe teksty zakotwiczenia.
- Dwell Time (Czas spędzony na stronie)
Dwell Time to wskaźnik określający ilość czasu, jaki użytkownik wyszukiwarki spędza na otworzonej stronie, mierzony od chwili kliknięcia w link z jej adresem URL do momentu opuszczenia strony, w tym do powrotu do listy wyników organicznych wyświetlanych dla danego zapytania. Dwell Time to ważny czynnik mający wpływ na pozycjonowanie strony.
Dlaczego Czas spędzony na stronie jest ważny?
To, ile czasu użytkownik spędził na stronie po jej otwarciu, jest ważną informacją na temat poziomu jej atrakcyjności i merytorycznej trafności w kontekście zapytania. Użytkownicy mogą opuszczać stronę z różnych względów. Do najczęstszych należą problemy z ładowaniem, nieczytelny układ strony, utrudniona nawigacja (co zdarza się np. w przypadku stron niedostosowanych do urządzeń mobilnych) oraz nieinteresująca dla użytkownika treść widoczna na pierwszy rzut oka, bez scrollowania w dół. Algorytmy Google prawdopodobnie biorą pod uwagę ile czasu użytkownik spędził na stronie zanim powrócił do listy wyników lub w ogóle zakończył internetową sesję. Nie ma jednak prostej zależności: dłuższy czas pozostawania na stronie = wyższe pozycjonowanie. Jest to jeden z parametrów mających wpływ na miejsce strony na liście wyników organicznych, ale zawsze należy go rozpatrywać i interpretować w połączeniu ze innymi wskaźnikami, zwłaszcza ze wskaźnikiem odrzuceń (bounce rate).
Informacje na podstawie Dwell time dla właściciela strony
Raport o ilości czasu, jaki użytkownicy pozostają na stronie jest ważną informacją dla administratora strony. Jeśli wskaźnik ten jest niski, może to wskazywać na problemy takie jak wolne wczytywanie się strony czy jej nieatrakcyjny wygląd. Działania SEO mają na celu wykrycie tych problemów (audyt SEO) i wdrożenie strategii optymalizacji strony. Wysoki wskaźnik czasu pozostawania na stronie to pozytywna informacja: zwykle oznacza, że zamieszczone na niej treści okazały się wartościowe i przydatne dla użytkownika. Jeśli jednak czas spędzany na stronie jest zbyt długi, może to świadczyć o nieintuicyjnej nawigacji i układzie strony, który utrudnia wyszukanie potrzebnych informacji.
- Google Hummingbird Algorithm (Algorytm Google Koliber)
Algorytm Google Hummingbird, czyli algorytm Koliber, to nazwa algorytmu wyszukiwarki Google wdrożonego w 2013 roku. Algorytm Koliber cechuje się dużą szybkością przetwarzania danych i tym, że bierze pod uwagę kontekst i znaczenie wpisywanych w wyszukiwarce zapytań, w odróżnieniu od wcześniejszych algorytmów, które skupiały się po prostu na wyszukiwaniu i prostej analizie słów kluczowych. Algorytm Koliber jest dostosowany do analizy języka naturalnego, tak jak używają go internauci. Pomaga zrozumieć kontekst zapytania, biorąc pod uwagę takie czynniki jak lokalizacja użytkownika, historia wyszukiwania, czas i inne informacje wpływające na to, czego użytkownik szuka.
Algorytm Google Koliber – znaczenie i kontekst
Algorytm Koliber to jedna z bardziej znaczących zmian, jakie ostatnio wdrożyła wyszukiwarka Google. Algorytm ten w dużo większym stopniu niż poprzednie wersje programów indeksujących bierze pod uwagę ‘ludzki’ aspekt wyszukiwań i treści, które mogą pasować do wpisywanych przez użytkowników zapytań. Innymi słowy, w ramach tego algorytmu mniej ważne są kwestie techniczne oraz liczba i trafność słów kluczowych, a bardziej istotny staje się kontekst, w jakim słowa kluczowe są użyte. Algorytm Koliber promuje naturalnie brzmiące treści, natomiast te stosujące np. taktykę keywords snuffing są automatycznie pozycjonowane niżej.
Algorytm Google Koliber a SEO
Algorytm Koliber znacznie lepiej „rozumie” zamieszczane na stronach internetowych treści niż poprzednie wersje programów indeksujących. Oznacza to, że trudniej go oszukać – np. stosując wspomnianą taktykę upychania słów kluczowych na siłę. Algorytm ten analizuje treść strony biorąc pod uwagę język, w jakim jest napisana (promowane są naturalnie brzmiące teksty), merytoryczną trafność i przydatność w kontekście zapytania (wartościowe treści), a także autorytet strony, a nawet autora zamieszczonych na niej tekstów. Dzięki temu wyświetlane strony mają być lepiej dopasowane do potrzeb użytkownika. Algorytm Koliber stawia zatem nowe wyzwania dla SEO. Strona lepiej pozycjonowana to ta, która nie tylko zawiera określone słowa kluczowe i odpowiednią strukturę linkowania, ale dodatkowo jest oryginalna i prezentuje merytoryczne, dobrze napisane (naturalnym językiem treści). Innymi słowy, algorytm Koliber promuje działania White Hat SEO, banuje zaś te określane jako taktyki Czarnego Kapelusza. Algorytm Koliber jest też istotny ze względu na wyszukiwania lokalne, ponieważ jest dostosowany do rozpoznawania intencji użytkowników. Z tego względu większe niż wcześniej znaczenie ma optymalizacja strony pod kątem pozycjonowania lokalnego. W skrócie: algorytm Google Koliber sprawia, że działania SEO powinny przede wszystkim brać pod uwagę rzeczywiste potrzeby i zapytania użytkowników. Dotyczy to na przykład używania fraz z długim ogonem (long tail Keywords), tak jak wpisują zapytania internauci.
- 301 Redirect (Przekierowanie 301)
Przekierowanie 301 to komunikat mający na celu poinformowanie użytkownika oraz programów indeksujących wyszukiwarki internetowej, że dana strona jest nieaktualna i została przeniesiona pod inny adres URL.
Czym różni się Przekierowanie 301 od 302
W przeglądarce czasem wyświetla się komunikat Redirect 302, który również przekierowuje pod nowy adres strony. W odróżnieniu od Przekierowania 301, Przekierowanie 302 jest jedynie tymczasowe – informuje użytkowników i roboty indeksujące, że strona została przeniesiona pod nowy adres na jakiś czas, na przykład gdy jedna z jej podstron jest czasowo niedostępna. Przekierowanie 301 używane jest wtedy, gdy strona jest przeniesiona na nowy adres na stałe.
Kiedy i w jakim celu stosuje się Przekierowanie 301
Przekierowania 301 pozwala na przeniesienie strony na nowy adres w taki sposób, by klienci przyzwyczajeni do wpisywania dawnego adresu byli przekierowywani automatycznie do nowszej wersji strony, na nowy adres. To dobry sposób, by uniknąć błędu 404 – taki komunikat wyświetli się, gdy np. usunięta lub czasowo zawieszona zostanie jedna podstrona. Z punktu widzenia klienta i rankingów strony jest to sytuacja niekorzystna. Lepiej jest w takim przypadku przenieść stronę na inny adres. Komunikat Redirect 301 wyświetla się jedynie na krótko, a przekierowanie następuje automatycznie. Przekierowanie 301 jest też istotne z punktu widzenia SEO. Jeśli strona jest modyfikowana pod względem treści lub usuwane są podstrony, może stać się na jakiś czas niewidoczna w wyszukiwarce. Korzystniej zatem jest przenieść ją na nowy adres i wprowadzić Przekierowanie 301 ze starej strony na nową.
Jak stosować Przekierowanie 301 w praktyce
Przekierowanie 301 stosuje się w następujący sposób:
- przy usuwaniu podstrony dodajemy na niej Przekierowanie 301, tak by użytkownik był automatycznie przenoszony na stronę główną lub podstronę o zbliżonej tematyce,
- jeśli na kilku podstronach występują podobne treści, można zastosować Przekierowanie 301 do jednej z nich (działanie SEO),
- przy przenoszeniu strony z wersji http:// na https:// wprowadzamy Przekierowanie 301 dla całej witryny,
- w przypadku zmianie adresu strony wprowadzamy Przekierowanie 301 na starej wersji, niezależnie od otwieranej podstrony.
- 404 Error Page
404 Error Page czyli Błąd 404 (kod błędu odpowiedzi HTTP), to komunikat, że danej strony nie udało się odnaleźć na serwerze. Jest to dość częsty problem, a jego przyczyny mogą być różne – od usunięcia strony/ podstron do niewłaściwej indeksacji lub jej braku. Czasami powodem jest błędne wpisanie adresu URL w wyszukiwarkę.
Błąd 404 – powody problemów z odnalezieniem strony
Oprócz prozaicznych przyczyny, takich jak usunięcie strony lub niepoprawne wpisanie adresu, Błąd 404 not found może być spowodowany także innymi czynnikami. Najczęstszy to przeniesienie strony na inny adres bez zastosowania przekierowania 301. Użytkownicy wpisujący dawny adres zobaczą wówczas komunikat Błąd 404 – nie znaleziono strony. Jeśli nie znają nowego adresu URL, nie ma możliwości, by zostali przekierowani automatycznie na nową stronę. Jest to niekorzystne z punktu widzenia SEO oraz wizerunku firmy. Część osób może uznać, że przestała ona istnieć lub jest niewiarygodna.
Jak naprawić Błąd 404
Rozwiązanie problemu Błąd 404 jest stosunkowo proste. Użytkownik widząc ten komunikat może wykonać następujące czynności:
- Odświeżyć/ zrestartować stronę i załadować ją ponownie – czasami powodem Błędu 404 jest problem z wczytywaniem strony, zwłaszcza jeśli mamy otwartych wiele okienek/ podstron.
- Wrócić do poziomu głównego strony.
- Sprawdzić czy adres wpisany jest poprawnie.
- Użyć trybu incognito.
- Spróbować otworzyć stronę na innym urządzeniu.
- Użyć funkcji wyszukiwania.
- Usunąć zbędne pliki cookies, które spowalniają przeglądarkę i ponownie otworzyć stronę.
Jeśli te metody nie działają i nadal wyświetla się komunikat Błąd 404, należy skontaktować się administratorem strony. Administrator może sprawdzić, czy strona nie została usunięta zawartość strony w systemie CMS (zarządzania treścią). Jeśli usunięte zostały podstrony lub cała strona, można podjąć działania w celu ich odzyskania. Jeśli strona przeniesiona została na inny adres, administrator może (a nawet powinien!) dodać przekierowanie 301. Stan strony pod kątem błędu 404 można sprawdzić w Google Search Console.
- Black Hat SEO (czarne SEO, techniki czarnego kapelusza)
Black Hat SEO, czyli techniki Czarnego Kapelusza w pozycjonowaniu strony, to działania SEO niezgodne z kodeksem etycznym stosowanym przez wyszukiwarki internetowe, zwłaszcza przez Google. Black Hat SEO może przynieść więcej szkody niż pożytku, z zablokowaniem strony przez algorytmy indeksujące włącznie.
Czarne SEO – na czym polega
Lepsza widoczność i lepsze pozycjonowanie strony to pożądane wyniki. Działania SEO mają jeden podstawowy cel: sprawić, by strona wyświetlała się wyżej w wynikach organicznych (naturalnych, bezpłatnych) wyszukiwarki. Służą do tego różnego typu strategie i narzędzia, przede wszystkim umiejętne stosowanie słów kluczowych, rozpoznawanych przez algorytmy sieciowe jako pasujące do zapytań użytkowników. Niektóre działania SEO zaczęły jednak budzić wątpliwości natury etycznej – wyszukiwarki dysponują obecnie narzędziami takimi jak algorytm Panda i Pingwin, które skutecznie wykrywają strategię czarnego kapelusza SEO. Polega ona m.in. na nadmiernym nasyceniu słowami kluczowymi (keyword stuffing), powtarzaniem treści na różnych podstronach (duplicate content), czy nieuczciwym, nadmiernym linkowaniem. Mogą też polegać na przekazywaniu innej treści użytkownikom, a innej algorytmom sieciowym. Black Hat SEO definiowane jest jako stosowanie technik manipulacyjnych, nieuczciwych ze względu na intencje użytkownika i algorytmy wyszukiwarki, mających na celu sztuczne podbicie wyniku, czyli wyższe pozycjonowanie strony.
Kary za praktyki Black Hat SEO
Techniki czarnego kapelusza nie są (w większości) prawnie zakazane, ale wyszukiwarki mają swoje sposoby, by je wykryć i ukarać stosującą je stronę. Zwykle wykrycie strategii WH SEO skutkuje obniżeniem pozycjonowania strony w wyszukiwarce. W niektórych przypadkach strona, a nawet cała witryna, może stać się zupełnie niewidoczna w przeglądarce.
Czy Black Hat SEO ma jakieś zalety?
Jedyną zaletą Black Hat SEO jest możliwość szybkiego wywindowania strony/ witryny w przeglądarce. Wyniki organiczne mogą być bardzo dobre, ale jedynie na krótką metę. Po wykryciu nieuczciwych strategii przez algorytmy sieciowe na stronę zostanie nałożony filtr depozycjonujący lub zostanie ona trwale usunięta z wyników wyszukiwania.
- Canonicalization (wybór strony kanonicznej)
Wybór strony kanonicznej to określenie jednej spośród wielu stron o podobnej treści jako tej właściwej. Jeśli algorytmy wyszukiwarki wykryją wiele stron/ podstron, które wydają się takie same lub bardzo podobne pod względem treści, wybierają tę, która z ich punktu widzenia jest najbardziej przydatna dla użytkowników.
Od czego zależy wybór strony kanonicznej
Algorytmy dokonują wyboru strony na podstawie takich parametrów jak jej oryginalność, kompletność, użycie słów kluczowych, szybkość wczytywania, przyjazność mobilna, i innych. Wybrana strona oznaczona jest jako kanoniczna, co oznacza, że będzie wyświetlać się w wyszukiwarce jako pierwsza spośród innych podobnych. Strony duplikujące treści strony kanonicznej (duplicat content) mogą w ogóle być pominięte w wynikach organicznych wyszukiwarki.
Jak samodzielnie ustalić wybór strony kanonicznej
Jeśli chcemy, aby dana strona określona została jako kanoniczna, należy wprowadzić w nagłówku strony link kanoniczny (canonical tag). Jest to informacja dla programów indeksujących, że to właśnie ta strona ma zostać uznana jako kanoniczna. Wprowadzenie linku kanonicznego nie gwarantuje tego, że programy indeksujące wybiorą tę właśnie stronę i oznaczą ją jako kanoniczną (ma na to wpływ wiele innych czynników), ale zwiększa tego prawdopodobieństwo. Tg kanoniczny wpisuje się w nagłówku strony HTLM lub HTTP.
Dlaczego wybór strony kanonicznej jest ważny
Duplikowanie treści przez wiele stron/ podstron ma niekorzystny wpływ na wyniki organiczne strony oryginalnej. Strona oryginalna wyświetla się niżej w wyszukiwarce, czyli jest gorzej pozycjonowana. Może też wyświetlać się pod różnymi adresami, co utrudnia jej znalezienie. Samodzielny wybór strony kanonicznej za pomocą wpisania linku kanonicznego (także jej własnego adresu URL) zapobiega tym problemom i sprawia, że roboty indeksujące mają ułatwione zadanie. Strona oryginalna jest dobrze widoczna, co ma przełożenie na jej rankingi i wyniki sprzedaży.
- Google My Business
Google My Business to dawna (do 2022 roku) nazwa usługi, która obecnie nosi nazwę Google Business Profile. W języku polskim to odpowiednio: Moja Firma w Google (do 2022 roku) i Profil Firmy w Google (obecnie). Usługa ta jest darmowa i przydatna dla zarządzania wizytówkami firmy.
Google My Business/ Google Business Profile – do czego jest przydatna
Panel Google My Business/ Google Business Profile jest używany do tworzenia i zwiększenia lokalnej rozpoznawalności firmy oraz zainteresowania użytkowników daną ofertą. Usługa Google My Business/ Google Business Profile pozwala na stworzenie atrakcyjnie wizualnie wizytówki oraz ułatwia klientowi kontakt z firmą/ sklepem. Dzięki panelowi profilu firmy w Google można też gromadzić pozytywne opinie, które dobrze jest zamieścić w Rich snippets (rozszerzonych elementach opisu), tak by wyświetlały się w wynikach wyszukiwania. Tworzenie wizytówki w Google My Business/ Google Business Profile jest jednym z działań promocyjnych i PR-owych. Zwiększa zasięgi strony i poprawia pozycjonowanie lokalne. Dzięki o firmie mają szansę dowiedzieć się użytkownicy poszukujący danego typu usługi/ produktu w danej lokalizacji. Należy przy tym pamiętać, że pozycjonowanie wizytówki w wynikach wyszukiwarki zależy od wielu czynników branych pod uwagę przez algorytmy indeksujące.
Google My Business/ Google Business Profile w praktyce
Google My Business/ Google Business Profile pozwala na utworzenie wizytówki firmy, na której widoczne będą wszystkie istotne informacje takie jak jej nazwa, zakres działalności, dni i godziny otwarcia, lokalizacja i mapka, numer telefonu i adres e-mail, adres URL, logo firmy, oferowane produkty/ usługi, opinie klientów i średnia ocena usług oraz opcjonalnie inne dane. W wizytówce można zamieścić również zdjęcia i grafikę. Po dodaniu wizytówki w Google My Business/ Google Business Profile należy ją zweryfikować, to jest potwierdzić, że jesteśmy uprawnieni do zarządzania wizytówkami danej firmy (np. jest ona naszą własnością). Do weryfikacji służy specjalny kod weryfikacyjny, który można otrzymać za pośrednictwem poczty, telefonicznie lub mailowo. Dla wybranych firm możliwa jest weryfikacja natychmiastowa lub zbiorcza (dostępna dla firm działających w ponad 10 lokalizacjach).
- Google Panda Algorithm (Algorytm Google Panda)
Algorytm Google Panda to program (algorytm) indeksujący wyszukiwarki Google wprowadzony w 2011 roku. Głównym zadaniem algorytmu Panda jest wyeliminowanie z wyników organicznych lub obniżenia pozycji stron zawierających treści mało wartościowe i powtarzające się (duplicate content).
Algorytm Google Panda a pozycjonowanie strony
Algorytm Google Panda ma na celu promowanie stron zawierających treści wysokiej jakości, merytorycznie odpowiadające na zapytania użytkowników. Dotyczy to zarówno tekstów, jak i zamieszczonych na stronie filmów oraz infografik. Aby zwiększyć widoczność strony i uzyskać lepsze wyniki organiczne, nie wystarczy zatem jedynie umieścić w tekstach oraz meta danych słów kluczowych oraz otagować stronę pod kątem robotów wykonujących wstępną analizę i skanowanie (crawlerów). Algorytm Google Panda to wyspecjalizowane narzędzie, które rozpozna szyte grubymi nićmi działania mające na celu wypromowanie strony. Aby uzyskać dobre wyniki organiczne i zachować je na dłużej, należy publikować oryginalne, wartościowe treści, czyli teksty i infografiki dobrej jakości, przydatne dla użytkowników a nie stworzone pod roboty sieciowe. Algorytm Google Panda rozpozna i ukarze złe praktyki SEO – w ten sposób, że obniży ich pozycjonowanie, a nawet całkowicie wykluczy z przeglądarki.
Algorytm Google Panda a SEO
Algorytm Google Panda to narzędzie promujące działania White Hat SEO. Od czasu jego wprowadzenia praktyki takie jak duplikowanie treści (wewnętrzne i zewnętrzne) czy keyword stuffing (upychanie słów kluczowych na siłę) straciły na znaczeniu jeśli chodzi o podbicie wyników organicznych. Mogą one zadziałać jedynie na krótką metę – po ich wykryciu przez Algorytm Google Panda strona automatycznie obniży pozycję w rankingu wyników organicznych. Z uwagi na Algorytm Google Panda ważna jest jakość strony oraz jej regularne aktualizowanie. Promowane są dłuższe teksty, bardziej wnikliwie omawiające temat oraz strony zawierające większą ilość tekstów. Algorytm Google Panda analizuje też ilość reklam na stronie – jeśli jest ich zbyt wiele w stosunku do treści, ma to negatywny wpływ na pozycję strony w wynikach organicznych. Należy przy tym pamiętać, że algorytmy indeksujące biorą przy pozycjonowaniu strony pod uwagę szereg innych czynników, a niektóre z nich nadal pozostają tajemnicą. Z uwagi na Algorytm Google Panda warto zatem publikować dobre jakościowo treści, ale nie należy zapominać o pozycjonowaniu lokalnym, układzie strony czy utworzeniu sitemap.
- Google Penguin Algorithm (Algorytm Google Pingwin)
Algorytm Google Pingwin to algorytm wyszukiwarki Google po raz pierwszy zastosowany w 2012 roku. Podstawowym zadaniem Algorytmu Google Pingwin jest obniżanie pozycjonowania w wynikach organicznych stron, które zawierają linki niskiej wartości oraz stosują techniki uznawane za spamowanie. Jednocześnie Algorytm Google Pingwin promuje te strony, które zawierają linkowanie i treści przydatne dla użytkowników.
Algorytm Google Pingwin – jak działa w praktyce
Algorytm Google Pingwin stanowi integralną część oprogramowania indeksującego wyszukiwarki Google (wraz z algorytmami Panda i Koliber). Jego działania skupiają się na wykrywaniu stron, które stosują nieuczciwe praktyki pod względem linkowania, na przykład praktykują automatyczne wymienianie się linkami oraz duplikują treści i/ lub nasycają je w nienaturalny sposób słowami kluczowymi. Strony tego rodzaju są klasyfikowane jako spam lub/ i próba oszustwa, a ich pozycja w wynikach organicznych automatycznie spada. Algorytm Google Pingwin promuje natomiast te strony, które używają linków w sposób naturalny, na przykład odsyłając do innych (wartościowych) treści w obrębie tej samej witryny. Badane jest również nasycenie słowami kluczowymi oraz naturalność ich użycia w tekście.
Algorytm Google Pingwin – filtry i kary
Jeśli Algorytm Google Pingwin uzna, że strona łamie dobre praktyki lub z jakiegoś powodu jest szkodliwa, nakładany jest na nią karę w postaci filtra obniżającego wyniki organiczne. Najbardziej dotkliwą karą jest wyrejestrowanie (wykluczenie) z wyszukiwarki – strona w ogóle przestaje się wyświetlać w wynikach wyszukiwania. Zanim jednak Algorytm Google Pingwin podejmie działanie penalizujące, ostrzega administratora strony i zaleca podjęcie działań w celu poprawy jakości linkowania i treści umieszczonych na stronie. Oczywiście, powinny to być działania z zakresu dobrych (uczciwych) taktyk SEO, czyli optymalizacja treści pod względem ich oryginalności i jakości, a linków tak, by były naturalne i użyteczne dla osób odwiedzających strony. Dobrym sposobem na poprawę sieci linkowania zewnętrznego jest na przykład wprowadzenie hiperłączy prowadzących do dyskusji na forach czy w mediach społecznościowych.
- Google RankBrain Algorithm (Algorytm uczenia maszynowego, Inteligentne wyszukiwanie, AI)
RankBrain to jeden z najnowszych algorytmów Google, korzystający ze sztucznej inteligencji i używany przez tę wyszukiwarkę od 2015 roku. RankBrain został utworzony w oparciu o uczenie maszynowe i jest stosowany do tak zwanego inteligentnego wyszukiwania. Oznacza to, że słowa lub frazy wpisywane przez użytkowników są interpretowane w oparciu o wcześniejsze ich zachowania i wyszukiwania. Algorytm RankBrain „uczy się” poprawnej i jak najbardziej przydatnej interpretacji analizując kilkaset milionów słów kluczowych dziennie.
Algorytm RankBrain Google – inteligentna wyszukiwarka
Większość użytkowników sieci nie zdaje sobie z tego sprawy, ale wyszukiwarki skrupulatnie zbierają wszystkie dane na temat ich zachowań i dokładnie je analizują. Ma to służyć wyświetlaniu jak najbardziej trafnych i dobranych do intencji użytkownika, lokalizacji, w jakiej się znajduje i wcześniejszych wyszukiwań. Algorytm RankBrain Google to pionierskie narzędzie wykorzystujące tak zwaną sztuczną inteligencję, czyli umiejętność uczenia się i ulepszania na tej podstawie dostarczanych wyników. Algorytm RankBrain poznaje potrzeby i preferencje danego użytkownika analizując to, jak dotychczas zachowywał się w sieci. Zadaniem Algorytm RankBrain jest również trafna interpretacja zapytań skomplikowanych i złożonych z dużej ilości słów. Użytkownik może nie wiedzieć, czego dokładnie szuka, ale Inteligentne wyszukiwanie podsunie podpowiedź, wyświetlając strony najbardziej pasujące do wpisanych fraz i do informacji, jakie zebrał o zachowaniu danej osoby online. Każdy kolejny wynik będzie lepszy od poprzedniego, ponieważ Inteligentna wyszukiwarka korzystająca z Algorytmu RankBrain uczy się cały czas.
Algorytm RankBrain Google a SEO
Algorytm RankBrain to element najnowszego oprogramowania wyszukiwarki internetowej Google. Wraz z algorytmami Panda, Pingwin i Koliber tworzy „team”, który dba o pozytywne doświadczenia użytkowników przeglądarki. Chodzi przede wszystkim o to, by wyświetlane strony były optymalnie dopasowane do rzeczywistych potrzeb użytkownika oraz prezentowały treści merytorycznie trafne, wysokiej jakości, przydatne i atrakcyjne (dla danej osoby). Algorytm RankBrain dba właśnie o spersonalizowane wyniki wyszukiwania – można zaryzykować stwierdzenie, że każdy użytkownik wyszukiwarki otrzyma różniące się w mniejszym lub większym stopniu wyniki organiczne. Algorytm RankBrain ma wpływ na pozycjonowanie strony, podobnie jak pozostałe algorytmy sieciowe. Odnośnie działań SEO wymusza taktyki z obszaru White Hat SEO, czyli optymalizację jak najbardziej uczciwą i fair wobec użytkownika. Narzędzia przydatne do optymalizacji strony pod RankBrain to Google Analytics i Google Search Console, które pokazują wyglądają rzeczywiste interakcje i zachowania użytkowników. Ważne jest pozycjonowanie lokalne, słowa kluczowe i linkowanie – te i inne informacje o stronie są brane pod uwagę przez Algorytm RankBrain odnośnie decyzji, czy będzie ona przydatna dla danego użytkownika w kontekście jego zapytania.
- Google Search Console
Google Search Console (dawniej Google Webmaster Tools) to bezpłatna platforma Google udostępniająca narzędzia do monitorowania statusu strony oraz raporty przydatne dla administratora strony oraz ze względu na działania SEO.
Do czego służy Google Search Console
Google Search Console umożliwia sprawdzenie statusu indeksowania strony i całej witryny. W razie potrzeby umożliwia manualne indeksowanie, co przyspiesza proces uwzględnienia strony/ witryny w wynikach wyszukiwarki. Google Search Console udostępnia też darmowe narzędzia pozwalające na:
- generowanie plików robot.txt
- sprawdzanie statusu mapy witryny
- otrzymywanie raportów o wskaźniku odrzuceń strony
- otrzymywanie informacji o wadliwych linkach i innych problemach związanych ze stroną
- analizę pozycjonowania strony w wynikach organicznych ze względu na słowa kluczowe
- otrzymywanie informacji o nieuczciwych taktykach SEO wykrytych przez algorytmy wyszukiwarki i możliwości nałożenia kary w postaci filtra lub wykluczenia strony z listy wyników organicznych
- analizę struktury linkowania
- analizę liczby kliknięć na stronie, wyświetleń strony i czasu, jaki użytkownicy pozostają na niej po otworzeniu
Google Search Console a SEO
Google Search Console to jedno z ważniejszych narzędzi z uwagi wykrywanie problemów i na wybór odpowiedniej strategii SEO. Informacje o problemach z indeksowaniem strony, raporty i analizy dostępne na platformie Google Search Console znacznie ułatwiają pracę podczas audytu SEO. Pozwalają wykryć miejsca, które wymagają optymalizacji i mogą podsunąć korzystne dla pozycjonowania strony rozwiązania.
- Gray Hat SEO (szare SEO, techniki Szarego Kapelusza)
Gray Hat SEO, czyli tak zwane szare SEO, lub SEO stosujące techniki Szarego Kapelusza, to praktyki mające na celu lepsze pozycjonowanie strony na względu na SERP i wyniki organiczne, w których korzysta się zarówno ze strategii White Hat SEO, jak i Black Hat SEO. Gray Hat SEO może dawać szybsze efekty niż czyste White Hat SEO (uczciwe taktyki Białego Kapelusza), ale wiąże się z określonym ryzykiem.
Gray Hat SEO – szara magia SEO
Jeśli użyjemy analogii do białej magii, która ma pomagać, ale nie korzysta z podejrzanych moralnie źródeł oraz magii czarnej, która swoje efekty opiera na konszachtach z nieczystymi siłami (strategiami), to Gray Hat SEO, niczym szara magia, plasuje się gdzieś pomiędzy. Najprościej jest powiedzieć, że Gray Hat SEO korzysta zarówno z nienagannych praktyk White Hat SEO, jaki i z zakazanych strategie Black Hat SEO. Może to być nadmierne nasycenie tekstów na stronie słowami kluczowymi, tak by „oszukać” roboty indeksujące, a także automatyczne generowanie treści niskiej jakości (np. poprzez automatycznego tłumacza) lub kupowanie linków zwrotnych. Takie działania mogą szybko podbić widoczność i pozycję strony, ale mogą też spotkać się ze stanowczą odpowiedzią algorytmów wyszukiwarki.
Ryzyko związane z Gray Hat SEO
Nowoczesne algorytmy sieciowe dysponują narzędziami, by skutecznie wykrywać i piętnować nieetyczne strategie marketingowe i podejrzane działania SEO. Jeśli roboty Google uznają, że dana strona używa taktyk klasyfikowanych jako Black Hat SEO, może nałożyć na nią filtr, który automatycznie obniży jej pozycję w wynikach organicznych wyszukiwarki. W skrajnym przypadku taka strona może zostać trwale usunięta z przeglądarki, co jest bardzo dotkliwą karą. Gray Hat SEO nie zawsze zatem się opłaca – „białe” taktyki przynoszą efekty wolniej, ale są bezpieczne.
- HTTPS Protocol (Hypertext Transfer Protocol Secure)
HTTPS to skrót od pierwszych liter angielskiego wyrażenia Hypertext Transfer Protocol Secure, co oznacza, że protokół HTTP jest chroniony szyfrowaniem TLS (aktualna wersja szyfrowania SSL). Protokół HTTPS ma gwarantować bezpieczeństwo użytkownikom sieci poprzez zapobieganie atakom hakerów I przechwytywaniu danych.
Protokół HTTPS – jak działa szyfrowanie I kiedy jest konieczne
Szyfrowanie TLS sprawia, że przechwycenie lub zmiana treści pomiędzy żądaniem (zapytaniem wpisanym w wyszukiwarce) użytkownika a wysłaniem odpowiedzi z serwera jest teoretycznie niemożliwe. Strony z protokołem HTTPS określane są jako bezpieczne. Obecnie protokołu tego używają (powinny używać) wszystkie strony, na których dokonuje się płatności online i udostępnia swoje dane. Protokół HTTPS jest obowiązkowy na stronach banków i innych instytucji finansowych oraz zaufania publicznego. Protokół z szyfrowaniem TLS powinien również chronić strony portali społecznościowych i witryn, na których można zamieszczać komentarze. W trosce o własne bezpieczeństwo w sieci zaleca się odwiedzać strony chronione protokołem HTTPS i z symbolem zielonej kłódki przy adresie URL. Nie znaczy to, że wszystkie strony HTTP są podejrzane – nie dają jednak gwarancji, że udostępniane na nich dane są w pełni bezpieczne.
Protokół HTTPS a pozycjonowanie strony
Obecnie nie ma (jeszcze) obowiązku dla wszystkich (innych poza wymienionymi powyżej) stron i witryn, by stosowały one zabezpieczanie protokołem HTTPS. W praktyce jest to jednak dobrze widziane przez algorytmy indeksujące wyszukiwarki. Strony HTTPS na razie nie wyświetlają się znacząco wyżej w wynikach organicznych od tych ze zwykłym protokołem HTTP, ale biorąc pod uwagę znaczenia bezpieczeństwa w sieci, już niedługo może się to zmienić. Zabezpieczenie strony protokołem HTTPS jest z pewnością dobrym działaniem wizerunkowym: pokazuje, że firma dba o bezpieczeństwo klientów odwiedzających jej strony online.
- Inbound Links (Linki zwrotne, linki przychodzące)
Linki Inbound to takie hiperłącza, które przekierowują z innej (zewnętrznej) strony na daną stronę. Odróżnia się je od tzw Outbound linków, które prowadzą z danej strony na inną stronę oraz linków wewnętrznych, które przekierowują użytkownika na podstrony w obrębie tej samej domeny/ witryny.
Do czego służą linki przychodzące
Linki przychodzące (inbound links) są przydatne z punktu widzenia SEO i pozycjonowania strony. Wzmacniają jej autorytet i zwiększają ruch na stronie – przekierowują do niej użytkowników z innych stron czy domen. Nie jest to jedyny ani główny czynnik mający wpływ na rankingi strony (jej pozycjonowanie), ale dobrze zaplanowane i rozmieszczone linki przychodzące mogą poprawić jej wyniki. Z całą pewnością zwiększają ruch na stronie, co ma przełożenie na jej wyższe pozycjonowanie. Aby algorytmy Google potraktowały link przychodzący jako wartościowy, powinien on zawierać dobry tekst zakotwiczenia i pochodzić z wysoko pozycjonowanej strony.
Wartościowe linki przychodzące a SEO
Linki przychodzące wartościowe ze względu na SEO działają na zasadzie analogii do liczby cytować w publikacjach naukowych. Im jest ich więcej i im bardziej wartościowe teksty, w jakich cytowana jest dana praca, tym lepsza jej pozycja w naukowej domenie publikacji. Niekorzystna jest zarówno mała ilość cytowań, jak i cytowanie w niewłaściwych (nieuznawanych, słabo punktowanych) czasopismach. Podobnie jest z linkowaniem przychodzącym. Sama ilość linków przychodzących to dopiero połowa sukcesu. Muszą one pochodzić z wartościowych stron/ domen, by wzmocnić pozycję strony, do której odsyłają. Nowoczesnych algorytmów nie da się łatwo oszukać, więc nie wystarczy samo linkowanie do wybranej strony, by wzmocnić jej pozycję.
- Indexing Issues (problemy z indeksowaniem)
Problemy z indeksowaniem mogą być dwojakiego rodzaju. Pierwszy to brak indeksowania, opóźniające się z jakiś przyczyn indeksowanie lub niepoprawne indeksowanie. Stanowi to poważną przeszkodę do tego, by strona wyświetlała się poprawnie w wynikach organicznych. Drugi rodzaj problemów z indeksowaniem, to indeksowanie stron, które miały pozostać niewidoczne dla wyszukiwarki.
Problemy z indeksowaniem – brak indeksowania
Zaindeksowanie strony przez algorytmy sieciowe jest warunkiem koniecznym jej widoczności w SERP. Nowo powstała lub zaktualizowana strona jest najpierw skanowana przez roboty crawlujące, a następnie analizowana i katalogowana przez algorytmy sieciowe. To właśnie indeksowanie strony, które sprawia, że staje się ona widoczna w wyszukiwarce Google. Indeksowanie automatycznie także pozycjonuje stronę, czyli przyznaje jej określone miejsce na liście wyników. Brak indeksowania lub opóźniające się indeksowanie może wynikać z wielu przyczyn. Może być związane z niejasnym (dla algorytmów) otagowaniem strony lub użyciem wieloznacznych słów kluczowych, czy przeniesieniem strony na inny adres bez przekierowania 301. Indeksowanie strony można wymusić i wykonać ręcznie w Google Search Console.
Problemy z indeksowaniem – indeksowanie stron, które nie powinny być indeksowane
Rzadziej omawiany przykład problemów z indeksowaniem, to indeksowanie stron, które nie są przeznaczone dla wyszukiwarek. Może dotyczyć to prywatnych treści lub stron niskiej jakości, roboczych. Jeśli algorytmy sieciowe zaindeksują taką stronę, stanie się ona widoczna dla użytkowników wyszukiwarki. Grozi to wyciekiem prywatnych danych lub nałożeniem przez wyszukiwarkę kar w postaci filtrów w przypadku zaindeksowania stron niskiej jakości.
Problemy z indeksowanie stron a SEO
Działania SEO są bardzo ważne z uwagi na właściwe zaindeksowanie strony i jej optymalne pozycjonowanie w wynikach organicznych. Nawet najlepsza optymalizacja pod kątem SEO nie przyniesie jednak efektów, jeśli strona w ogóle nie zostanie zaindeksowana. Problemy z indeksowaniem strony sprawiają, że nie jest ona widoczna w wyszukiwarce lub jej rankingi spadają. Dlatego warto sprawdzać raporty odnośnie statusu strony w Google Search Console. Można tam również sprawdzić, jaki rodzaj błędów jest przyczyną braku indeksacji witryny lub poszczególnych stron. Pozwala to je naprawić. Jeśli jakaś podstrona nie ma być indeksowana, należy użyć tagi noindex lub zabezpieczyć ją za pomocą odpowiedniego robot.txt.
- Internal Linking Structure (Linkowanie wewnętrzne)
Linkowanie wewnętrzne to zgodnie z nazwą wszystkie linki, które zamieszczone są na stronie. Linki wewnętrzne są przydatne dla użytkowników: służyć do nawigacji w obszarze witryny i łatwiejszego odnajdywania szukanych treści. Linkowanie wewnętrzne jest również konieczne z uwagi na algorytmy indeksujące. Odpowiednia struktura linkowania wewnętrznego pozwala im łatwiej sklasyfikować witrynę/ stronę i może być przydatna do optymalizacji wyników organicznych w wyszukiwarce.
Linkowanie wewnętrzne – rodzaje linków
Linkowanie wewnętrzne obejmuje kilka rodzajów linków. Przede wszystkim są to linki na stronie głównej i menu. W tekstachna stronie można zamieszczać linki wewnętrzne kontekstowe, które odsyłają do innych treści w obrębie tej samej witryny. Może to być na przykład definicja danego pojęcia albo artykuł szerzej prezentujący tematykę, która zainteresowała użytkownika. Po kliknięciu w link wewnętrzny jest on przekierowywany do innej podstrony, przy czym z łatwością może wrócić do wyjściowego poziomu/ tekstu zawierającego dany link.
Linkowanie wewnętrzne a SEO
Linkowanie wewnętrzne, podobnie jak zamieszczanie na stronie linków zewnętrznych, należy do działań SEO, które mają na celu poprawę widoczności i pozycjonowania strony. Umiejętnie wprowadzone linki wewnętrzne porządkują treści obecne na stronie i ułatwiają poruszanie się po niej – zarówno użytkownikom, jak i robotom crawlującym i indeksującym. Z tego względu linkowanie wewnętrzne jest przydatne do lepszego pozycjonowania strony i dla bardziej korzystnego jej odbioru przez użytkowników. Dzięki linkowaniu wewnętrznemu pozostają też oni dłużej na stronie – nie muszą szukać wyjaśnień czy interesujących ich treści gdzie indziej. To zaś także ma przełożenie na lepsze pozycjonowanie strony w wyszukiwarce. Linki wewnętrzne pozwalają też ustalić relacje między podstronami na tej samej stronie i ustalić jedną z nich jako główną.
Wartość linkowania wewnętrznego
Linki wewnętrzne mają różną wartość. Zwykle najbardziej znaczące są te umieszczone na stronie głównej, ale wysoką wartość mają również linki wewnętrzne zamieszczone w nowych tekstach zamieszczanych na stronie. Dlatego zaleca się umieszczać w nich linki odsyłające do strony głównej – zyskuje ona dzięki temu pod względem pozycjonowania. Dobrze jest też dodać linki wewnętrzne do najbardziej popularnych wpisów na stronie oraz do kategorii i tagów.
- Keyword Cannibalization (Kanibalizacja słów kluczowych)
Kanibalizacja słów kluczowych to problem, który może pojawić się podczas rozszerzania strony internetowej o nowe treści (wpisy). Jeśli strony w obrębie tej samej witryny zawierają podobne słowa kluczowe i frazy z długim ogonem, zaczynają ze sobą konkurować i zabierają sobie nawzajem elementy kluczowe do lepszego pozycjonowania.
Kanibalizacja słów kluczowych – przykłady
Kanibalizacja słów kluczowych ma miejsce wówczas, gdy na stronie zamieszczane są wpisy na podobne tematy i o podobnej treści. Na przykład, jeśli jeden z tekstów zawiera słowa kluczowe kanibalizacja słów kluczowych, a drugi zagrożenie kanibalizacja słów kluczowych, to algorytmy wyszukiwarki Google mogą mieć problem z zakwalifikowaniem tylko jednego z tych tekstów jako głównego na dany temat. W efekcie spada pozycjonowanie obydwu podstron. Prawdopodobieństwo Kanibalizacji słów kluczowych wzrasta jeśli w obydwu tekstach użyte są te same frazy, jedynie odmienione przez przypadki lub ze zmienioną kolejnością wyrazów.
Kanibalizacja słów kluczowych a SEO
Kanibalizacja słów kluczowych to zjawisko niekorzystne ze względu na pozycjonowanie stron. Teksty zawierające podobne słowa kluczowe powodują, że podstrony, na których są publikowane, zaczynają ze sobą konkurować w obrębie tej samej witryny, co finalnie może osłabić pozycję nie tylko ich, ale całej domeny. Z tego względu w działaniach SEO należy brać pod uwagę poprzednie wpisy na stronie i przeanalizować je pod kątem użytych w nich słów kluczowych.
Jak rozwiązać problem Kanibalizacji słów kluczowych
Działania SEO w kierunku uniknięcia Kanibalizacji słów kluczowych, to przede wszystkim audyt, który ma na celu wykrycie problemu i określenie jakie teksty wzajemnie „pożerają” użyte w nich słowa kluczowe. Aby ten problem rozwiązać, można usunąć niektóre wpisy lub połączyć dwa lub więcej tekstów w jeden. Algorytmy wyszukiwarki będą wówczas analizować, indeksować i pozycjonować ze względu na dane słowa kluczowe tylko jedną podstronę. Jeśli chcemy zachować wszystkie wpisy i ich oryginalny układ, problem Kanibalizacji słów kluczowych można częściowo rozwiązać optymalizując strukturę linkowania wewnętrznego.
- Keyword Density (nasycenie słowami kluczowymi)
Keyword density, czyli nasycenie słowami kluczowymi lub gęstość słów kluczowych, to wyrażany w procentach wskaźnik mówiący jak przedstawia się ilość występowania słowa kluczowego w danym tekście względem długości tego tekstu. Nasycenie słowami kluczowymi liczy się według wzoru: Liczba użyć danego słowa kluczowego dzielona przez liczbę wszystkich słów występujących w tekście razy 100, przy czym wynik wyrażany jest w procentach. Zatem jeśli dane słowo kluczowe występuje w tekście 3 razy, a tekst ma 100 słów, to wskaźnik Keyword dDnsity dla tego słowa kluczowego będzie wynosił 3 procent.
Nasycenie słowami kluczowymi – optymalne wartości
Wbrew pozorom zbyt duże nasycenie słowami kluczowymi nie jest korzystne z punktu widzenia SEO. Obecnie nadmierne użycie słów kluczowych w tekście nie jest promowane przez wyszukiwarki. Zbyt duża ilość słów kluczowych może zostać sklasyfikowana przez algorytmy indeksujące jako spamowanie i w rezultacie strona będzie wyświetlać się niżej w wynikach organicznych lub w ogóle zostanie wykluczona. Te same słowa kluczowe zamieszczone w tekstach na różnych podstronach witryny mogą też wzajemnie się kanibalizować, a to znaczy, że w ogóle nie będą widoczne dla algorytmów wyszukiwarki. Dlatego bardzo ważna jest nie tylko jakość słów kluczowych, ale także odpowiednie rozmieszczenie ich w tekście pod względem ilości. Optymalna wartość wskaźnika nasycenia słowami kluczowymi dla całego tekstu powinna wynosić kilkanaście procent, a dla pojedynczego słowa kilka procent. Przyjmuje się, że fraza kluczowa nie powinna powtarzać się częściej niż 2-3 razy na tysiąc znaków ze spacjami. Należy przy tym pamiętać, że jeśli na stronie użyte są alternatywne opisy plików graficznych, użyte w nich słowa kluczowe będą wliczać się do wskaźnika gęstości słów kluczowych.
Nasycenie słowami kluczowymi a naturalność tekstu
Podstawowym warunkiem, jaki musi spełniać tekst, by strona miała szansę na dobre pozycjonowanie, to jego naturalność i oryginalność. Powinien być przydatny dla użytkownika, czyli odpowiadać na zapytania wpisywane w wyszukiwarkę. Umiejętnie użyte słowa kluczowe zwiększają widoczność strony dla programów indeksujących, ale biorą one także pod uwagę naturalność języka, jakim napisany jest tekst. Dlatego na stronach w języku polskim dobrym działaniem jest zamieszczanie słów kluczowych nie tylko w mianowniku, ale też odmienianych przez przypadki i w taki, żeby naturalnie wpasowywały się w treść.
- Keyword Research Tools (Narzędzia do wyszukiwania słów kluczowych)
Keyword Research Tools to narzędzia pozwalające na wyszukiwanie słów kluczowych ważnych z punktu widzenia optymalizacji SEO. Keyword Research Tools są dostępne online.
Narzędzia do wyszukiwania słów kluczowych – wyszukiwanie słów kluczowych
Aby znaleźć odpowiednie słowa kluczowe należy wejść np. na stronę Google Keyword Planner i wpisać poszukiwaną frazę/ zapytanie. Wyszukiwarka wyświetli sugerowane słowa kluczowe, także słowa kluczowe z długim ogonem, przydatne do specyfikacji treści pod konkretną grupę użytkowników. Keyword Research Tools dostarczają sugestii odnośnie słów kluczowych (zakładka Keyword Suggestions) oraz zapytań, jakie mogą być wpisywane przez użytkowników w wyszukiwarkę (zakładka Questions).
Narzędzia do wyszukiwania słów kluczowych – działania zaawansowane
Długa lista słów kluczowych udostępniona przez narzędzia do wyszukiwania słów kluczowych może zawierać powtórzenia i frazy nieprzydatne dla danego tekstu. Zaawansowane funkcje dostępne na stronach z narzędziami do wyszukiwania słów kluczowych pozwalają na wykluczanie niektórych fraz. Ostateczna lista sugerowanych słów kluczowych powinna być znacznie bardziej przydatna. Wartościowe słowa kluczowe można też wybrać samodzielnie, po zapisaniu wyników sugerowanych przez narzędzia do wyszukiwania słów kluczowych w Excelu lub w notatniku. Przy korzystaniu z narzędzi do wyszukiwania słów kluczowych przy każdej proponowanej frazie wyświetlana jest średnia liczba jej wyszukiwań w miesiącu. Te dane mają duże znaczenie dla wyboru słów kluczowych w celu optymalizacji tekstu.
Narzędzia do wyszukiwania słów kluczowych – korzyści
Narzędzia do wyszukiwania słów kluczowych ułatwiają wyszukiwanie fraz, które po wprowadzeniu do tekstu mogą przyczynić się do lepszego pozycjonowania strony. Korzystając z Keyword Research Tools można sprawdzić średnią miesięczną liczbę wyszukiwań dla danej frazy, konkurencyjność frazy oraz stawkę za kliknięcie w reklamę. Dzięki tym danym można podjąć sprawne działania SEO w celu lepszego pozycjonowania strony.
- Keyword Stuffing (Umieszczanie słów kluczowych na siłę)
Keyword Stuffing, czyli umieszczanie w tekście (upychanie) słów kluczowych na siłę, to praktyka należąca do nieetycznych praktyk Black Hat SEO. Jest ona źle postrzegana przez algorytmy wyszukiwarki i na dłuższą metę działa na niekorzyść strony – obniża jej pozycjonowanie w wynikach organicznych.
Keyword Stuffing – dlaczego nie warto upychać słów kluczowych na siłę
Słowa kluczowe w tekście to podstawa SEO. Algorytmy indeksujące wyszukiwarki na ich podstawie klasyfikują zawartość strony pod kątem użyteczności dla osób wpisujących dane zapytanie/ frazy. Mogłoby się wydawać, że im więcej słów kluczowych w tekście, tym lepiej. Sprawa jest jednak bardziej subtelna i skomplikowana. Nadmierne nasycenie tekstu słowami kluczowymi, czyli Keyword stuffing sprawia, że treść wygląda nienaturalnie. Użytkownik nawet po pobieżnej lekturze ma wrażenie, że coś z danym tekstem jest nie tak. Podobnie oceniają tekst z nadmierną ilością słów kluczowych najnowsze algorytmy wyszukiwarki Google (Google Panda i Google Penguin). Jest on klasyfikowany jako spamowanie i próba oszustwa, a to sprawia, że nawet jeśli początkowo wyniki organiczne były świetne, po wykryciu Keyword stuffing strona może znaleźć się na dużo gorszej pozycji w rankingach, a nawet zostać usunięta z przeglądarki.
Keyword stuffing – przykłady
Algorytmy Google za keyword stuffing uznają:
- zbyt częste powtarzanie tego samego słowa lub frazy, tak że tekst traci na naturalności,
- wpisywanie w meta description słów kluczowych w jednym ciągu,
- podawanie listy nazw miejsc lub miejscowości (pozycjonowanie lokalne w stylu Black Hat SEO).
Jak uniknąć keyword stuffingu?
Warto postawić na dobre praktyki SEO i stosować starannie dobrane słowa kluczowe w wyważonej ilości. Przydatny jest tu wskaźnik nasycenia tekstu słowami kluczowymi – nie powinno być ich więcej niż 3 na 1000 znaków ze spacjami. Nie należy też ulegać pokusie wpisywania słów kluczowych często wpisywanych w wyszukiwarkę, ale nie mających związku z treścią tekstu na stronie.
- Local SEO Pozycjonowanie lokalne (SEO lokalne)
SEO lokalne to działania mające na celu optymalizację strony na skalę lokalną, to jest w wyszukiwaniach w przeglądarce dotyczących określonego miejsca – na przykład miasta albo jego dzielnicy. SEO lokalne jest także określane jako pozycjonowanie lokalne strony, co ma ścisły związek z Mapami Google.
SEO lokalne – optymalizacja na konkretną skalę
SEO lokalne wychodzi naprzeciw realnym zapytaniom użytkowników wpisywanym w wyszukiwarkę. Wiele osób szuka danego typu usług – sklepu, lokalu, specjalisty – w konkretnym miejscu. Użytkownicy często wpisują przy zapytaniu w wyszukiwarce nazwę miasta, dzielnicy lub mniejszej miejscowości, zależnie od tego, gdzie w danym czasie się znajdują. SEO lokalne to taka optymalizacja strony, by wyświetlała się ona po wpisaniu nazwy usługi/ sklepu oraz nazwy miejscowości/ dzielnicy miasta. Dzięki lokalnemu SEO strona jest dostosowana do konkretnej grupy użytkowników, potencjalnie zainteresowanych skorzystaniem z oferowanych usług.
Jak wprowadza się SEO lokalne
Pozycjonowanie lojalne strony (SEO lokalne) realizuje się poprzez lokalne pozycjonowanie w wyszukiwarce oraz poprzez dodanie wizytówki firmy w Mapach Google (Google Maps). W celu realizacji pozycjonowania lokalnego można użyć dostępnych online narzędzi, które podpowiedzą jakie słowa kluczowe będą odpowiednie ze względu na daną lokalizację. Zwykle jest to nazwa usługi + nazwa miasta. Jeśli w treściach na stronie pojawią się takie właśnie frazy kluczowe, także (a zwłaszcza!) te z długim ogonem, zwiększa się szansa na lepszą rozpoznawalność dla algorytmów indeksujących, właściwe sklasyfikowanie, a co za tym idzie lepsze wyniki organiczne (wyższe pozycjonowanie w wyszukiwarce). Dodanie wizytówki w Mapach Google automatycznie spełni podobne zadanie.
Optymalizacja SEO lokalne – dla kogo jest przydatna
SEO lokalne to dobra strategia promocji zwłaszcza dla mniejszych i średnich firm, które nie są ogólnie rozpoznawalne. Po wpisaniu rodzaju usług i nazwy geograficznej użytkownik otrzymuje wyniki uwzględniające na wysokich miejscach w wyszukiwarce daną firmę, co zwiększa prawdopodobieństwo skorzystania z jej oferty. SEO lokalne sprawdzi się zarówno w przypadku mieszkańców danej miejscowości, którzy jeszcze nie wiedzą o twojej firmie, jak i turystów, którzy skorzystają z oferty sporadycznie, ale być może polecą twoje usługi znajomym.
- LSI Keywords (Latent Semantic Indexing Keywords)
LSI (Latent Semantic Indexing Keywords), czyli utajone/ ukryte semantyczne słowa kluczowe/ ukryte indeksowanie semantyczne, to słowa i frazy mające związek semantyczny (znaczeniowy) ze słowami kluczowymi użytymi w treściach zamieszczonych na stronie.
Czym dokładnie są semantyczne słowa kluczowe
Semantyka to nauka o znaczeniach słów i wyrażeń, w odróżnieniu od syntaktyki, która zajmuje się jedynie formalną budową wyrazów i fraz. Ukryte semantyczne słowa kluczowe są powiązane z treściami zamieszczonymi na stronie, a konkretnie z użytymi w nich słowami kluczowymi, które mają wpływ na pozycjonowania strony. Utajone semantyczne słowa kluczowe wpasowują się naturalnie w treść tekstu i są istotne ze względu na poruszaną w nim tematykę. Doprecyzowują znaczenia użytych w tekście terminów, tak by ich znaczenie było jednoznaczne dla algorytmów indeksujących oraz dla czytelnika.
Semantyczne słowa kluczowe – przykłady
Semantyczne słowa kluczowe są przydatne gdy w tekście pojawiają się wieloznaczne słowa kluczowe, na przykład słowo pióro, które może odnosić do przyrządu służącego dawniej do pisania lub elementu pokrywającego ciało ptaka. Ukryte indeksowanie semantyczne może w tym przypadku polegać na wprowadzeniu w tekście ujednoznaczniających fraz takich jak upierzenie czy ptasie pióra. Opcjonalnie można dodać nazwę gatunku ptaka, którego dotyczy tekst. Inny przykład do słowo Saturn. Może oznaczać szóstą planetę Układu Słonecznego, staroitalskiego boga rolnictwa, zasiewów i czasu, greckie bóstwo utożsamiane z Kronosem lub być nazwą własną np. sklepu/ klubu fitness/ solarium. Doprecyzowanie znaczenia, w jakim użyte jest kluczowe słowo w tekście za pomocą ukrytego indeksowania semantycznego pozwala algorytmom wyszukiwarki na poprawne sklasyfikowanie strony, a co za tym idzie zwiększa szansę na wyższe jej pozycjonowanie w wynikach organicznych. Ukryte indeksowanie semantyczne może być postrzegane jako jedno z działań SEO, które ma na celu optymalizację treści tak, by poprawić rankingi strony.
Użycie semantycznych słów kluczowych – czy jest przydatne
LSI doprecyzowują znaczenie słów kluczowych i umieszczają je, podobnie jak cały tekst, we właściwym kontekście. Można rozumieć je również jako wyrazy z bliskiej okolicy/ rodziny słów kluczowych. Korzystanie z LSI jest przydatne zarówno ze względu na indeksowanie strony (roboty indeksujące mają ułatwione zadanie), jak i komfort czytelników, którzy łatwiej odnajdują treści, o które im chodziło w zapytaniu wpisywanym w wyszukiwarce. Używanie w tekście semantycznych słów kluczowych jest też z korzyścią dla jego oryginalności i atrakcyjności. Nie ma nic bardziej zniechęcającego niż monotonne użycie tych samych słów kluczowych lub niedoprecyzowanie znaczenia, w jakim są używane. Co ważne, LSI to nie zwykłe synonimy, a frazy powiązane znaczeniowo ze słowem kluczowym.
- Mobile-First Indexing (Indeksowanie zoptymalizowane pod kątem urządzeń mobilnych)
Mobile-First Indexing to indeksowanie ze względu na wersję strony dostosowaną do wyświetlania na urządzeniach mobilnych (mobile friendly). Taki rodzaj indeksowania nie wyklucza stron nieprzeznaczonych dla urządzeń mobilnych (wersji na komputer), jednak pozycjonuje je niżej.
Indeksowanie zoptymalizowane pod kątem urządzeń mobilnych – cel
Wyszukiwarki internetowe takie jak Google biorą pod uwagę zmieniające się przyzwyczajenia i zachowania użytkowników sieci i starają się dostosować do nich wyświetlane wyniki organiczne. Coraz więcej osób przegląda strony internetowe w telefonie, stąd strategia Mobile-First Indexing. Jej celem jest zwiększenie przydatności wyświetlanych wyników dla użytkownika, tak by miał on dostęp do stron odpowiednich dla urządzeń mobilnych. Strony te będą wyświetlać się na liście wyników na pierwszych miejscach, co nie oznacza, że starsze wersje (przeznaczone na komputer) zupełnie z tej listy znikną.
Indeksowanie zoptymalizowane pod kątem urządzeń mobilnych a SEO
Dostosowanie strony do wymogów związanych z wyświetlaniem na urządzeniach mobilnych (prostszy układ, większe przyciski, infinite scrolling) jest jednym z działań SEO. Algorytmy indeksujące wyszukiwarki biorą pod uwagę wiele czynników związanych z układem i jakością treści na stronie, jak również kwestie techniczne, takie jak to, czy strona jest dostosowana do wyświetlania na urządzeniach mobilnych. To obecnie ważny parametr, z uwagi na strategię indeksowania pod kątem urządzeń mobilnych. Do oceniania trafności strony w kontekście danego zapytania w pierwszej kolejności brana jest pod uwagę jej wersja mobilna (jeśli strona nie ma takiej wersji, także jest indeksowana, ale brak dostosowania do urządzeń mobilnych obniża jej pozycję w rankingach). Dlatego to na wersji mobilnej (a w pierwszej kolejności na utworzeniu wersji strony mobile friendly) powinny skupić się zabiegi SEO. Najbardziej przydatne z ekonomicznego widzenia w przypadku tworzenia nowych stron jest wprowadzenie od razu wersji mobilnej i jej optymalizacja pod kątem SEO.
- Niche SEO (SEO niszowe)
SEO niszowe to działania mające na celu optymalizację strony prezentującej specjalistyczne treści skierowane do konkretnej, niekoniecznie licznej grupy odbiorców.
SEO niszowe – specyfika i wpływ na pozycjonowanie strony
SEO niszowe, czyli optymalizacja strony skierowanej do konkretnej grupy klientów, teoretycznie jest dość prostym zadaniem. Taka strona ma swoich lojalnych czytelników i odbiorców, a słowa kluczowe użyte w publikowanych na niej treściach jasno wskazują na to, czego dotyczy. Taka strona ma mniejszą konkurencję (mniej stron zamieszcza podobne lub identyczne treści), jest też prostsza do zaindeksowania przez algorytmy wyszukiwarki. Strona, która wykorzystuje SEO niszowe ma duże szanse na lepsze pozycjonowanie, czyli wyświetlanie się wyżej w wynikach organicznych.
SEO niszowe w praktyce i jego zalety
SEO niszowe to działania polegające na lepszej, bardziej dokładnej specyfikacji strony, czyli dookreślenia, czego dotyczą publikowane na niej treści. Można to zrobić ujednolicając i precyzując meta dane, a także wprowadzając w tekstach zamieszczonych na stronie niszowe słowa kluczowe.
Taka strona, o ile optymalizacja wykonana jest zgodnie z zasadami sztuki dobrego SEO, będzie wyświetlać się wyżej w wynikach organicznych, a to dlatego że:
- niszowe obszary rynku online są zawsze mniej liczne, zatem strona ma mniejszą konkurencję,
- algorytmy sieciowe dokładnie wiedzą, czego dotyczy strona i mogą dopasować wyniki wyszukiwania do intencji i preferencji użytkownika – w tym przypadku liczy się zainteresowanie konkretnych potencjalnych klientów, nie ilość kliknięć i odwiedzeń strony,
- im bardziej niszowa strona, tym większy jej autorytet w wyszukiwarce, co ma przełożenie na lepsze pozycjonowanie w kontekście danej frazy kluczowej.
SEO niszowe jest też dobrym sposobem na redukcję kosztów reklamy. Ustalenie specyfiki rynku zbytu i profilu klienta, do którego chcemy dotrzeć, skutecznie przesuwa stronę w górę na liście wyników organicznych, a więc bezpłatnych. Aby sprawdzić skuteczność działań SEO niszowego warto korzystać z narzędzi Google Analytics i Google Search Console.
- Outbound Links (linki wychodzące)
Outbound links, czyli Linki wychodzące, to rodzaj hiperłączy zamieszczonych w tekście, które przekierowują do innej domeny/ witryny. Linki wychodzące są przydatne zarówno dla użytkowników, którzy mogą przejść na adres innej domeny bezpośrednio z danej strony, a także dla robotów indeksujących.
Linki wychodzące – znaczenie dla SEO
Linki wychodzące mają mniejsze znaczenie dla pozycjonowania strony niż linki zwrotne (przekierowujące z innej strony na naszą), ale mogą być w tym celu przydatne. Wszystko zależy od rodzaju linków wychodzących dodanych na stronie. Niektóre z nich mogą oddawać moc stronie, do której przekierowują (Dofollow), a to wzmacnia jej pozycję w wyszukiwarce. Jeśli więc chcemy poprawić pozycjonowanie strony w wynikach organicznych, jednym z działań SEO może być dodanie linków wychodzących Dofollow na innej stronie/ stronach.
Linki wychodzące – korzyści dla użytkowników
Linki wychodzące są praktycznym rozwiązaniem, które doceniają użytkownicy internetu. Dzięki zamieszczeniu tego rodzaju linków w tekście możliwe jest przekierowanie np. do sklepu, gdzie można kupić dany produkt albo na stronę firmy/ producenta. Użytkownik nie musi wpisywać dodatkowych zapytań w wyszukiwarkę, co znacznie poprawia komfort i skraca czas potrzebny na wyszukiwanie informacji.
Ważną zasadą jest to, by Linki wychodzące były wysokiej jakości, to jest prowadziły do zaufanych, autoryzowanych witryn, powiązanych tematycznie z treścią artykułu. Jest to istotne ze względu na doświadczenie użytkownika, a także brane pod uwagę przez algorytmy wyszukiwarki podczas indeksowania strony.
- Page Authority (Autorytet strony)
Autorytet strony to określenie służące jako wskaźnik jej wartości w określonej dziedzinie lub dla danego typu zapytań wpisywanych w okno wyszukiwarki. Autorytet strony jest zależny od wielu czynników i jest postrzegany jako jeden z elementów mających wpływ na pozycjonowanie strony w wynikach organicznych przez algorytmy indeksujące.
Od czego zależy Autorytet strony
Autorytet strony zależy między innymi od:
- wieku domeny – witryny funkcjonujące ponad 3 lata postrzegane są jako posiadające autorytet,
- wartości publikowanych treści (tekstów wysokiej jakości)
- autorytetu autorów tekstów (chodzi głównie o ich rozpoznawalność jako ekspertów)
- konkurencyjności strony w danej dziedzinie.
Ocena autorytetu strony przebiega inaczej w zależności czy dokonują jej realni użytkownicy, czy roboty sieciowe. Użytkownicy biorą pod uwagę głównie merytoryczną poprawność i przydatność treści, opinie innych użytkowników oraz prestiż autorów tekstów zamieszczanych na stronie (cenione są wypowiedzi ekspertów). Algorytmy sieciowe przy ocenie autorytetu strony kierują się jej wiekiem, przydatnością treści w kontekście danego zapytania, ruchem na stronie, wskaźnikiem odrzuceń, opiniami użytkowników i wieloma innymi czynnikami, z których część pozostaje tajemnicą znaną jedynie programistom i/ lub programom indeksującym.
Autorytet strony a jej pozycjonowanie
Strony oceniane przez algorytmy wyszukiwarki jako posiadające wyższy autorytet nie są automatycznie pozycjonowane najwyżej, ale autorytet strony jest ważnym elementem pozycjonowania. Podobnie jest z wartości linków przychodzących – jeśli pochodzą z witryny o wysokim autorytecie, linkowanie pozytywnie wpłynie na pozycjonowanie naszej strony. Na zwiększenie autorytetu strony składają się działania SEO związane z wyborem odpowiednich słów kluczowych, poprawie struktury linkowania i publikowaniem kompetentnych, wartościowych treści. Taktyki te same w sobie mają wpływ na lepsze pozycjonowanie strony, więc można powiedzieć, że dążenie do poprawy autorytetu strony jest dobrą strategią uzyskania lepszych wyników organicznych.
- Rich Snippets (wyniki rozszerzone, rozszerzony opis strony)
Rich snippets, czyli wyniki rozszerzone, to elementy opisu strony zawierające dodatkowe informacje, które pozwalają na lepsze pozycjonowanie strony w wynikach organicznych wyszukiwarki. Wyniki rozszerzone są przydatne dla użytkownika i zwiększają zainteresowanie stroną oraz generują pozytywne doświadczenia związane z jej odwiedzeniem.
Jak wyglądają Rich Snippets w praktyce
Rich Snippets są bardziej szczegółowe niż zwykłe opisy i mogą podawać informacje takie jak godziny otwarcia, adres firmy/ sklepu, telefon i opinie innych użytkowników. Wśród standardowych elementów Rich Snippets znajdują się też informacje odnośnie średniej oceny produktu/ usługi oraz zdjęcia, cena i aktualna dostępność produktu. Mile widziane są breadcrumbs ułatwiające poruszanie się na stronie (jej nawigację). Wyniki rozszerzone to także mapy, obrazki, atrakcyjne formy reklamy oraz filmiki zachęcające do aktywności na stronie i dłuższego pozostania w jej obrębie. W przypadku tekstów merytorycznych w Rich Snippets podaje się autora tekstu i datę publikacji. O tym jakie wyniki rozszerzone zostaną wyświetlone w wyszukiwarce decydują jej algorytmy.
Wyniki rozszerzone a SEO
Wyniki rozszerzone mają na celu zwiększyć atrakcyjność strony z punktu widzenia użytkownika. Pomagają budować pozytywny wizerunek firmy/ marki/ produktu i zachęcają do zakupu, skorzystania z usługi lub zapisania się do newslettera. Rich snippets to także dobry sposób, by doprecyzować ofertę i wyróżnić ją na tle konkurencyjnych stron. Generują większy ruch na stronie, dzięki czemu jest ona wyżej pozycjonowana w wynikach wyszukiwarki. Wyniki rozszerzone pozwalają także zbudować pozytywną relację z klientem, który postrzega stronę jako ciekawszą i bardziej przydatną ze względu na jego preferencje i to, czego akurat szuka.
Wyniki rozszerzone a opinie klientów i informacje o dostępności produktu
Oceny i opinie klientów to bardzo ważny element strategii wizerunkowej firmy/ marki. Informacja o średniej ocen podana w wynikach rozszerzonych pozwala użytkownikom wyciągnąć wstępne wnioski na temat jakości produktu/ usługi i skłonić ich do skorzystania z oferty. Podobnie działają informacje o dostępności produktu. Jeśli jest on chwilowo niedostępny, warto o tym uczciwie poinformować, tak by potencjalny klient nie poczuł się rozczarowany przystępując do zakupów. Można też dać przekierowanie do innego, podobnego produktu.
- Robots Meta Tag
Robots Meta Tag, to meta znaczniki przeznaczone dla robotów wyszukiwarki. Stosujac Robots Meta Tag można przekazać robotom crawlingującym i algorytmom indeksującym określone informacje na temat strony, co ułatwia im pracę i zapobiega problemom z indeksowaniem.
Robots Meta Tag – do czego służą
Meta tagi nadpisane są w kodzie strony w HTLM. Nie są widoczne dla użytkowników, a jedynie dla robotów sieciowych. Zawierają instrukcje dla robotów odnośnie tego, jak powinny one traktować daną stronę. Za pomocą tych znaczników można zablokować dostęp do strony, ograniczyć go lub zezwolić na pełne indeksowanie. Meta tagi chronią treści, które nie powinny być udostępniane w wyszukiwarce (na przykład zdjęcia) i jednocześnie są użyteczne ze względu na SEO – dają algorytmom instrukcje, które mogą mieć wpływ na pozycjonowanie strony. W odróżnieniu od robots.txt,robots meta tag dotyczą jednej, konkretnej strony (podstrony), nie całej witryny. Można dzięki nim oznaczyć na przykład jeden konkretny tekst.
Robots Meta Tag a SEO
Robots Meta Tag to narzędzie przydatne w działaniach mających na celu optymalizację strony, czyli SEO. Dzięki meta tagom robots można oznaczyć konkretne treści i inne elementy strony (na przykład linki, zdjęcia), które mają pozostać niewidoczne dla programów indeksujących. Takie ograniczenie dostępu sprawdzi się w sytuacji, jeśli z jakiegoś powodu te elementy mogłyby wpłynąć na niższe pozycjonowanie strony – na przykład dany wpis jest dopiero wersją roboczą i może zawierać linki niskiej jakości. Programy indeksujące nie biorą go pod uwagę widząc instrukcję Robots meta tag, a zatem nie będzie on miał negatywnego wpływu na kolejność wyświetlania się strony na liście wyników organicznych. Zatem: dzięki meta tagom robots można chronić prywatne treści, można też zadbać o pozycjonowanie strony.
Robots Meta Tag w praktyce
Meta tagi dla robotów sieciowych mogą mieć dowolną treść. Najczęściej stosuje się instrukcje:
- index (strona przeznaczona do indeksowania)
- noindex (blokowanie indeksowania)
- follow (zezwolenie na indeksowanie linków)
- nofollow (blokowanie linków)
- noarchive (zakaz przechowywania kopii poprzedniej wersji strony w pamięci podręcznej)
- no snippet (blokowanie widoczności snippetów)
- all (zezwolenie na indeksowanie strony i linków)
- Schema Markup (Znacznik schematu)
Schema Markup czyli Znacznik schematu to metadane służące do wygenerowania rozszerzonego opisu strony nad kodem HTLM. Opis ten jest widoczny jedynie dla algorytmów indeksujących wyszukiwarki i ułatwia sklasyfikowanie treści strony w kontekście wpisywanych w wyszukiwarkę zapytań.
Znacznik schematu – dodatkowe dane dla wyszukiwarek
Znaczniki schematu to dane strukturalne współpracujące z HTLM, które pozwalają ujednoznacznić treści zamieszczone na stronie. Na przykład, jeśli w tekstach zamieszczonych na stronie i w tagu pojawia się słowo kluczowe Saturn, nadpisanie znacznika schematu nad kodem HTLM pomoże wyszukiwarce rozstrzygnąć, czy chodzi o nazwę planety, czy o nazwę własną firmy/ sklepu.
W internecie dostępne są narzędzia, za pomocą których możliwe jest dodawanie znaczników schematu do witryny. Po wpisaniu danych do formularza na stronie (np. schema.org) otrzymamy sformatowane znaczniki schematu odpowiednie dla danej witryny. Obecnie wykorzystywane przez wyszukiwarki są również znaczniki wyszukiwania głosowego.
Znacznik schematu a SEO
Znaczniki schematu mają wpływ na pozycjonowanie strony, ich dodawanie i optymalizacja jest zatem jednym z elementów działań SEO. Algorytmy sieciowe mogą dzięki znacznikom schematu szybciej i efektywniej zaindeksować stronę. To przydatne dane strukturalne, za pomocą których można poprawić widoczność i pozycjonowanie strony. Znaczniki schematu produktu mogą też pobierać jego obraz i inne informację i wyświetlać je w wynikach organicznych. Mogą również wyświetlać treść z witryny odpowiadającą na wpisane w wyszukiwarce pytanie jeszcze zanim użytkownik otworzy stronę. Są zatem użyteczne z punktu widzenia SEO, zarówno ze względu na algorytmy wyszukiwarki, jak i odbiór strony przez użytkowników.
Znaczniki schematu – formaty i rodzaje
Stosuje się trzy typy formatów znaczników schematu: JSON-LD, Microdata i RDFa. Są one kompatybilne z większością wyszukiwarek, przy czym Google preferuje JSON-LD.
Najczęściej używa się znaczników schematu produktu, artykułów i recenzji. Dzięki tym metadanym algorytmy sieciowe otrzymują uproszczony schemat potrzebny do indeksowania strony.
- SEO Audit (Audyt SEO)
Audyt SEO to kompleksowa i wnikliwa analiza strony/ witryny internetowej pod kątem jej dostosowania do wymogów algorytmów wyszukiwarki. Audyt SEO ma na celu wykrycie słabych punktów i problemów, które mogą mieć negatywny wpływ na pozycjonowanie strony w wyszukiwarce.
Jak przeprowadza się Audyt SEO?
Audyt SEO polega na przeprowadzeniu szeregu czynności mających za zadanie ocenę stopnia zoptymalizowana strony/ witryny, czyli wcześniejszych działań SEO. Sprawdzane są:
- wskaźniki klikalności,
- współczynnik odrzuceń,
- pozycjonowanie strony w wyszukiwarce/ miejsce na liście wyników organicznych,
- użycie słów kluczowych/ nasycenie słowami kluczowymi,
- kwestie techniczne związane ze stroną, w tym szybkość ładowania,
- użyte linki zwrotne/ struktura linkowania
- widoczność strony,
- ruch na stronie,
- dostosowanie do urządzeń mobilnych.
Do przeprowadzanie Audytu SEO przydatne są narzędzia, które pozwalają monitorować liczbę i jakość linków zwrotnych, nasycenie tekstu słowami kluczowymi oraz kwestie związane z ruchem na stronie. Wiele z nich można znaleźć w Google Search Console (dawniej Google Webmaster Tools), ale dostępne są także bardziej specjalistyczne programy służące do Audytu SEO.
Kiedy przeprowadza się Audyt SEO
Audyt SEO można przeprowadzić w dowolnym czasie kampanii mającej na celu optymalizację strony. Agencja SEO zwykle przeprowadza taki audyt na samym początku współpracy, a następnie proponuje i wdraża strategię mającą na celu poprawę widoczności i pozycjonowania strony/ witryny. Audyt SEO można także przeprowadzić w trakcie optymalizacji, żeby sprawdzić czy działania SEO przynoszą pożądane efekty..
- SEO-Friendly URLs (Adres URL zgodny z SEO, Adres URL zgodny z SEO i przyjazny dla użytkownika)
Adres URL zgodny z SEO to adres strony, która jest zoptymalizowana zgodnie z zasadami SEO, czyli zawiera odpowiednie słowa kluczowe, posiada właściwą strukturę linków oraz jest użyteczna i atrakcyjna dla użytkownika. SEO-Friendly URL (adres URL zgodny z zasadami SEO) powinien być również User Friendly (przyjazny dla użytkownika).
Adres URL zgodny z SEO i przyjazny dla użytkownika
Strategie SEO obejmują różne działania, zależnie od aktualnych potrzeb i problemów dotyczących strony. Optymalizacja zwykle polega na dodaniu odpowiednich słów kluczowych we właściwej ilości, rozbudowaniu i zoptymalizowaniu struktury linków oraz dostosowaniu strony do korzystania z niej na urządzeniach mobilnych. Czasami trzeba poprawić również kwestie mające wpływ na szybkość ładowania strony. Adres URL zgodny z SEO powinien zawierać odpowiedni tytuł i nagłówki, słowa kluczowe i posiadać czytelny układ ułatwiający nawigację strony. Warto usunąć wszystkie niepotrzebne informacje i podstrony, uporządkować zamieszczone treści i zadbać o to, by były one zrozumiałe i przydatne dla użytkownika. Zaleca się też usunąć numerację stron oraz daty poszczególnych postów.
Adres URL zgodny z SEO a pozycjonowanie strony
Adres URL zgodny z SEO ma spory wpływ na pozycjonowanie strony w wynikach organicznych wyszukiwarki. Dodanie wartościowych słów kluczowych i fraz z długim ogonem oraz usunięcie lub połączenie tych stron, na których słowa kluczowe się kanibalizują, może znacząco podnieść pozycję strony w rankingach. Precyzyjne określenie tematyki strony za pomocą tytułu i meta danych jest zaś pomocne dla programów indeksujących wyszukiwarki, które mogą dzięki temu łatwiej i z lepszym wynikiem dla pozycjonowania strony sklasyfikować jej treść.
- SERM (Search Engine Reputation Management)
SERM (Search Engine Reputation Management) czyli SEO wizerunkowe/ pozycjonowanie wizerunkowe SEO to zestaw działań mających na celu poprawę wizerunku firmy/ bloga/ sklepu i lepsze pozycjonowania strony w wyszukiwarkach. SERM określane jest również jako zarządzanie wizerunkiem marki/ strony/ firmy z uwagi na wyniki organiczne wyszukiwarki.
SERM – promocja wizerunku w wyszukiwarce
SERM obejmuje działania SEO i PR-owe, których zadaniem jest zbudowanie rozpoznawalnego i budzącego pozytywne skojarzenia wizerunku marki/ firmy oraz zwiększenie zasięgów w sieci poprzez lepsze pozycjonowanie stron z pozytywnymi odniesieniami do oferowanego produktu/ usługi. Dwa kluczowe elementy SERM to optymalizacja strony z uwagi na lepsze wyniki w wyszukiwarce oraz wyeksponowanie w przeglądarce pozytywnych recenzji wzmacniających reputację firmy. Pozycjonowanie wizerunkowe promuje strony, na których nazwa firmy/ marki pojawia się w pozytywnym kontekście, a obniża miejsce w wynikach organicznych tych stron, na których znaleźć można negatywne recenzje. W większości przypadków użytkownicy klikają w pierwsze 5-10 linków, które wyświetliły się w wynikach wyszukiwania. Jeśli uda się skutecznie obniżyć pozycję stron negatywnie opiniujących markę/ firmę, w zasadzie pozostają one bez wpływu na jej wizerunek.
SERM a SEO
Działania SERM nie mają charakteru czysto SEO, czyli optymalizacji strony pod kątem słów kluczowych czy budowania struktury linków. Mogą być jednak traktowane jako jeden z elementów optymalizacji pod względem wyszukiwania. Są też elementem marketingu. Wyeksponowanie na pierwszych miejscach w wynikach organicznych stron, na których pojawiają się pozytywne opinie o marce/ firmie jest dobrą strategią, by zdobyć zaufanie klientów i zwiększyć wyniki ruchu na stronie oraz sprzedaży. Oczywiście, strategia SERM powinna być popierana przez realną jakość produktu – w przeciwnym razie zadziała jedynie na krótką metę.
- SERP Features (Funkcje SERP)
SERP Feature, czyli Funkcje SERP (Search Engine Results Page) to wszystkie informacje, jakie widoczne są w wynikach wyszukiwania. Poza typowymi wynikami organicznymi i reklam obejmują również m.in. wyróżnione fragmenty tekstu odpowiadające na zapytanie użytkownika (featured snippets) wraz z linkiem do strony, zdjęcia i wizytówki firmy w Google My Business/ Google Business Profile.
Funkcje SERP – dodatkowe wyniki wyszukiwania
Standardowe sugestie wyświetlane po wpisaniu danej frazy w okno wyszukiwarki to wyniki organiczne i płatne, czyli strony, których treść najlepiej odpowiada zdaniem algorytmów wyszukiwarki na zapytanie użytkownika. Oprócz nich wyświetlane są również elementy dodatkowe takie jak szybkie odpowiedzi i Rich snippets, czyli wszelkie informacje ułatwiające użytkownikowi wybór odpowiedniej strony. Taki sposób wyświetlania jest bardzo wygodny i przydatny, ponieważ można zapoznać się z profilem strony jeszcze zanim ją otworzymy. Ułatwia to wybór i oszczędza czas.
W Funkcjach SERP mogą wyświetlać się również zdjęcia, tłumacz Google, przeliczniki jednostek i walut (tłumacz Google i przeliczniki oraz konwertery należą do tzw. Direct Answers, czyli szybkich odpowiedzi), filmy, mapy Google, wiadomości i grafy wiedzy Google.
Funkcje SERP a SEO
Funkcje SERP są bardzo użyteczne z punktu widzenia SEO, czyli optymalizacji strony pod kątem jej pozycjonowania w wyszukiwarce. Za ich pomocą można dowiedzieć się wiele o intencji użytkowników wyszukujących daną frazę, co pozwoli odpowiednio dostosować treści publikowane na stronie i wybrać wartościowe słowa kluczowe. Optymalizacja strony obejmuje również umieszczenie dodatkowych znaczników i elementów, które będą zaliczane do Funkcji SERP. Im więcej wartościowych, dostosowanych do intencji użytkowników i atrakcyjnych elementów na stronie, które wyświetlają się w wynikach wyszukiwania, tym lepiej pod względem pozycjonowania prezentują się jej SERP Features.
- Sitemap (mapa strony)
Sitemap czyli mapa strony, to protokół (plik XML) wykorzystywany do utworzenia mapy witryny, czyli mapy uporządkowanych informacji na temat wszystkich stron, które wchodzą w jej skład.
Co zawiera mapa strony
W mapie strony umieszczone są szczegółowe informacje dotyczące stron składających się na witrynę. Mapa strony zawiera znaczniki, które określają:
- adres URL każdej podstrony, czyli jej lokalizację (znacznik loc),
- datę jej ostatniej aktualizacji i to jak często jest aktualizowania (changefreq),
- informacje o linkach,
- informację o modyfikacjach strony (lastmod)
- informację o jej statusie pod względem ważności dla wyszukiwarek (znacznik priority – warto jednak wiedzieć, że wyszukiwarka Google nie bierze tego znacznika pod uwagę).
Lista wszystkich map na stronie zamieszczana jest w indeksie sitemap (sitemapindex). Indeks sitemap jest szczególnie przydatny w przypadku dużych witryn – ułatwia nawigację i zachowanie porządku.
Mapa strony a pozycjonowanie w wyszukiwarce
Mapa strony jest przydatna ze względu na indeksowanie przez algorytmy sieciowe. Dobrze skonstruowana mapa strony pomaga sprawnie ją sklasyfikować i zaindeksować i jest jednym z czynników optymalizacji strony (SEO) ze względu na wymagania algorytmów. Korzystne jest również utworzenie indeksu map stron – wyszukiwarki otrzymują za jego sprawą uporządkowaną informację jakie strony w witrynie wymagają indeksacji.
Mapy stron – rodzaje i generowanie
Sitemap może dotyczyć standardowej witryny z plikami tekstowymi, a także witryn z plikami graficznymi, filmami oraz stron Wiadomości Google.
Mapy strony można tworzyć ręcznie lub wygenerować je w systemie CMS. Ta druga metoda wymaga użycia odpowiednich wtyczek (np. Yoast SEO lub All in One SEO Tool) i/ lub programów. Można też skorzystać z darmowych generatorów map stron.
- Time on Page (Czas spędzony na stronie)
Czas spędzony na stronie to parametr określający ilość czasu, jaką użytkownik przeznaczył na korzystanie z/ czytanie pojedynczej strony. Jest ważnym wskaźnikiem ze względu na monitorowanie ruchu na stronie i działania SEO.
Czas spędzony na stronie – jak jest mierzony przez Google
Czas spędzony na stronie liczony jest od momentu kliknięcia w jej adres (otworzenia strony) do przejścia do kolejnej podstrony w obrębie tej samej witryny. Jest to zatem wskaźnik czasu, przez jaki użytkownik pozostaje na jednej (pod)stronie. Jeśli użytkownik otworzy stronę i od razu z niej wyjdzie, Czas spędzony na stronie w ogóle nie jest mierzony. Jeśli natomiast użytkownik otwiera wiele podstron w obrębie tej samej witryny, Czas spędzony na stronie nie jest liczony dla ostatniej z nich.
Czas spędzony na stronie – na co wskazuje jego długość
Czas spędzony na stronie to wskaźnik informujący zarówno o możliwych problemach, jak i o zainteresowaniu stroną. Nie zawsze im dłuższy czas spędzony na stronie, tym lepiej. Zbyt długi czas spędzony na pojedynczej stronie może świadczyć o tym, że wolno się ona ładuje lub że użytkownik ma problem ze znalezieniem na niej potrzebnych informacji. Krótki czas spędzony na stronie zwykle świadczy o tym, że użytkownik uznał jej treść za nieprzydatną lub nieinteresującą, ale nie zawsze zachodzi taka właśnie korelacja. Wiele zależy od charakteru strony – jeśli użytkownik szukał na niej linku do interesującej go podstrony i szybko go znalazł, Czas spędzony na stronie będzie krótki, ale strona okazała się przydatna.
Czas spędzony na stronie – pozycjonowanie i SEO
Czas spędzony na stronie może być brany pod uwagę przez algorytmy wyszukiwarki, ale nie jest to najważniejszy parametr, głównie z uwagi na to, że należy traktować go relatywnie (np. do charakteru podstrony). Wskaźnik ten, dostępny w raportach Google Analytics jest jednak istotny ze względu na działania SEO i często wykorzystywany do wykrywania problemów oraz generowania większego ruchu na stronie. Jeśli pojawią się problemy w postaci zbyt krótkiego/ zbyt długiego Czasu na stronie, warto poprawić strukturę linkowania wewnętrznego i przyjrzeć się treściom zamieszczonym na stronie pod kątem ich wyglądu, jasności i przydatności dla użytkownika. Zaleca się również dostosowanie strony do urządzeń mobilnych.
- User Intent (Intencja użytkownika, Intencja wyszukiwania)
Intencja użytkownika to rozpoznanie przez algorytmy wyszukiwarki zamiaru wyszukiwania, czyli intencji, jaką kierował się użytkownik wpisując daną frazę/ zapytanie. Intencja/ zamiar wyszukiwania jest bardzo ważnym parametrem z uwagi na optymalizację wyświetlanych wyników i dostosowanie ich do konkretnego użytkownika. Wyszukiwarki analizują i porównują w tym celu zachowania internautów i na tej podstawie optymalizują współczynnik konwersji.
Intencje użytkownika – ważne narzędzie optymalizacji
Algorytmy Google, zwłaszcza algorytmy RankBrain i Koliber, biorą pod uwagę realne intencje użytkowników i dostosowują wyświetlane wyniki do ich wcześniejszych zachowań w sieci. Z tego względu nowoczesne rozwiązania SEO muszą dostosować swoje strategie do rzeczywistych zachowań i naturalnego języka, jakim posługują się użytkownicy internetowych wyszukiwarek. Optymalizacja ze względu na intencje użytkownika jest jednym z działań SEO, które może poprawić pozycjonowanie strony. Optymalizacja taka polega m. in. na merytorycznym ulepszeniu i rozbudowie treści zamieszczonych na stronie, które będą stanowić konkurencyjną względem podobnych stron odpowiedź na wpisywane przez internautów zapytanie. Im lepiej dostosowana jest strona pod kątem algorytmów Google korzystających ze sztucznej inteligencji (RankBrain), tym większa szansa, że wyświetli się wyżej na liście wyników w SERP.
Typy intencji użytkownika
Algorytmy rozpoznające intencje użytkownika starają się tak dostosować wyniki wyszukiwania, by te trafne wyświetlały się już po wpisaniu fragmentu frazy, a nawet słowa kluczowego. Do najczęstszych typów rozpoznawanych intencji użytkownika należą:
- intencja nawigacji – na przykład strona logowania
- intencja uzyskania informacji – o osobie/ miejscu/ produkcie/ sposobie wykonywania czegoś (np. szydełkowania)
- intencja dokonania zakupu
- intencja porównania produktów (najlepsze kosmetyki, topowe marki)
- intencja wyszukania usług w pobliżu (wyszukiwanie lokalne) – np. lody dla psów Mokotów, najbliższy dentysta.
Zwykle po wpisaniu zapytania Google wyświetla funkcje SERP, tak by użytkownik mógł wybrać najbardziej interesującą go stronę bez konieczności otwierania i sprawdzania pozostałych.
- White Hat SEO (białe SEO, techniki Białego Kapelusza)
White Hat SEO, czyli techniki Białego Kapelusza, to działania SEO zgodne z normami uznawanymi za uczciwe i etyczne z punktu widzenia użytkownika i algorytmów sieciowych. Do White Hat SEO należą strategie mające na celu poprawę pozycjonowania strony w wynikach organicznych, ale w najmniejszym stopniu nie wprowadzające użytkownika i algorytmów w błąd ani nie nadużywające narzędzi dostępnych dla specjalistów SEO.
White Hat SEO – cele
Podstawowe cele White Hat SEO to poprawienie widoczności strony oraz jej optymalizacja pod kątem wyszukiwarki, tak by wyświetlała się jak najwyżej na liście wyników organicznych. W odróżnieniu od Black Hat SEO i od Gray Hat SEO, White Hat SEO stosuje jedynie takie praktyki i działania, którym nie można nic zarzucić. Strategia White Hat SEO stroni od wszelkiej manipulacji tagami, upychaniu w tekście nadmiaru słów kluczowych, nieuczciwego linkowania i innych podejrzanych praktyk. Przy stosowaniu WH SEO budowanie pozycji strony w wyszukiwarce może zająć nieco więcej czasu, ale za to w przeciwieństwie do wyników organicznych opartych na Black Hat SEO pozycja ta będzie mocna na dłuższą metę. Oczywiście, każda strona wymaga po jakimś czasie aktualizacji pod względem SEO, jednak strategie White Hat są znacznie bardziej bezpieczne i długoterminowo skuteczne.
White Hat SEO w praktyce
Strategia White Hat SEO skupia się na zoptymalizowaniu treści dostępnych na stronie, tak by były jak najbardziej pomocne dla użytkowników. Liczą się oryginalność i merytoryczna trafność. Słowa kluczowe pojawiają się w tekście w stosownej ilości i w naturalny sposób, podobnie jak linki zwrotne. White Hat SEO obejmuje również dostosowanie strony do urządzeń mobilnych oraz wprowadzenie meta opisów, danych strukturalnych i meta tagów, które ułatwią analizę na poziomie algorytmów indeksujących. Ważny jest również układ strony, jej uporządkowanie i intuicyjna nawigacja. White Hat SEO dba zarówno o atrakcyjność treści prezentowanych na stronie, jak i o jej atrakcyjność wizualną. Dobrze widziane są infografiki, prezentacje i filmy. Duże znaczenie dla pozycjonowania ma szybkość ładowania się strony – jej usprawnienie także należy do działań White Hat SEO, podobnie jak zadbanie o bezpieczeństwo strony, na przykład zabezpieczeniu jej certyfikatem SSL.
- Above-the-Fold SEO
Above-the-Fold Content (tekst nad fałdką) to treści widoczne po otworzeniu strony, bez konieczności jej scrollowania w dół. Jest to zatem to, co użytkownik widzi jako pierwsze, zaraz po wejściu na stronę. Wygląd, układ i Above-the-Fold Content są ważne, ponieważ często decydują o tym, czy użytkownik pozostanie na stronie i dokona zakupów czy innych czynności związanych ze stroną.
Above-the-Fold Content a pozycjonowanie strony
Algorytmy indeksujące biorą pod uwagę całość strony, nie tylko treści „nad fałdką”. Niemniej jednak, to co użytkownik widzi po otworzeniu strony, ma wpływ na jego decyzję o pozostaniu na niej. Above-the-Fold Content w dużej mierze determinuje zatem zachowanie użytkowników, a co za tym idzie wskaźnik odrzuceń strony czy wskaźnik konwersji. Te parametry mają wpływ na pozycjonowanie strony w dłuższej perspektywie czasowej, dlatego warto zadbać o układ strony i treści, które użytkownik zobaczy jako pierwsze.
Above-the-Fold Content a SEO
SEO odnośnie optymalizacji Above-the-Fold Content to przede wszystkim działania mające na celu uatrakcyjnienie tego, co widoczne zaraz po otworzeniu strony. Liczy się układ strony, intuicyjna nawigacja, dostosowanie do przeglądania na urządzeniach mobilnych, nagłówki, tytuły i wyeksponowanie podstawowych informacji o stronie i o firmie. Pierwsze wrażenie ma znaczenie dla pozycjonowania strony w przyszłości i dla SEM. Użytkownik, który uzna stronę za atrakcyjną i przydatną na podstawie Above-the-Fold Content, chętniej zapisze się do Newslettera lub/ i dokona zakupu.
- Bing Webmaster Tools (narzędzia Bing dla Webmasterów/ Administratorów stron internetowych)
Narzędzia Bing dla Webmasterów (dawna nazwa to Bing Webmaster Center) to darmowe usługi dostępne w wyszukiwarce Bing Microsoftu. Pozwalają administratorom stron internetowych dodawać ręcznie stronę do wyszukiwarki, tak by była widoczna dla robotów crawlujących, monitorowanie ruchu na stronie i inne działania ważne dla rankingów strony.
Narzędzia Bing dla Administratorów strony – co można za ich pomocą robić
Narzędzia Bing dla Administratorów stron to przydatny zestaw dla monitorowanie raportów o statusie strony i poprawienia jej pozycji na liście wyników organicznych. Za pomocą Bing Webmaster Tools można sprawdzić statystyki dotyczące ruchu i klikalności na stronie, zapoznać się z opiniami użytkowników i rozwiązać problemy ze skanowaniem i indeksowaniem strony. Narzędzia Bing dla Administratorów stron służą też do tworzenia map, nowych adresów URL i wielu innych przydatnych z punktu widzenia SEO działań takich jak sprawdzanie informacji na temat linków przychodzących czy szukanie wartościowych słów kluczowych.
Narzędzia Bing dla Administratorów a optymalizacja strony
Za pomocą Bing Webmaster Tools można uzyskać wiele danych do analizy wyników osiąganych przez stronę. Pozwala to na kompleksową analizę problemów i opracowanie strategii mającej na celu ich rozwiązanie i efektywną optymalizację strony. Narzędzia Bing dla Administratorów stron dostarczają wszystkiego, co potrzebne do poprawienia rankingów strony – od wykrycia błędów uniemożliwiających lub spowalniających skanowanie i indeksowanie, do zaawansowanych filtrów pozwalających monitorować dowolne aspekty i wskaźniki dotyczące strony/ witryny internetowej. Za pomocą Bing Webmaster Tools można też szybko i łatwo sprawdzić, czy robots.txt, czyli instrukcje dla programów wyszukiwarki zostały wprowadzone poprawnie, co przyspiesza prawidłowe indeksowanie strony.
- Canonicalization (Ustalanie/ wybór strony kanonicznej, Ustalanie adresu kanonicznego)
Ustalanie adresu kanonicznego to procedura przydatna dla uniknięcia problemu duplikowania treści. Adres kanoniczny jest wskazówką dla robotów skanujących i indeksujących którą stronę mają traktować jako główną w sytuacji, gdy na kilku lub więcej stronach pojawia się ta sama lub podobna treść.
Ustalanie adresu kanonicznego – zadanie administratora strony czy algorytmów wyszukiwarki?
Adres kanoniczny strony powinien zostać ustalony przez jej administratora. Jeśli administrator tego nie zrobi, strona kanoniczna zostanie wybrana automatycznie przez roboty sieciowe. Nie zawsze jest to korzystna sytuacja, ponieważ programy skanujące i indeksujące mogą z jakiś powodów ustalić jako kanoniczną nie tę stronę, która preferowałby administrator/ właściciel witryny. Dlatego zaleca się wprowadzenie adresu kanonicznego, czyli podanie instrukcji dla robotów wyszukiwarki, którą wersję strony mają traktować jako główną.
Jak wpłynąć na wybór strony kanonicznej
Najprostsza metoda to użycie meta tagów rel=canonical. Za ich pomocą można zdefiniować daną stronę jako kanoniczną spośród wielu innych, które zawierają podobne treści (duplicate content). Kiedy algorytmy Google indeksują witrynę, pomijają strony ze zduplikowaną treścią i analizują jedynie tę oznaczoną jako kanoniczna.
Wybór strony kanonicznej a pozycjonowanie w SERP
Wybór właściwej strony kanonicznej ma wpływ na pozycjonowanie strony z dwóch powodów. Po pierwsze, jeśli jest wiele stron o podobnej treści i żadna nie jest oznaczona jako kanoniczna, algorytmy mogą mieć problem z ich zaindeksowaniem, co obniża widoczność strony w wyszukiwarce. Po drugie, wybór jako kanonicznej nie tej strony, jaką preferuje administrator, może skutkować obniżeniem rankingów witryny, ponieważ treści na niej zamieszczone są niższej jakości (na przykład jest to wersja robocza). Dlatego bardzo ważne jest, by wybrać odpowiednią stronę i odpowiednio ją oznakować za pomocą meta tagów jako kanoniczną. Roboty sieciowe mogą uznać za kanoniczną inną stronę/ inną wersję strony nawet w takiej sytuacji, ale prawdopodobieństwo błędu jest mniejsze. Ogólne zalecenie to wybór i oznaczenie jako kanonicznej najlepszej wersji strony.
- Conversion Funnel in SEO (Ścieżka konwersji a SEO)
Ścieżka konwersji (inna nazwa to lejek konwersji) to droga, jaką przebywa użytkownik, by dokonać zakupu na danej stronie internetowej. Ścieżka konwersji jest zapisem działań klienta – od zobaczenia reklamy i otworzenia strony do momentu sprzedaży.
Ścieżka/ lejek konwersji – etapy
Ścieżka konwersji, podobnie jak podróż w realnym świecie, ma kilka etapów. Pierwszy etap to zobaczenie informacji o stronie/ produkcie. Na graficznym modelu lejka konwersji to najszersza jego część. Następnie ścieżka się zwęża – podobnie jak lejek, który jest szeroki u góry i wąski na dole: stąd nazwa. Zainteresowany użytkownik otwiera stronę, czyli podejmuje akcję. Na kolejnych etapach pozostaje coraz mniej użytkowników. Do celu (czyli w np. przypadku sklepu internetowego do finalnej sprzedaży produktu) dochodzi niewielu z początkowo zainteresowanych osób. Ścieżka konwersji to zatem wizualizacja interakcji użytkowników z witryną internetową – zapis ich zachowań od momentu zainteresowania się i wejścia na stronę do końcowego etapu (dokonania zakupu, zapisania się do newslettera czy innego działania pożądanego ze względu na charakter strony). W skrócie, etapy ścieżki konwersji można przedstawić tak:
- informacja o stronie/ produkcie (na przykład zobaczenie reklamy)
- zainteresowanie się stroną/ produktem
- decyzja o wejściu na stronę
- akcja (np. dodanie produktu do koszyka)
- finalny cel (np. dokonanie zakupu)
Ścieżka konwersji a SEO
Celem działań SEM jest, by jak najwięcej osób z tych, które weszły na daną stronę internetową pomyślnie dotarło do końcowego etapu, czyli np. dokonało zakupu. Działania SEO mają za zadanie m.in. optymalizację strony tak, by ten cel został osiągnięty. Lejek konwersji to przydatne narzędzie do analizy ruchu na stronie i wskaźnika konwersji. Można dzięki niemu dowiedzieć się wiele na temat zachowań klientów i opracować strategię poprawienia wyników. Optymalizacja SEO może dotyczyć każdego z etapów ścieżki konwersji – od reklamy (etap pierwszy), poprzez otworzenie strony aż do finalnego działania. Ważne są takie elementy jak dobra nawigacja i mapa strony, szybkość ładowania się strony, jej dostosowanie do urządzeń mobilnych, atrakcyjny wygląd strony i wybór odpowiednich słów kluczowych, który ma wpływ na widoczność strony w SERP.
- Crawl Errors (Błędy crawlowania/ skanowania)
Błędy skanowania dotyczą problemów, jakie napotykają roboty crawlujące (skanujące) podczas wstępnej analizy strony internetowej. Problemy ze skanowaniem uniemożliwiają pracę robotom indeksującym, co skutkuje brakiem widoczności strony w wyszukiwarce.
Najczęstsze błędy skanowania
Do najczęstszych błędów skanowania należą:
- błąd DNS (domain name system) związany z nazwą domeny – roboty crawlujące nie mogą odszukać nazwy domeny, co może być spowodowany zbyt długim czasem oczekiwania na odpowiedź serwera lub problemem z odszukaniem nazwy domeny na serwerze,
- problemy z serwerem – roboty crawlujące poprawnie odszukały nazwę domeny, ale nie mogą jej przeskanować ze względu na problemy występujące po stronie serwera.
Jeśli roboty nie są w stanie odszukać nazwy domeny lub czas łączenia się z serwerem jest zbyt długi, strona nie zostaje przeskanowana, a co za tym idzie, nie jest również indeksowana.
Problemy ze skanowaniem mogą być również spowodowane instrukcjami zapisanymi w robots.txt. Jeśli blokują one dostęp do strony dla robotów crawlujących, nie będzie ona widoczna w wynikach wyszukiwania. Warto zatem sprawdzić, czy dyrektywy dla robotów sieciowych zostały wprowadzone poprawnie.
Jak sprawdzić i naprawić błędy skanowania
O problemach ze skanowaniem i indeksowaniem można dowiedzieć się sprawdzając raporty o statusie strony na Google Search Console. Błędy skanowania mają dwie sekcje: powiadomienie o błędach na stronie (site errors), blokujących dostęp do strony dla robotów sieciowych oraz błędach URL – dotyczą to sytuacji, gdy roboty crawlujące nie mają dostępu do konkretnego adresu URL. Google Search Console pozwala też sprawdzić jakie inne błędy pojawiły się podczas skanowania i indeksowania strony (i ak wiele z nich zostało rozwiązanych), ile stron pomyślnie przeszło proces indeksacji, a ile zostało wprawdzie zaindeksowanych, ale wykryto na nich błędy mogące mieć wpływ na pozycjonowanie.
Sposób radzenia sobie z błędami skanowania zależy od ich rodzaju. W zależności od tego, czy dotyczą one adresu DNS czy nieprawidłowej pracy serwera, należy podjąć odpowiednie kroki, by wyeliminować przyczynę, dla której roboty skanujące nie mają dostępu do strony.
- Disavow Links (Zrzekanie się linków)
Zrzekanie się linków to narzędzie dostępne w Google Search Console, za pomocą którego można oznaczyć konkretne linki przychodzące jako te, których nie należy brać pod uwagę w procesie indeksowania strony. Jest to działanie przydatne w sytuacji, gdy dany link przychodzący może obniżyć rankingi strony docelowej.
Zrzekanie się linków a rankingi strony
Narzędzie Disavow link stosowane jest dla uniknięcia kar nakładanych przez wyszukiwarkę za stosowanie niedozwolonych linków przychodzących lub obniżenia rankingów strony wskutek linków przychodzących o niskiej wartości. Jest to dyspozycja wydawana robotom indeksującym, by ignorowały określone linki przy indeksowaniu strony. Co ważne, roboty indeksujące mogą, ale nie muszą dostosować się do tej dyrektywy. Zrzekanie się linków to dobra strategia w momencie, gdy nie można samodzielnie usunąć ze strony podejrzanych/ niskiej wartości linków pochodzących z witryny zewnętrznej. Należy jednak zachować ostrożność stosując to narzędzie, ponieważ w niektórych przypadkach zrzekanie się linków może obniżyć pozycję strony w wynikach organicznych SERP.
Zrzekanie się linków – jak stosować narzędzie Disavow
Przed zrzeczeniem się linków należy dokładnie przeanalizować plusy i minusy takiej strategii. Jest to dobry wybór gdy na stronie pojawiają się linki spamerskie lub gdy nie udało się ręcznie usunąć linków niskiej jakości. Przed użyciem narzędzia Disavow zaleca się podjęcie innych działań w celu poprawienia jakości linków przychodzących. Jeśli decydujemy się na zrzeczenie się linków, należy utworzyć ich listę w pliku tekstowym z kodowaniem UTF-8 lub zapisaną w 7-bitowym kodzie ASCII i przesłać do Google. Lista powinna zawierać adresy domen linków, których chcemy się zrzec. Maksymalna długość adresu URL ustalona jest na 2048 znaków. W niektórych przypadkach Google przesyła informację o linkach, które uznane zostały za podejrzane i mogą obniżyć rankingi strony. Wówczas można wykorzystać tę listę i przesłać znajdujące się na niej dane w celu zrzeczenia się linków. Adresy linków, których nie chcemy się zrzec można przed wysłaniem pliku do Google po prostu usunąć z listy.
- Duplicate Content Issues (Problem z duplikacją treści stron internetowych)
Duplikacje treści to strony, na których pojawiają się te same lub bardzo podobne treści. Jest to dość częsty problem, który może mieć negatywny wpływ na pozycjonowanie witryny.
Problem z duplikacją treści stron internetowych a pozycjonowanie
Duplikacja treści jest problematyczna z dwóch względów. Po pierwsze, wprowadza niepotrzebne zamieszanie i utrudnia pracę robotom indeksującym, które mają kłopot z ustaleniem, którą z wielu podobnych stron uznać za główną. Po drugie, mają negatywny wpływ na doświadczenie użytkownika. Z punktu widzenia pozycjonowania strony ważniejszy wydaje się pierwszy rodzaj niedogodności, choć doświadczenie użytkowników także ma wpływ na rankingi. Roboty indeksujące natrafiając na wiele stron o tej samej lub podobnej treści wybierają jedną z nich jako kanoniczną i przystępują do jej analizy i indeksowania, natomiast pomijają strony, które uznały za duplikaty. Może zdarzyć się tak, że algorytmy ustalą jako kanoniczną stronę, która jest np. wersją roboczą i obniża rankingi wyników organicznych. Poza tym, strony z podobną treścią stanowią dla siebie konkurencję, co obniża rankingi witryny (pozycjonowanie wszystkich stron ze zduplikowaną treścią jest niższe). Roboty sieciowe mogą mieć też problem z ustaleniem autorytetu domeny duplikującej treści.
Jak rozwiązać problemy z duplikacją treści
Najprostszy sposób to wybór strony kanonicznej i odpowiednie jej oznakowanie za pomocą meta tagów rel=canonical. Jest to wskazówka dla robotów wyszukiwarki, którą stronę spośród wielu podobnych mają uznać za główną i indeksować. Strony będące duplikatami można dodatkowo zabezpieczyć dyrektywą noindex w robots.txt. Innym rozwiązaniem jest wprowadzenie przekierowania 301, które prowadzi od starszej wersji strony do jej preferowanej wersji. Roboty skanujące i indeksujące zajmą się wówczas wersją wskazaną w przekierowaniu. Można też scalić duplikujące się treści i zamieścić je w nowej wersji pod jednym adresem, który ustalamy jako kanoniczny.
- Google BERT Algorithm (Alogrytm BERT Google)
BERT (Bidirectional Encoder Representations from Transformers) to aktualizacja algorytmu RankBrain wyszukiwarki Google bazująca na głębokim uczeniu maszynowym, czyli wykorzystująca możliwości sztucznej inteligencji.
Alogrytm BERT Google – lepsze wykorzystanie sztucznej inteligencji
Aktualizacja BERT wprowadzona została w celu jeszcze lepszego (niż przy użyciu starszej wersji algorytmu RankBrain) rozumienia intencji użytkowników. Algorytm BERT Google korzysta z umiejętności przetwarzania naturalnego języka (NLP; Natural Language Processing) w celu analizowania fraz wpisywanych w wyszukiwarkę oraz tych dostępnych na stronach internetowych, tak by możliwie najlepiej dopasować znalezione słowa kluczowe do intencji użytkownika. Tym sposobem wyniki organiczne mają być optymalnie dostosowane do potrzeb konkretnej osoby, a odpowiedź na zapytanie najbardziej precyzyjna i trafna. Sztuczna inteligencja zaprzęgnięta do pracy w Algorytmie BERT Google pozwala na lepsze rozumienie kontekstu zapytania i innych niuansów mających wpływ na zrozumienie intencji użytkownika. Aktualizacja ta nie stanowi może rewolucji w wirtualnym świecie, ale z pewnością ma wpływ na SEO i SEM.
Alogrytm BERT Google a pozycjonowanie strony
Na kolejność wyników w SERP ma wpływ wiele różnych czynników. Algorytm BERT Google wpływa na pozycjonowanie głównie tych stron, w których pojawiają się słowa kluczowe z długim ogonem, a więc frazy złożone z trzech lub więcej słów, na dodatek z zaimkami. Aktualizacja BERT pozwala na rozumienie złożonych wyrażeń (wcześniejsze algorytmy miały z tym problem), a zatem będzie wyświetlać w wynikach optymalnie dopasowanych do intencji te strony, które idealnie będą trafiać w sedno bardziej skomplikowanego zapytania. Pozycjonowanie stron optymalizowanych pod kątem pojedynczych słów kluczowych raczej nie powinno się zmienić, ale z uwagi na BERT warto sięgać po bardziej wysublimowane strategie SEO, czyli np. umieszczać w tekście frazy z długim ogonem, które mogą lepiej doprecyzować przydatność strony w kontekście danego zapytania. Algorytm BERT zdaje się też promować strony napisane naturalnie brzmiącym językiem, zatem działania SEO powinny być nakierowane na poprawę jakości treści i ich atrakcyjną prezentację.
- Google Core Web Vitals (Podstawowe wskaźniki internetowe)
Podstawowe wskaźniki internetowe Google służą do raportowania o jakości strony internetowej, która ma wpływ na jej pozycjonowanie w SERP. Dzięki Google Core Web Vitals administrator strony ma dostęp do informacji potrzebnych do analizy statusu i jakości strony oraz opracowania strategii optymalizacji.
Co składa się na Google Core Web Vitals
Podstawowe wskaźniki internetowe to trzy parametry dotyczące szybkości ładowania się strony oraz zachowań użytkowników:
- Największe wyrenderowanie treści (dotyczy tylko pierwszego widocznego ekranu po wejściu na stronę) – LCP: Largest Contentful Paint
- Opóźnienie przy pierwszym działaniu – FID: First Input Delay
- Stabilność wizualna układu strony – CLS: Cumulative Layout Shift
Podstawowe wskaźniki internetowe można sprawdzić korzystając z narzędzia Google dostępnego na PageSpeed Insights.
Podstawowe wskaźniki internetowe a rankingi strony
Od marca 2022 roku Podstawowe wskaźniki internetowe są jednym z czynników branych pod uwagę w procesie indeksowania i pozycjonowania stron internetowych. Mają zatem wpływ na rankingi strony, ale należy pamiętać, że Google pozycjonując strony używa wielu algorytmów i bierze pod uwagę nie tylko kwestie techniczne związane z domena, ale także (a nawet przede wszystkim) te dotyczące jakości i merytorycznej przydatności publikowanych treści. Podstawowe wskaźniki internetowe powinny być traktowane jako jedna z wielu składowych mających przełożenie na ostateczne rankingi strony i jej pozycjonowanie w SERP.
- Internal Linking Strategy (Strategia linkowania wewnętrznego)
Strategia lub struktura linkowania wewnętrznego to ważny czynnik mający wpływ na rankingi strony. Są to wszystkie linki wewnętrzne umieszczone na stronie – ich układ pomaga użytkownikom poruszać się w obrębie witryny, a robotom indeksującym ułatwia zrozumienie jej architektury.
Strategia linkowania wewnętrznego a pozycjonowanie strony
Optymalizacja linkowania wewnętrznego to jedno z głównych działań SEO. Linki wewnętrzne ułatwiają poruszanie się po stronie zarówno użytkownikom, jak robotom sieciowym i mają wpływ na budowanie jej autorytetu oraz pozycjonowanie na liście wyników organicznych. Im lepiej zaplanowana jest struktura linkowania wewnętrznego, tym łatwiejsza staje się nawigacja strony. Linki wewnętrzne prowadzące od znanej już wyszukiwarce strony zwiększają widoczność nowo dodanych stron. Pozwalają też robotom wyszukiwarki łatwiej zrozumieć i zaklasyfikować treść nowych stron w obrębie witryny na podstawie związków kontekstowych pomiędzy poszczególnymi podstronami.
Dobra strategia linkowania wewnętrznego przekazuje autorytet kolejnym stronom witryny – algorytm PageRank działa na zasadzie ustalania liczby wartościowych linków prowadzących do danej strony, także linków wewnętrznych. Jeśli na przykład strona główna posiada wysoki autorytet w ramach PageRank, to linkowanie wewnętrzne łączące ją z inną stroną witryny przekaże jej autorytet podstronie, do której prowadzą linki.
Strategia linkowania wewnętrznego – optymalizacja
Dobra strategia linkowania wewnętrznego to jedna ze składowych sukcesu, czyli wysokiej pozycji strony w SERP. Struktura linków wewnętrznych powinna być dobrze przemyślana i zaplanowana. Najlepiej gdy strony uporządkowane są hierarchicznie i zgrupowane tematycznie. Linki wewnętrzne powinny prowadzić od stron znajdujących się wyżej w strukturze strony do kolejnych podstron, tak by nawigacja była intuicyjna. Przydatnym udogodnieniem jest stosowanie nawigacji okruszkowej, tak by użytkownik łatwo mógł odnaleźć drogę powrotną do stron przeglądanych wcześniej. Należy też odróżnić dwa rodzaje linków wewnętrznych: linki nawigacyjne i linki kontekstowe. Linki nawigacyjne budują strukturę strony, prowadzą do poszczególnych kategorii lub temarów i powinny być widoczne z poziomu menu. Linki kontekstowe umieszczone są zazwyczaj w tekście i prowadzą do innych, powiązanych z daną strona treści w obrębie witryny.
- Keyword Clustering (Grupowanie/ klastrowanie słów kluczowych)
Grupowanie (klastrowanie) słów kluczowych jest jednym z działań z zakresu SEO i polega na porządkowaniu słów kluczowych w grupy. Są one następnie rozmieszczane na stronach witryny w taki sposób, by generować lepsze wyniki organiczne i podwyższyć rankingi strony. Nazwa wywodzi się od klastra miodu (cluster) – słowa kluczowe są zbierane i łączone w jedną całość na zasadzie wzajemnych powiązań.
Grupowanie słów kluczowych – jak się je przeprowadza
Do grupowania słów kluczowych służą specjalne narzędzia dostępne dla specjalistów SEO. Grupowanie jest automatyczne, podobnie jak proces wyszukiwania słów kluczowych dla danej strony/ tekstu. Kiedy gotowa jest lista słów kluczowych, narzędzie do grupowania wysyła je w postaci zapytań do wyszukiwarki. Wyniki wyszukiwania są skanowane, a pierwsze dziesięć wyników jest dopasowywanych do słów kluczowych z listy. Jeśli dla dwóch różnych słów kluczowych wyniki będą takie same, zostaną one zgrupowane.
Poziom i typy grupowanie słów kluczowych
Poziom grupowania/ klastrowania to liczba grup i słów kluczowych w grupie. Wyższy poziom klastrowania oznacza większą ilość grup i mniejszą ilość słów kluczowych w każdej z nich. Niski poziom grupowania to kilka grup z dużą ilością słów kluczowych w każdej.
Oprócz poziomów klastrowania słów kluczowych wyróżnia się również jego różne rodzaje, zależnie od sposobu wzajemnych powiązań w grupie:
- Miękkie klastrowanie: wszystkie słowa kluczowe w jednej grupie są powiązane ze słowem kluczowym o największej liczbie wyszukiwań, ale niekoniecznie mają pasujące do siebie adresy URL.
- Umiarkowane klastrowanie: każde słowo kluczowe w danej grupie jest powiązane innym słowem kluczowym pasującym adresem URL. Jednak dwie losowe pary słów kluczowych niekoniecznie będą miały pasujące adresy URL
- Twarde klastrowanie: wszystkie słowa kluczowe w grupie są ze sobą powiązane poprzez posiadanie pasujących adresów URL.
- Link Building Strategies (Strategie linkowania)
Strategie linkowania to jeden z ważniejszych czynników rankingowych stron internetowych. Od tego jak zbudowana jest struktura linkowania wewnętrznego i linków zewnętrznych w dużej mierze zależy pozycjonowanie strony w SERP.
Strategie budowania linków – dlaczego tak ważny jest wybór właściwej taktyki
Linki zamieszczone na stronie – ich rodzaj, ilość i jakość – to bardzo ważny element, który pozwala algorytmom indeksującym odpowiednio ocenić i zaklasyfikować stronę, a tym samym wyświetlać ją na określonym miejscu w wynikach organicznych w kontekście danego zapytania.
Istotny jest zarówno rodzaj linków (linki wewnętrzne i zewnętrzne, dofollow lub nofollow), jak i ich ilość (nie powinna być nadmierna, gdyż algorytmy mogą uznać to za spamowanie), a przede wszystkim jakość (linki przychodzące powinny pochodzić ze stron o wysokim autorytecie, by wzmacniać pozycję strony docelowej – w przeciwnym przypadku mogą tę pozycję osłabić).
Ważna jest też struktura linkowania, zwłaszcza w przypadku linków wewnętrznych. Dobrze skonstruowana architektura linkowania ułatwia pracę algorytmom i korzystnie wpływa na pozycjonowanie strony.
Jak powinna wyglądać dobra strategia budowania linków
Podstawowa zasada budowania struktury linków to postępowania zgodnie z zasadami White hat SEO. Linki przychodzące powinny pochodzić z zaufanych domen o wysokim autorytecie. W treści linków powinny pojawiać się słowa kluczowe. Linki przychodzące powinny być powiązane z tematyką strony. Warto też zadbać o to, by strona i struktura linkowana była przyjazna dla użytkowników urządzeń mobilnych. Dobrym sposobem na lepsze pozycjonowanie strony jest również SEO lokalne, o które można zadbać za sprawą wyboru odpowiednich linków przychodzących i przekierowujących. Sprawdzi się zwłaszcza linkowanie na social mediach i blogu. Linki można umieścić w infografikach i innych atrakcyjnych dla użytkownika formach przekazu. Świetnym sposobem na zwiększenie ruchu na stronie jest zamieszczanie linków do niej przez influencerów na ich social mediach/ blogach. Linkowanie pod kątem SEO lokalnego pozwala zwiększyć rankingi strony w danym obszarze.
- Local SEO Ranking Factors (Czynniki rankingowe lokalnego SEO)
Czynniki rankingowe lokalnego SEO to kwestie związane z lokalną optymalizacją, które mają wpływ na pozycjonowanie strony. Ujmując rzecz najkrócej, są to czynniki brane pod uwagę przez algorytmy indeksujące wyszukiwarki, decydujące o miejscu strony na liście wyników organicznych stron pozycjonowanych lokalnie.
SEO lokalne a algorytmy Google
Można wyróżnić kilka czynników związanych z SEO lokalnym, które mają wpływ na rankingi strony. Trzy najważniejsze to: trafność, odległość i autorytet (w tym opinie użytkowników). Trafność wyszukiwania związana jest z dokładnym określeniem, w czym specjalizuje się dana firma. Jeśli użytkownik poszukuje na przykład ubrania w nietypowym rozmiarze, to o trafności zadecydować mogą odpowiednie słowa kluczowe. Odległość oznacza, że wyżej na liście wyników wyświetlą się te strony, które oferują usługi w pobliżu miejsca, gdzie aktualnie znajduje się użytkownik. Autorytet strony budowany jest m. in. przez opinie i recenzje użytkowników oraz wzmianki na blogach i w social mediach.
Jak zwiększyć rankingi strony poprzez SEO lokalne
SEO lokalne to optymalizacja witryny pod kątem lokalnych słów kluczowych i rankingów w lokalnych wynikach wyszukiwania. Gdy użytkownik wpisuje lokalne słowo kluczowe, wyniki, które pokazują pierwsze, to te, które zostały zoptymalizowane pod kątem danego zapytania. Z uwagi na trzy omówione powyżej xzynniki rankingowe, SEO lokalne powinno wziąć pod uwagę działania, które:
- wzmocnią autorytet strony,
- zwiększą jej trafność w odniesieniu do konkretnych zapytań wpisywanych w okno wyszukiwarki i
- precyzyjnie określą lokalizację firmy/ lokalu: należy podać jak najwięcej szczegółów – nazwę, dokładny adres, numer telefonu to informacje konieczne, dodatkowo warto zaś podać godziny otwarcia, załączyć zdjęcia i mapkę oraz szczegółowy opis usługi.
Ważnym czynnikiem jest też regularne aktualizowanie strony – dzięki temu Google wie, że firma działa w danej lokalizacji i jest aktywna.
- Mobile Optimization (Optymalizacja pod kątem urządzeń mobilnych)
Optymalizacja pod kątem urządzeń mobilnych polega na wprowadzeniu na stronie internetowej zmian, które ułatwią korzystanie z niej użytkownikom urządzeń mobilnych. Treści dostępne na stronie powinny funkcjonować na dwa sposoby – dostosowany do przeglądania na komputerze lub laptopie i przyjazny dla smartfonów, czyli dostosowany do wyświetlania na znacznie mniejszym ekranie.
Optymalizacja pod kątem urządzeń mobilnych w praktyce
Optymalizacja pod kątem urządzeń mobilnych polega na dostosowaniu strony do korzystania z niej na urządzeniach takich jak smartfon. Obejmuje szereg działań, takich jak:
- zastąpienie poszczególnych stron możliwością nieskończonego scrollowania w dół (infinite scrolling), co w przypadku smartfonów jest znacznie wygodniejsze niż klikanie i otwieranie kolejnych stron,
- poprawienie jakości plików graficznych i video, tak by bez problemu otwierały się na urządzeniach graficznych i były dobrze widoczne,
- powiększenie niektórych elementów strony, takich jak przycisk kupuję czy dodaj do koszyka, by łatwo było z nich korzystać na mniejszym ekranie dotykowym,
- zamieszczenie skrótów do danych kontaktowych – telefonu i adresu e-mail (połączenie telefoniczne możliwe po naciśnięciu symbolu słuchawki),
- optymalizacja szybkości, z jaką ładuje się strona,
- ułatwienia w znajdywaniu potrzebnych informacji na stronie.
Optymalizacja pod kątem urządzeń mobilnych a SEM i SEO
Dostosowanie strony do przeglądania na urządzeniach mobilnych to obecnie jedno z kluczowych działań SEO oraz strategii marketingowych. Coraz więcej osób korzysta do przeglądania internetu z telefonów, dlatego bardzo ważne jest, by układ i widok strony był dostosowany do takich interakcji. Mobilna przyjazność strony jest jednym z czynników wpływających na jej pozycjonowanie w SERP, ma też przełożenie na doświadczenie użytkownika i jego zachowanie – odrzucenie strony lub dalsze jej eksplorowanie oraz na wskaźnik konwersji.
- PageRank (Algorytm Page Rank)
PageRank to algorytm wyszukiwarki Google wykorzystywany do rankingowania stron internetowych. PageRank indeksuje strony internetowe nadając im wartości liczbowe.
PageRank – pierwszy algorytm Google
PageRank został opracowany na Uniwersytecie Stanford przez jednego z twórców Google, Larry’ego Page’a (od którego nazwiska pochodzi jego nazwa) i Sergeya Brina. Algorytm opatentowany został w 1998 roku i wykorzystywany jest do indeksowania i pozycjonowania stron internetowych. Do 2009 roku wyniki indeksowania można było sprawdzać na pasku narzędziowym Google i w Google Webmaster Tools (obecnie Google Search Console). Od 2016 roku nie są one publicznie dostępne.
Jak działa PageRank
PageRank działa na podobnej zasadzie jak cytowania w pismach naukowych. Im więcej wysokiej jakości linków (cytowań) prowadzących do strony, tym wyższa według algorytmu PageRank staje się wartość strony docelowej. Bardzo ważna jest jakość linków przychodzących – powinny wychodzić ze strony/ stron o dużym autorytecie, oddając moc stronie docelowej. PageRank promuje zatem strony o dużej liczbie dobrej jakości linków przychodzących (cytowań) i pozycjonuje je wyżej na liście wyników organicznych. Są one uznawane przez algorytm za najbardziej przydatne dla użytkownika, podobnie jak publikacje posiadające dużą liczbę cytowań w prestiżowych, wysoko punktowanych pismach.
PageRank a SEO
Algorytm PageRank przy pozycjonowaniu strony bierze pod uwagę głównie jakość i ilość linkowania na stronie. Działania SEO mające na celu optymalizację strony pod kątem tego algorytmu powinny skupić się na ulepszeniu struktury linkowania poprzez zwiększenie ilości linków zewnętrznych prowadzących do danej strony ze źródeł (stron) o dużym autorytecie, popularnych i zajmujących wysokie miejsce w rankingach. Linki przychodzące powinny być powiązane tematycznie ze stroną, do której prowadzą – to ważne kryterium, o którym należy pamiętać. Oprócz tego warto zoptymalizować strukturę linkowania wewnętrzego, szybkość ładowania się strony oraz dostosować ją do przeglądania na urządzeniach mobilnych. Strona powinna być też regularnie aktualizowana, powinny pojawiać się na niej nowe, wartościowe treści. Google nie zdradza sekretów działania swoich algorytmów, ale można założyć, że dobrej jakości treści na stronie i wartościowe linki przychodzące oraz brak problemów natury technicznej na stronie to jedne z kluczy do sukcesu.
- SERP Volatility (Wskaźnik zmienności SERP)
Wskaźnik zmienności SERP to ważny parametr informujący o wynikach organicznych wyszukiwania, czyli rankingów strony/ witryny. Pozwala monitorować pozycję strony, analizować możliwe przyczyny gorszych wyników i pomaga opracować właściwą strategię SEO.
Od czego zależą wskaźnik zmienności SERP
Wskaźnik zmienności SERP zależą od wielu czynników, ale najbardziej radykalne zmiany widoczne są zazwyczaj w czasie aktualizacji algorytmów indeksujących Google. Aktualizacje i wprowadzanie nowych algorytmów powoduje zmiany w zakresie tego, jakie czynniki mają największy wpływ na pozycjonowanie strony, może też sprawiać, że błędy i nieuczciwe praktyki black hat SEO, które wcześniej pozostawały niezauważone, zaczynają mieć realne znaczenie i obniżają rankingi strony. Wskaźnik zmienności SERP to ważna informacja dla administratorów strony i wymagają podjęcia określonych działań, by zapobiec obniżeniu wyników organicznych SERP.
Jak sprawdzić Wskaźnik zmienności SERP
Wskaźnik zmienności SERP zaleca się monitorować wystarczająco często, by w porę zauważyć niekorzystne zmiany. Dostępnych jest wiele narzędzi, które pozwalają sprawdzać na bieżąco Wskaźnik zmienności SERP. Można skorzystać na przykład z narzędzia Rank Ranger Rank Risk Index, które śledzi dzienną zmienność SERP i przedstawia ją za pomocą na wykresu, osobno dla urządzeń mobilnych i osobno dla komputerów stacjonarnych. Wahania Wskaźnika zmienności SERP są mierzone w skali od 1 do 100. gdzie 100 to maksymalny poziom zmienności, a 1 to minimalny poziom wahania się pozycjonowania strony na liście wyników organicznych.
Wskaźnik zmienności SERP a SEO
Wysoki poziom wskaźnika zmienności SERP to sygnał alarmowy i znak, że stronę należy zaktualizować pod kątem nowych algorytmów lub aktualizacji programów wyszukiwarki. Działania SEO zależą od tego, w jakich obszarach konieczne są zmiany.
- Site Architecture (Architektura strony internetowej)
Architektura strony internetowej to jej układ wyznaczony przez wewnętrzne linkowanie. Dobrze zaplanowana Architektura strony internetowej pomaga użytkownikom łatwiej odszukać potrzebne informacje i poruszać się po witrynie, jest też ważna ze względu na algorytmy indeksujące i pozycjonowanie strony w SERP.
Architektura strony internetowej a pozycjonowanie i konwersja
To, w jaki sposób zbudowana jest witryna, to znaczy jak wygląda wewnętrzna sieć linkowania, ma duży wpływ zarówno na zachowania użytkowników i konwersję, jak i pozycjonowanie strony.
Czytelny układ strony i linki wewnętrzne odsyłające do kolejnych podstron w przemyślany sposób, pozytywnie oddziałują na doświadczenie użytkownika i zachęcają do eksplorowania treści zamieszczonych na stronie oraz dokonywanie kolejnych ruchów, takich jak zakup czy zapisanie się do newslettera. Ruch na stronie, wysoka klikalności i niski wskaźnik odrzuceń, to parametry, które mają przełożenie na wyższe pozycjonowanie strony w wynikach organicznych. Dobrze zaplanowana Architektura strony internetowej ułatwia też robotom indeksującym analizę i klasyfikację strony, a co za tym idzie wyświetlanie jej wyżej w wynikach organicznych SERP (pamiętajmy jednak, że na pozycję strony na liście SERP wpływ ma wiele innych czynników, w tym linki przychodzące i jakość publikowanych treści).
Jak opytymalizować Architekturę strony internetowej
Aby zoptymalizować architekturę strony internetowej zaleca się następujące działania:
- Zamieszczenie na stronie prostego i jasnego w nawigacji menu.
- Przyjrzenie się jak wygląda układ strony u konkurencji – nie chodzi o kopiowanie, ale uwzględnienie niektórych pomysłów i rozwiązań.
- Używanie nawigacji okruszkowej, która ułatwia poruszanie się po stronie.
- Zadbanie o to, by linkowanie wewnętrzne pozwalało dostać się do interesującej. użytkownika strony w maksymalnie 3-4 krokach (dobrze zaplanowana struktura linkowania).
- Stworzenie mapy strony w HTML i XML.
- Dbanie o wewnętrzną spójność strony i o to, by była przyjazna dla użytkownika pod każdym istotnym względem.
Dobra Architektura strony internetowej to więcej korzyści dla użytkownika, a także dla właściciela strony.
- Site Speed Optimization (Optymalizacja szybkości ładowania/ otwierania się strony)
Optymalizacja szybkości z jaką otwiera się strona internetowa, czyli przyspieszanie ładowania się witryny, to jeden z czynników mających wpływ na pozycjonowanie witryny.
Szybkość ładowania się a rankingi strony
Szybkość, z jaką otwiera się strona internetowa to ważny parametr techniczny brany pod uwagę przez roboty indeksujące wyszukiwarki w pozycjonowaniu strony w SERP. Im wolniej otwiera się strona, tym gorzej dla jej wyników, choć oczywiście sama szybkość jest tylko jednym z wielu czynników uwzględnianych przez algorytmy wyszukiwarki. Wolne otwieranie się strony ma jednak przełożenie na doświadczenie użytkowników i może prowadzić do spadku ruchu na stronie, gorszych wyników konwersji, opinii i sprzedaży. Problemy z ładowaniem się strony (zbyt wolne ładowanie) powodują często odrzucenie (wyjście ze) strony zanim poprawnie się załaduje. Mogą też sprawiać, że w wyświetla się komunikat o błędzie 404. Mniejszy ruch na stronie i wyższy wskaźnik odrzuceń prowadzi do pogorszenia się rankingów strony: jej pozycja na liście wyników SERP spada.
Jak przyspieszyć stronę internetową
Stronę internetową można przyspieszyć korzystając na przykład z modułów PageSpeed lub przy pomocy darmowego serwera DNS Google. Ten drugi sposób nie tylko zwiększa szybkość, z jaką otwierają się kolejne podstrony witryny, ale także zwiększa bezpieczeństwo przeglądania.
Zaleca się również sprawdzenie układu strony i poprawienie jej wewnętrznej architektury oraz usunięcie elementów i błędów, które mogą spowalniać ładowanie (duże pliki ładują się wolniej).
Należy zadbać o dostosowanie strony do przeglądania na urządzeniach mobilnych (o to, by była mobile friendly). Jeśli powodem wyświetlania się błędu 404 jest przeniesienie strony na inny adres URL, skutecznym rozwiązaniem jest dodanie do poprzedniej wersji przekierowania 301 na nowy adres.
- Structured Snippets (Ustrukturyzowane fragmenty)
Ustrukturyzowane fragmenty to treści wyświetlane pod reklamą strony jako nagłówek informujący o jej treści i przeznaczeniu. Są przydatne dla użytkowników, którzy mogą łatwiej zorientować się, czy reklama/ strona jest dla nich interesująca oraz dla algorytmów wyszukiwarki.
Ustrukturyzowane fragmenty – jak powinny wyglądać
Dodawanie ustrukturyzowanych fragmentów to jedno z działań mających na celu zwiększenie rankingów strony. Ustrukturyzowane fragmenty powinny zawierać precyzyjne informacje i mieć odpowiedni format. Nie powinny być zbyt długie, ale atrakcyjne i przydatne dla użytkownika.
Można stworzyć je samodzielnie lub wygenerować automatycznie za pomocą Google Ads.
Ustrukturyzowane fragmenty – korzyści
Ustrukturyzowane fragmenty to dobry sposób, by poinformować o oferowanych produktach i usługach. Dostarczają użytkownikom podglądu tego, co można znaleźć na stronie zanim zdecydują się na nią wejść. Ustrukturyzowane fragmenty to świetny sposób na zachęcenie potencjalnych klientów do odwiedzenia strony. Mogą mieć pozytywny wpływ na współczynniki klikalności i przyczyniać się do lepszych rankingów strony oraz zwiększenia sprzedaży online. Co ważne, można samodzielnie decydować które ustrukturyzowane fragmenty będą wyświetlać się w Google Ads.
- Keyword Proximity (Bliskość/ odległość słów kluczowych)
Keyword Proximity to wskaźnik określający w jakiej odległości znajdują się dwa (lub większa ilość) słowa kluczowe w danym tekście. Bliskość słów kluczowych jest jednym z elementów, które brane są pod uwagę przez algorytmy wyszukiwarki w procesie pozycjonowaniu strony.
Odległość słów kluczowych a SEO
Przy optymalizacji tekstu (SEO) należy wziąć pod uwagę nie tylko wartość i odpowiednią ilość słów kluczowych, ale także ich właściwe rozmieszczenie w tekście. Odległość między poszczególnymi słowami kluczowymi ma znaczenie dla algorytmów wyszukiwarek i wpływa na ocenę oraz pozycjonowanie strony. Na przykład, jeśli użytkownik wpisuje w okno wyszukiwarki frazę najlepsza kawa w Warszawie, strona która zamieści sformułowanie nasza kawa jest najlepsza w całej Warszawie będzie miała lepszą Keyword Proximity (dla konkretnych słów kluczowych, w tym przypadku najlepsza kawa w Warszawie) niż ta, na której pojawi się tekst Wiele osób szuka miejsca w Warszawie, gdzie może napić się najlepszej kawy. Zapraszamy do nas. Wyszukiwarki będą pozycjonować wyżej strony, na których słowa kluczowe rozmieszczone są w mniejszych odległościach (bliżej). Oczywiście, to tylko jeden z czynników mający wpływ na rankingi: ważne jest również to, by tekst brzmiał naturalnie i był oryginalny, wartościowy oraz przydatny dla użytkowników. Sama bliskość słów kluczowych nie wystarczy: muszą one pojawiać się w odpowiednim kontekście dla wpisywanego w okno wyszukiwarki zapytania. Dobrze zaplanowana bliskość słów kluczowych zwiększa widoczność strony i ma pozytywny wpływ na jej rankingi.
Bliskość słów kluczowych – typy
Wyróżnia się niską, średnią i wysoką Keywords Proximity. Niska KP oznacza, że słowa kluczowe w tekście oddzielone są od siebie innymi frazami i choć występują w jednym zdaniu lub w dwóch zdaniach następujących po sobie, to ich odległość jest znaczna. Średnia KP to użycie słów kluczowych w niewielkiej odległości od siebie, ale nie bezpośrednio obok siebie, czyli w jednym ciągu. Wysoka KP ma miejsce wtedy, gdy słowa kluczowe następują bezpośrednio po sobie, np. Najlepsza kawa w Warszawie? Tylko u nas! Mogłoby się wydawać, że najbardziej korzystna ze względu na SEO i pozycjonowanie strony jest wysoka Keyword Proximity. Łatwo jednak jest przesadzić z taką taktyką zamieszczania słów kluczowych i może ona zostać zakwalifikowana przez algorytmy wyszukiwarki jako keyword stuffing (upychanie słów kluczowych na siłę), co obniża rankingi strony.
- Link Juice (Wartość/ moc linkowania, moc SEO)
Moc linkowania to termin odnoszący się do mocy/ wartości jaka przekazywana jest z jednej strony na inną za sprawą linków przychodzących oraz linków wewnętrznych.
Moc linkowania – linki zewnętrzne
Linki przychodzące mogą przekazywać moc stronie, do której odsyłają, a wartość tej mocy zależy od liczby linków przychodzących oraz od tego, jaki autorytet ma strona wyjściowa. Strony z wysokim autorytetem z zasady przekazują więcej mocy stronie docelowej niż te, które są słabo pozycjonowane w wyszukiwarce. Jeśli zatem chcemy zwiększyć moc strony/ domeny, do której prowadzą linki wychodzące, należy dokonać odpowiedniego wyboru stron, na których umieszczone zostaną linki przekierowujące (preferowane są strony/ domeny o wysokim autorytecie). Oprócz ilości i jakości linków dla mocy linkowania ważne jest również ich rozmieszczenie na stronie i powiązanie tematyczne z treścią zamieszczonych na niej tekstów. Linki przekazujące moc muszą mieć status dofollow – te oznaczone jako nofollow nie będą przekazywać mocy stronie docelowej. Podobnie będzie w przypadku linków znajdujących się na stronie, która jest oznaczona w robot.txt jako noindex (czyli ma zablokowaną możliwość indeksowania). Co ważne, linków zewnętrznych przekazujących moc (dofollow) nie może być w tekście zbyt wiele – algorytmy mogą uznać taką strukturę linkowania za podejrzaną.
Moc linkowania – linki wewnętrzne
Kluczowe dla przekazywania mocy stronie docelowej są linki zewnętrzne, tj. zamieszczone na strona spoza danej witryny. Dla osiągnięcia celu, tj, zwiększenia mocy strony docelowej, powinny one być zamieszczone na stronie plasującej się wysoko w rankingach – wówczas przekazuje ona swoją moc stronie, do której kieruje. Moc linkowania może jednak dotyczyć również linków wewnętrznych. W takim przypadku zwiększamy moc strony docelowej zamieszczając na podstronach tej samej witryny linki kierujące np. do strony głównej. Dzięki temu algorytmy wyszukiwarki mogą łatwiej zaindeksować wszystkie treści publikowane na stronie, co jest ważne dla widoczności strony i jej pozycjonowania. Moc linkowania (wewnętrznego i zewnętrznego) można sprawdzić korzystając z narzędzi SEO.
- Meta Tags: Title, Description, Keywords (Znaczniki Meta: Tytuł, Opis, Słowa kluczowe)
Znaczniki meta to elementy umieszczone w nagłówku HTML strony i opisujące to, co strona zawiera.
Meta znaczniki – tytuł, opis i słowa kluczowe
Najważniejsze meta tagi (meta znaczniki), których nie może zabraknąć w nagłówku strony to tag z tytułem strony, który wyświetla się w wynikach organicznych wyszukiwarek, tag zawierający słowa kluczowe oraz meta opis strony z informacją o jej zawartości. Długość meta opisu określa się zwykle w pikselach, czyli szerokości sumy znaków (max 920 pikseli dla laptopów i komputerów, max 680 pikseli dla urządzeń mobilnych).
Meta znaczniki a pozycjonowanie strony
Meta opis i tytuł strony to meta znaczniki ważne z uwagi na działanie algorytmów indeksujących. Dobry meta tytuł i precyzyjny meta opis zwiększają prawdopodobieństwo lepszych rankingów, ponieważ jasno określona tematyka w meta tagach ułatwia robotom indeksującym zadanie analizy i klasyfikacji treści zamieszczonych na stronie.
Tagi meta ułatwiają również użytkownikowi znalezienie istotnych informacji o stronie.
- Search Engine Submission (Zgłoszenie do wyszukiwarki)
Zgłoszenie do wyszukiwarki to narzędzie pozwalające na bezpośrednie przesłanie strony do wyszukiwarki internetowej. Jest to dobry sposób na promocję strony i może w znaczącym stopniu poprawić rankingi strony.
Zgłoszenie do wyszukiwarki a marketing internetowy
Zgłoszenie do wyszukiwarki to jedna z taktyk marketingu internetowego. Pozwala na wyróżnienie strony spośród konkurencyjnych witryn o zbliżonej tematyce. Dzięki temu strona uzyskuje lepszą pozycję w wynikach organicznych, jednak by była ona naprawdę zadowalająca, należy dodatkowo wdrożyć działania SEO mające na celu optymalizację strony pod kątem słów kluczowych i innych elementów branych pod uwagę przez algorytmy indeksujące. Zgłoszenie do wyszukiwarki to dobry sposób, by wypromować stronę wkrótce po jej dodaniu. Pozwala zwiększyć ruch na stronie i wskaźnik sprzedaży. W dłuższej perspektywie czasowej konieczne są jednak dodatkowe działania, by utrzymać wysoką pozycję strony w SERP.
Zgłoszenie do wyszukiwarki – jak to zrobić
Zgłoszenie do wyszukiwarki można zrobić na dwa sposoby. Pierwszy to przesłanie pojedynczych stron przy użyciu narzędzi Google Webmaster Central lub Bing Webmaster Tools oraz wygenerowanie robot.txt i mapy witryny. Druga metoda to przesłanie całej witryny. W tym celu należy wysłać do wyszukiwarek stronę główną witryny. Kiedy strona główna będzie widoczna dla wyszukiwarek, rozpoczną one indeksowanie poszczególnych stron.
Przed zgłoszeniem strony/ witryny do wyszukiwarki należy dokładnie sprawdzić poprawność meta dane: słowa kluczowe, meta opis, tytuł strony, linki i tagi.
- SEO Reporting (Raport SEO)
Raport SEO to sprawozdanie dotyczące strategi optymalizacji strony internetowej, z którego można się dowiedzieć, jak skuteczne jest konkretne działanie SEO. Raport SEO służy do monitorowania wyników i opracowywania skutecznej strategii SEO na przyszłość.
Co zawiera Raport SEO
Raport SEO przeznaczony jest dla klientów korzystających z usług agencji SEO, więc powinien być klarowny i dokładnie pokazywać efekty optymalizacji w danym obszarze. Zawiera statystyki odnośnie do ruchu na stronie (można sprawdzić, czy ruch znacząco się zwiększył po optymalizacji strony), wskaźnika konwersji oraz pozycjonowania ze względu na słowa kluczowe oraz strukturę linkowania. To, co konkretnie znajdzie się w Raporcie SEO, zależy od celu, jaki był priorytetem dla klienta. Na przykład, jeśli celem było zwiększenie ruchu na stronie, należy skupić się właśnie na tym wskaźniku. Natomiast jeśli celem było zwiększenie sprzedaży, ważniejszy będzie wskaźnik konwersji. Wyniki zamieszczone w Raporcie SEO należy omówić w taki sposób, by dla klienta było jasne, jakie korzyści może osiągnąć z dalszego stosowania danej strategii i korzystania z usług agencji SEO.
Jak tworzy się Raport SEO
Raport SEO można wygenerować ręcznie lub automatycznie. W pierwszym przypadku używa się Microsoft Excel lub Google Sheets. Korzystniej (z punktu widzenia agencji i klienta) jest automatyczne generowanie Raportu SEO za pomocą danych np. z Google Analytics i narzędzi do tworzenia raportów dostępnych online. Wygenerowany automatycznie raport SEO można wysłać jednorazowo lub (zalecane) regularnie, na przykład co miesiąc.
- Social Signals (Widoczność strony w mediach społecznościowych)
Widoczność mediach społecznościowych to określenie odnoszące się do wszystkich aktywności, w jakie angażuje się strona internetowa w mediach społecznościowych (Facebook, Twitter, Instagram). Dotyczy to udostępnień, lajków, komentarzy i postów – te aktywności traktowane są przez algorytmy wyszukiwarki jako forma wzmacniania autorytetu strony i pozytywnie wpływają na jej pozycjonowanie w SERP.
Widoczność strony mediach społecznościowych a strategia SEO
Widoczność mediach społecznościowych jest jedną z taktyk stosowanych w celu optymalizacji strony pod kątem jej pozycji w wynikach organicznych. Algorytmy wyszukiwarki traktują interakcje i wszelkie inne aktywności strony na mediach społecznościowych jako rodzaj cytowania strony, które wzmacnia jej pozycję w grupie stron konkurencyjnych. Im więcej lajków otrzymują posty, im częściej są udostępniane i im częściej nazwa firmy/ marki i odnośnik do strony pojawia się w postach na mediach społecznościowych, tym lepiej dla autorytetu witryny. Algorytmy wyszukiwarki biorą pod uwagę liczbę postów (tweetów), udostępnień, followersów (osób śledzących stronę w mediach społecznościowych). Widoczność w mediach społecznościowych to jeden z parametrów pozycjonowania strony.
Jak zwiększyć widoczność strony w mediach społecznościowych
Aby zwiększyć widoczność strony w mediach społecznościowych przede wszystkim należy postawić na publikowanie wysokiej jakości treści. Nic tak nie przyciąga uwagi użytkowników jak merytoryczne, oryginalne i przydatne dla nich teksty. Nie ma sensu zamieszczać byle czego, żeby tylko coś opublikować i o sobie przypomnieć. Zarówno użytkownicy, jak i algorytmy wyszukiwarki są wyczuleni na tego rodzaju taktyki.
Kolejna wskazówka dla zwiększenia zasięgów strony w mediach społecznościowych to regularne publikowanie postów/ tweetów, najlepiej codziennie. Powinny być one atrakcyjne także pod względem wizualnym – przydadzą się ciekawe obrazki. Jeśli pod postem pojawią się komentarze, warto na nie odpowiedzieć, tak by widać było, że strona jest aktywna. Pod uwagę zaleca się brać wszystkie komentarze, nie tylko te pozytywne. Krytyczne uwagi mogą pokazać problem, który dotąd był niezauważony i obszar który należy poprawić. Dobrze jest monitorować to, w jaki sposób strona widoczna jest w mediach społecznościowych – służą do tego darmowe aplikacje. Można też wejść w kooperację z inną uznaną marką/ stroną o dużym autorytecie i linkować do niej oraz otrzymywać od niej linki przychodzące. Zaleca się wykorzystywać dla zwiększenia widoczności wszystkie rodzaje mediów społecznościowych, nie ograniczać się tylko do jednego.
- Structured Data (Dane ustrukturyzowane, Dane strukturalne)
Dane strukturalne (inne nazwy to schema.org i schema markup) to informacje przeznaczone dla wyszukiwarek internetowych. Dane strukturalne mają formę kodu zamieszczonego w metadanych strony.
Do czego służą dane strukturalne
Dane strukturalne umożliwiają robotom wyszukiwarki identyfikację poszczególnych składników strony. Algorytmy indeksujące mogą dzięki ustrukturyzowanym danym lepiej poruszać się po stronie i analizować zamieszczone na niej treści i inne elementy. Dane strukturalne służą również do łatwiejszego dodawania rich snippetsów, czyli rozszerzonych informacji widocznych w wynikach wyszukiwania.
Rodzaje danych strukturalnych
Jest wiele różnych rodzajów danych strukturalnych. Zwykle stosuje się trzy typy formatów: JSON-LD, Microdata i RDFa. Są one kompatybilne z większością wyszukiwarek, przy czym np. wyszukiwarka Google preferuje JSON-LD.
Dane strukturalne a pozycjonowanie strony
Dane strukturalne ułatwiają algorytmom wyszukiwarki indeksowanie stronę i mogą mieć wpływ na jej pozycjonowanie. Dzięki danym strukturalnym możliwe jest pobieranie informacji ze strony i wyświetlanie ich w postaci treści rozszerzonych (rich snippets). Mają korzystny wpływ zarówno na widoczność strony i na doświadczenie użytkowników.
- Algorithm Updates in SEO (Aktualizacje algorytmów wyszukiwarek a SEO)
Aktualizacje algorytmów wyszukiwarek to ważny czynnik mający wpływ na pozycjonowanie stron w SERP, czyli na liście wyników organicznych. Zmieniające się algorytmy oznaczają zmiany dla wymagań odnośnie zamieszczanych w internecie treści i generują nowe wyzwania dla strategii SEO.
Aktualizacje algorytmów wyszukiwarek – nowe standardy i wytyczne
Programy indeksujące wyszukiwarek internetowych są nieustannie modyfikowane, ulepszane i dostosowywane do aktualnych potrzeb i wyzwań. Aktualizacje algorytmów wyszukiwarek mają na celu optymalne dostosowanie wyników wyświetlanych na liście SERP do potrzeb użytkowników. Główny nacisk kładziony jest na jakość treści, a także na ich oryginalność. Inne ważne elementy mające wpływ na pozycjonowanie strony/ witryny to jej autorytet (na który składa się wiele czynników) i poziom wiarygodności. Algorytmy rozstrzygają które strony wyświetlane będą w pierwszej kolejności w odpowiedzi na dane pytanie, a które w ogóle znikną z wyszukiwarki. Decydują czy i jakie fragmenty tekstu z danej strony wyświetlą się jako featured snippets (fragmenty z odpowiedzią). Aktualizacje często oznaczają nowe standardy pozycjonowania. Należy jednak odróżnić poważne aktualizacje, które mają duży wpływ rankingi i te pomniejsze, których oddziaływanie będzie niewielkie.
Aktualizacje algorytmów wyszukiwarek a SEO
Aktualizacje mogą sprawić, że strony mające do tej pory wysokie rankingi będą wymagały aktualizacji pod kątem SEO. Najlepsza taktyka to śledzenie na bieżąco wyników, jakie osiąga strona. Jeśli jej rankingi zaczynają się obniżać, może to oznaczać problemy natury technicznej (związane np. z szybkością ładowania czy przeciążeniem serwera), ale także zmiany po stronie algorytmów indeksujących wyszukiwarki. Aktualne algorytmy mogą spowodować, że strona jest mniej widoczna, co oznacza z kolei mniejszą klikalność, mniejszy ruch na stronie i niższe wyniki sprzedaży. W takim przypadku działania SEO powinny mieć na celu dostosowanie strony (publikowanych treści, słów kluczowych, struktury linkowania, układu strony i meta danych) do aktualnych wymogów programów indeksujących. Śledzenie aktualizacji, monitorowanie bieżących wyników rankingowych i wprowadzanie rekomendowanych zmian to optymalna strategia SEO mająca korzystny wpływ na kwestie marketingowe.
- Breadcrumb Navigation (Nawigacja okruszkowa)
Nawigacja okruszkowa, określana też jako ślad okruszków, to technika nawigowania strony umożliwiająca śledzenie drogi, jaką przebył użytkownik podczas używania wyszukiwarki internetowej. Nawigacja okruszkowa pozwala wrócić do wcześniej otwieranych stron i dokumentów.
Nawigacja okruszkowa – jak działa
Nawigacja okruszkowa, której nazwa zaczerpnięta została z bajki o Jasiu i Małgosi, którzy znaczyli drogę powrotną do domu okruszkami chleba, to przydatne narzędzie ułatwiające poruszanie się po stronach internetowych. Okruszki wyświetlają się zwykle na górze strony, pod nagłówkiem i tytułem w postaci hiperłączy, które pozwalają wrócić do strony otwieranej wcześniej. Jest to „ślad”, który pozwala łatwo wrócić na przykład do strony głównej, niezależnie jak daleko użytkownik zaszedł (ile podstron lub sekcji otworzył w obrębie danej witryny). Nawigacja okruszkowa może pokazywać ścieżkę przebytą przez użytkownika, może też wskazywać na lokalizację danej strony i do jakiej należy kategorii.
Kiedy przydatna jest nawigacja okruszkowa
Nawigacja okruszkowa nie jest narzędziem uniwersalnym. Sprawdza się w przypadku stron o precyzyjnie określonej hierarchii (strona główna—podstrony—sekcje). Przy innych typach stron lepiej zadziała przycisk „wstecz”, a w każdym razie spełni podobne zadanie jak nawigacja okruszkowa. Co ważne, Globalny System Pozycjonowania (GPS) także może zachowywać ślad ruchu nadajnika GPS przez zapisywanie pozycji w określonych odstępach czasu i pokazywać go na wyświetlaczu jako „ślad okruszków” .
- Canonical URL (Adres kanoniczny)
Adres kanoniczny to element strony zapisany w HTLM, który pomaga zapobiec duplikowaniu treści. Roboty indeksujące traktują stronę kanoniczną jako oryginał i sprawdzają, czy w wyszukiwarce nie ma dostępnych jakiś innych jej wersji, które ją powielają (duplikują).
Adres kanoniczny – dlaczego jest ważny
Adres kanoniczny pozwala określić daną stronę jako kanoniczną, czyli oryginalną (preferowaną). Jest to ważna informacja dla algorytmów wyszukiwarki, jak mają ją traktować. Jeśli odnalezione zostaną inne strony o tej samej lub zbliżonej treści (duplikaty), wyszukiwarka pominie je w procesie pozycjonowania i wyświetli w wynikach organicznych adres kanoniczny strony. Link kanoniczny nie jest wprawdzie traktowany przez algorytmy Google jako dyrektywa, ale jest on wartościową wskazówką, która strona powinna zostać uznana za oryginalną i zaindeksowana. Dotyczy to zwłaszcza sytuacji, gdy oryginalna treść jest dostępna pod wieloma adresami.
Adres kanoniczny – jak go wprowadzić
Jednym ze sposobów oznaczenia strony jako kanonicznej jest umieszczenie w jej nagłówku linku kanonicznego (canonical tag) w HTLM lub HTTP. Można też zamieścić hiperłącze odsyłające do adresu URL strony. Zadanie ułatwia możliwość pobrania oryginalnego adresu URL z zapisanej strony, jeśli nie jest przechowywany przez przeglądarkę.
Adres kanoniczny a pozycjonowanie strony
Adres kanoniczny może być postrzegany jako jedno z działań SEO mających na celu lepsze pozycjonowanie strony w wynikach organicznych. Duplikaty strony, widoczne pod różnymi adresami, wprowadzają chaos i obniżają pozycję strony w wynikach organicznych. Adres kanoniczny to ułatwienie dla robotów skanujących i indeksujących także w sytuacji, gdy przenosimy stronę na inny adres. Innym (optymalnym) rozwiązaniem jest wówczas wprowadzenie dyrektywy 301 (przekierowania na nowy adres).
- Competitor Analysis in SEO (Analiza konkurencji/ konkurencyjności dla SEO)
Analiza konkurencji dla SEO to działania mające na celu analizę stron konkurujących z daną stroną w celu otrzymania istotnych informacji na temat używanych przez nie słów kluczowych, publikowanych treści, linków zwrotnych i ogólnej strategii, tak by wdrożyć efektywną i obliczoną na sukces optymalizację danej strony.
Analiza konkurencji dla SEO – cele
Konkurencja w sieci w przypadku większości stron jest liczna i zdeterminowana na sukces (wyższe miejsce na liście wyników organicznych). Analiza konkurencji dla SEO to praktyczny sposób, by poznać stosowane przez te konkurencyjne strony środki i strategie, dzięki którym są one pozycjonowane wyżej. Rozpoznanie i analiza pozwala zastosować podobną strategię dla optymalizowanej strony, tak by polepszyć jej rankingi. Analiza konkurencji dla SEO ma również na celu poznanie słabych punktów konkurencji i wykorzystanie ich dla wzmocnienia pozycji optymalizowanej strony.
Analiza konkurencji dla SEO w praktyce
Pierwszy punkt analizy konkurencji dla SEO to rozpoznanie stron konkurujących z naszą. Można to zrobić po prostu wpisując w okno wyszukiwarki daną frazę – wśród wyświetlonych wyników zwykle pierwszych 10 określa się jako konkurencję dla naszej strony. Można też użyć narzędzia dostępnego w Google Search Control, które pozwala wyświetlić wyniki organiczne dla danego zapytania. Po rozpoznaniu konkurencji przystępujemy do analizy treści zamieszczonych na stronach konkurujących z naszą. Pod uwagę należy wziąć przede wszystkim słowa kluczowe, układ strony oraz strukturę linkowania. Słabe punkty konkurencyjnych stron także mogą posłużyć do ulepszenia naszej – wiemy, czego unikać. Dobrze też jest zbadać autorytet konkurencyjnych stron i popracować nad wzmocnieniem autorytetu naszej strony. Takie działania SEO zwiększają szansę na jej lepsze pozycjonowanie i wyprzedzenie konkurencji.
- Content Freshness (Publikowanie nowych treści i aktualizowanie starych)
Publikowanie nowych treści i aktualizacja starych to jedno z ważniejszych zadań, by zachować dobrą pozycję strony na liście wyników organicznych, a nawet poprawić wynik. To jeden ze sposobów zwiększenia ruchu na stronie i optymalizacji treści pod kątem merytorycznej wartościowości.
Publikowanie nowych treści i aktualizowanie starych – czym jest fresh content i recycling danych
Nie zawsze konieczne jest tworzenie zupełnie nowych treści, by zwiększyć ruch na stronie i wskaźnik konwersji. Można zoptymalizować już opublikowane treści tak, by stały się bardziej przydatne dla użytkownika, wartościowe i korzystne ze względu na pozycjonowanie strony. Działania SEO takie jak łączenie tekstów omawiających podobną tematykę i optymalizacja pod kątem słów kluczowych to dobry przykład aktualizowania starych treści tak, by poprawić rankingi strony. Recykling treści to świetna metoda na wykorzystanie starych tekstów i nadanie im świeżej, bardziej atrakcyjnej (dla użytkownika i dla algorytmów wyszukiwarki) formy. Nowe treści (fresh content) to zarówno nowe wpisy, jak i te, które odwołują się do konkretnych cyklicznych wydarzeń, na przykład odcinków reality show.
Jak publikowanie nowych treści i aktualizowanie starych wpływa na pozycjonowanie strony
Nieaktualne recenzje, nieuzupełnione opisy najnowszych odcinków – to przykłady braku aktualizacji, które mogą mieć ujemny wpływ na pozycjonowanie strony. Z punktu widzenia użytkownika staje się ona nieprzydatna – dostarcza co najwyżej archiwalnych informacji. Aktualizacja dotyczy również linków przychodzących – jeśli po kliknięciu w nie wyświetla się na przykład komunikat Błąd 404, ma to bardzo niekorzystny wpływ na wizerunek i rankingi strony. Dane (np. godziny otwarcia, adres, dane kontaktowe), linki i treści na stronie pretendującej do wysokiego miejsca na liście wyników organicznych powinny być na bieżąco monitorowane i aktualizowane. Nowe treści także mają wpływ na pozycjonowanie strony. Regularne publikowanie nowych wpisów przyciąga uwagę użytkowników i może zwiększyć ruch na stronie. Teksty powinny być dobrej jakości zarówno pod względem słów kluczowych wpisywanych w okno wyszukiwarki, jak i struktury linkowania. Algorytmy wyszukiwarki biorą pod uwagę różne parametry, a nowe wpisy nie zawsze plasują się na pierwszym miejscu czynników decydujących o pozycji strony. Świeże treści mają jednak tę zaletę, że są (powinny być) aktualne także pod względem najnowszych informacji, czy wiedzy na dany temat, dlatego z większym prawdopodobieństwem będą przydatne dla użytkownika.
- Crawling vs. Indexing (Skanowanie vs. Indeksowanie)
Skanowanie (crawling) i Indeksowanie (Indexing) to dwa najważniejsze działania algorytmów wyszukiwarki mające na celu analizę i klasyfikację strony internetowej. Skanowanie jest procesem pierwszym w kolejności, po nim następuje indeksowanie strony.
Na czym polega skanowanie (crawling)?
Po utworzeniu strony lub zmodyfikowaniu treści wyszukiwarka Google skanuje jej treść, to jest pobiera teksty, obrazy i filmy zamieszczone na stronie. Zadanie to wykonują roboty skanujące wyszukiwarki, czyli tak zwane crawlery. Proces crawlingu jest w pełni automatyczny i nie wymaga żadnych działań administratora strony, o ile nie chce on zabronić botom jej skanowania. Aby wykluczyć stronę z procesu crawlingu, należy zamieścić w metadanych robot.txt blokujący skanowanie. Roboty wyszukiwarki nieustannie przeszukują sieć w celu wykrycia nowych adresów, ale zwykle przestrzegają instrukcji zamieszczonych w robot.txt.
Indeksowanie strony
Po ukończonym skanowaniu do pracy przystępują algorytmy wyszukiwarki, które analizują znalezione na stronie informacje, czyli teksty, metadane, pliki graficzne i filmy. To właśnie indeksowanie strony, czyli dokładna analiza i klasyfikacja jej treści pod kątem przydatności dla użytkowników wpisujących w okno wyszukiwarki daną frazę (zapytanie). Indeksacja strony jest konieczna do tego, by wyświetlała się ona w wynikach wyszukiwarki. Algorytmy analizują treść strony pod kątem słów kluczowych i sprawdzają, czy nie duplikuje ona strony uznanej za kanoniczną (jeśli taka zostanie odnaleziona w sieci). Podobnie jak w przypadku skanowania, także indeksowanie danej strony można uniemożliwić za pomocą odpowiednich instrukcji w robot.txt. Indeksowanie można również przeprowadzić ręcznie.
Indeksowanie a pozycjonowanie strony
Od procesu indeksowania zależy pozycja strony na liście wyników organicznych.
Algorytmy analizują jakość strony pod względem jej oryginalności i użyteczności, a także struktury linkowania, układu treści i szybkości ładowania. Te i inne kwestie brane są pod uwagę przy pozycjonowaniu strony, to znaczy wyświetlaniu jej na określonym miejscu listy wyników organicznych. Algorytmy uwzględniają również takie dane jak lokalizacja firmy/ usługi (pozycjonowanie lokalne).
- Domain Authority (Autorytet Domeny, DA)
Autorytet Domeny to jeden ze wskaźników , którym kierują się algorytmy wyszukiwarek przy indeksowaniu i pozycjonowaniu strony. Im wyższy Autorytet domeny, tym bardziej prawdopodobne, że znajdzie się ona wyżej na liście wyników organicznych.
Od czego zależy Autorytet domeny
Autorytet Domeny zależy od czynników takich jak jej wiek (średnio 3 lata nieprzerwanego funkcjonowania domeny liczą się jako ważny parametr autorytetu), wartość publikowanych treści, ruch na stronach wchodzących w skład witryny, liczba i jakość linków przychodzących, trafność i ilość słów kluczowych, opinie użytkowników i komentarze w mediach społecznościowych. Im bardziej wartościowa pod względem merytorycznym i lepiej oceniana pod względem przydatności przez użytkowników domena, tym lepiej dla jej autorytetu.
Czym Domain Authority (Autorytet domeny) różni się od Page Authority (Autorytetu strony)
Autorytet Domeny to praktycznie to samo, co Autorytet strony i kształtują go podobne czynniki. W przypadku Page Authority chodzi o autorytet pojedynczej strony, a Domain Authority jest wskaźnikiem dotyczącym całej domeny.
Jak poprawić Autorytet domeny
Autorytet Domeny można poprawić za sprawą przemyślanej strategii SEO. Działania powinny zmierzać do optymalizacji pod względem słów kluczowych i linkowania (dobrze rozmieszczone linki wewnętrzne i wartościowe linki przychodzące), stawiać na publikowanie oryginalnych treści wysokiej jakości i wyeksponowanie pozytywnych opinii użytkowników w wynikach wyszukiwania. Warto również zoptymalizować metadane i układ domeny, nawigację i mapę witryny. Na autorytet domeny korzystny wpływ ma posiadanie przez nią certyfikatu SLL i dostosowanie jej do korzystania z urządzeń mobilnych. Działania te to z jednej strony optymalizacja domeny pod kątem wyszukiwarek, a jednocześnie dobra taktyka zwiększania Autorytetu domeny.
Autorytet Domeny a pozycjonowanie witryny
Autorytet domeny to jeden z parametrów mający wpływ na pozycjonowanie choć nie można mówić o prostej zależności wysoki Autorytet domeny = wysoka pozycja witryny w SERP. Algorytmy wyszukiwarek biorą wiele różnych elementów przy indeksowaniu i pozycjonowaniu stron i witryn, jednak wysoki Autorytet domeny na pewno nie zaszkodzi.
- Doorway Pages (strony przejściowe)
Strony przejściowe to takie strony internetowe, które przekierowują użytkownika na inną stronę. Zwykle ma to związek ze stosowaniem technik z zakresu Black Hat SEO i jest źle widziane przez algorytmy wyszukiwarek.
Strony przejściowe a pozycjonowanie
Strony przejściowe mają na celu sztuczne generowanie ruchu na stronie docelowej. Po ich otworzeniu użytkownik jest przekierowywany do innej strony poprzez kliknięcie w link lub frazę z ukrytym hiperłączem, a najczęściej na zasadzie polecenia META Refresh, które automatycznie przenosi na inną stronę. Jeśli strona przejściowa została utworzona dla lepszego pozycjonowania strony docelowej i marketingu internetowego jest to działanie przynoszące korzyści jedynie na krótką metę. Ruch na stronie docelowej może się zwiększyć na jakiś czas po utworzeniu strony przekierowującej, ale jeśli algorytmy sieciowe wykryją takie nieuczciwe działania, czyli znajdą stronę przejściową (a zwykle dzieje się tak dość szybko), nakładają na nią karę w postaci wykluczenia z wyników wyszukiwania.
Strony przejściowe – jak to działa
Strona przejściowa zazwyczaj jest tworzona tak, by zawierała popularne frazy kluczowe, często wpisywane przez użytkowników w okno wyszukiwarki. Kiedy użytkownik, nieświadomy podstępu, otwiera taką stronę, jest przekierowywany do innej witryny, której wcale nie miał ochoty odwiedzać. Część ze stron przejściowych jest generowana z uwagi na nieuczciwy marketing i zwiększenie ruchu na stronie docelowej, jednak mogą zdarzać się także strony docelowe z treściami szkodliwymi dla użytkownika. Algorytmy Google nie zajmują się oceną realnej szkodliwości – biorą pod uwagę tę potencjalną i po wykryciu strony przejściowej blokują ją ze skutkiem natychmiastowym.
Strony przejściowe – inne nazwy
Strony przejściowe określane są także jako Portal Pages, Gateway Pages, Entry Pages, Bridge Pages, Jump Pages i Zebra Pages.
- Featured Snippets (Fragmenty z odpowiedzią)
Featured Snippets czyli Fragmenty z odpowiedzią to fragmenty tekstu zamieszczonego na danej stronie, które wyświetlają się w wyszukiwarce w pierwszej kolejności w odpowiedzi na zapytanie użytkownika. Fragmenty z odpowiedzią mogą zawierać również tabele, grafiki, zdjęcia, mapy lub filmy.
Fragmenty z odpowiedzią – czy mają wpływ na rankingi strony?
Kiedy użytkownik wpisuje w okno wyszukiwarki pytanie, np. jak długo gotować rosół, wyniki mogą mieć formę fragmentów z odpowiedzią. Mogą też wyświetlać się w sekcji Podobne pytania. Użytkownik może, ale nie musi kliknąć w link prowadzący do strony, z której pochodzi fragment z odpowiedzią. W praktyce wiele osób tego nie robi, ponieważ otrzymali gotową odpowiedź w postaci Featured Snippet. Mogłoby się zatem wydawać, ze fragmenty z odpowiedzią nie mają wpływu na rankingi strony, ale to nie do końca prawda. Algorytmy wyszukiwarek nieustannie przeszukują zasoby dostępne w sieci i jeśli znajdą coś, co ich zdaniem najlepiej pasuje do aktualnych potrzeb internautów, wyświetlają to na wysokich pozycjach w wynikach organicznych. Fragmenty z odpowiedzią zostały uznane za przydatne w kontekście danego zapytania, może być zatem tak, że dla użytkownika ciekawy okaże się cały tekst, a zatem wejdzie na stronę, z której pochodzi fragment. Co ważne kliknięcie w Featured Snippet przenosi użytkownika do konkretnej sekcji, w której dany fragment się pojawia.
Fragmenty z odpowiedzią a SEM
Fragmenty z odpowiedzią mogą być postrzegane jako forma marketingu internetowego, choć zależność (wyświetlenie fragmentu z odpowiedzią = lepsze rankingi strony) nie jest prosta i oczywista. Najogólniej można powiedzieć, że strona, której fragmenty wyświetlają się w sekcji odpowiedzi na pytania zyskuje lepszą widoczność i większy ruch. Zwiększa się współczynnik klikalności i konwersji, a tym samym strona jest lepiej pozycjonowana w wynikach organicznych.
Co ważne, nie można zaznaczyć fragmentów w tekście, które mają wyświetlać się w Featured snippets. Algorytmy wyszukiwarki samodzielnie klasyfikują dany fragment tekstu pochodzący z danej strony jako dobrą odpowiedź na zapytanie użytkownika. Innymi słowy, aby trafić do fragmentów z odpowiedzią, tekst musi być dobrej jakości pod względem merytorycznym i innymi, ważnymi z punktu widzenia algorytmów. W tym kontekście istotne są działania SEO mające na celu optymalizację tekstów pod kątem wymagań algorytmów wyszukiwarki.
- Geotargeting in SEO (Geolokalizacja/ Geotargeting a SEO)
Geolokalizacja lub geotargeting (geotargetowanie) to strategia mająca na celu dostosowanie wyników organicznych wyświetlanych po wpisaniu danego zapytania w wyszukiwarce do miejsca (lokalizacji), w którym aktualnie znajduje się użytkownik. Tak dopasowane wyniki są znacznie bardziej przydatne dla użytkownika, co ma z kolei wpływ na jej ocenę przez algorytmy i pozycjonowanie strony.
Geotargetowanie a SEO
Geotargetowanie jest jedną z taktyk optymalizacji strony pod kątem wyników organicznych. Oznaczenie strony pod względem jej lokalizacji to świetny sposób na zwiększenie jej lokalnej widoczności i lepsze pozycjonowanie w SERP. Geotargetowanie może być mniej lub bardziej precyzyjne – można uwzględnić w nim kraj, miasto, a nawet konkretną dzielnicę. Z punktu widzenia użytkownika szukającego danego rodzaju usługi lub sklepu w pobliżu, im bardziej precyzyjne jest geotargetowanie, tym lepiej. Należy jednak pamiętać, że z uwagi na geolokalizację użytkownicy znajdujący się aktualnie w różnych miejscach otrzymają inne wyniki w wyszukiwarce. Dana strona może wyświetlać się wysoko w wynikach organicznych na przykład w Gdańsku, a w Lublinie być zupełnie niewidoczna.
Jak wygląda Geotargetowanie w praktyce
Geotargetowanie zazwyczaj polega na umieszczaniu w tekstach publikowanych na stronie i w jej wizytówce słów kluczowych odnoszących się do konkretnego miejsca, np. stylizacja paznokci Katowice. Potencjalni klienci poszukujący takich usług w tym mieście po wpisaniu podobnie brzmiącej frazy w wyszukiwarce, w wynikach organicznych zobaczą naszą stronę. Inne działania mające na celu geotargetowanie jest używanie odpowiednich linków przychodzących (od zweryfikowanych stron lokalnych biznesów), stworzenie wizytówki Google My Business i używanie Map Google oraz wprowadzenie danych strukturalnych. Pamiętajmy jednak, że pozycja, na jakiej wyświetla się strona na liście wyników organicznych zależy także od wielu innych czynników, nie tylko od geotargetowania.
Czy Geotargetowanie zawsze jest korzystne ze względu na SERP
Geotargetowanie to strategia, która zwykle dobrze wpływa na pozycjonowanie strony, pod warunkiem, że oznaczenie lokalizacji jest uczciwe i nie ma na celu jedynie zwiększenia rankingów. Algorytmy Google są w stanie wykryć oszustwo w tej kwestii i nałożyć na stronę wykorzystującą fałszywe geotargetowanie karę. Ogólnie można powiedzieć, że Geotargetowanie jest korzystne dla lokalnych sklepów i usług, ale nie zawsze dla większych (np. ogólnokrajowych) biznesów.
- Google EAT (Expertise, Authoritativeness, Trustworthiness)
Google EAT to termin odnoszących się do aktualizacji algorytmów wyszukiwarki Google wprowadzonej w 2018 roku. Nazwa EAT jest akronimem od pierwszych liter angielskich słów Expertise, Authoritativeness, Trustworthiness. Znaczą one: ekspercki, posiadający autorytet, godny zaufania/ wiarygodny. Akronim od angielskich słów znaczy Jeść albo Jedz, co ma ukryty sens, ponieważ po wprowadzeniu tej aktualizacji wiele stron internetowych straciło swoją wysoką pozycję w rankingach – zostały „pożarte” przez nowy algorytm.
Jak działa Google EAT
Aktualizacja Google EAT została wprowadzona w celu lepszego dostosowania wyników wyszukiwania do potrzeb i bezpieczeństwa użytkowników. Chodziło przede wszystkim o wyeliminowanie z wyników organicznych stron publikujących treści niskiej jakości, spamujących i stosujących niedozwolone praktyki SEO. Google EAT promuje strony, na których umieszczane są teksty merytoryczne, oryginalne i przydatne dla użytkownika. Pod uwagę brany jest poziom tekstów (ich eksperckość), autorytet strony/ witryny (na który składa się m.in. autorytet autorów zamieszczanych na niej tekstów) oraz zaufanie do danej marki/ wiarygodność strony. Aktualizacja Google EAT działa relatywnie do tematyki danej strony, to znaczy że poziom EAT mierzony jest zależnie od tego, czego dotyczą teksty. Na przykład, bardziej restrykcyjne normy EAT będą obowiązywać dla strony publikującej teksty o tematyce medycznej niż dla tych, na których pojawiają się artykuły z poradami jak spędzić wolny czas. Witryny publikujące treści o tematyce medycznej, prawnej, dotyczącej zdrowia, diety, nauki czy gospodarki zaliczane są serwisów typu YMLA (Your Money, Your Life). Zamieszczanie na nich nieprawdziwych lub niesprawdzonych treści może mieć niekorzystny wpływ dla wyborów użytkowników, dlatego znajdują się one pod szczególną kontrolą algorytmów wyszukiwarek.
EAT a rankingi strony
Google i inne wyszukiwarki nie zdradzają zbyt wielu tajemnic związanych z czynnikami mającymi wpływ na rankingi strony, jednak można przyjąć, że trzy składowe aktualizacji Google EAT (eksperckość, autorytet, wiarygodność) mają spore znaczenie z punktu widzenia indeksowania i pozycjonowania strony. Aktualizacja Google EAT jest z pewnością użyteczna dla użytkowników wyszukiwarki, ponieważ dzięki jej zastosowaniu otrzymują oni bardziej wiarygodne i lepszej jakości treści odpowiadające na ich zapytania.
- Keyword Density (Gęstość słów kluczowych)
Gęstość słów kluczowych to wskaźnik wyrażony w procentach określający ile razy dane słowo kluczowe/ fraza kluczowa pojawia się na stronie.
Gęstość słów kluczowych a pozycjonowanie strony
Gęstość słów kluczowych jest ważna z uwagi na algorytmy indeksujące wyszukiwarki, ale nie na zasadzie prostej zależności „im więcej słów kluczowych, tym lepiej”. Algorytmy biorą pod uwagę także inne parametry, takie jak wartościowość słów kluczowych, to czy ich użycie wygląda naturalnie w danym tekście (czy są istotne z uwagi na treść) oraz m.in. rozmieszczenie słów kluczowych, czyli odległość między nimi w tekście (keyword proximity). Zbyt duża gęstość słów kluczowych może zostać zakwalifikowana jako upychanie fraz kluczowych na siłę (keyword stuffing) i obniżyć pozycjonowanie strony.
Jak obliczyć gęstość słów kluczowych
Gęstość słów kluczowych, czyli stosunek procentowy słowa kluczowego do ogólnej liczby słów na stronie/ w tekście oblicza się na podstawie następującego wzoru:
Gęstość słów kluczowych = liczba pojawień się słowa kluczowego/ całkowita liczba słów na stronie x 100
A zatem: jeśli liczba słów w tekście wynosi 1000, a dane słowo kluczowe użyte zostało 15 razy, to aby obliczyć jego Gęstość, należy podzielić 15 przez 1000, a wynik pomnożyć przez 10: 15/1000 x 100. Otrzymany wynik wyrażany jest w procentach i dla naszego przykładu wynosi 1,5 procent.
Ile powinna wynosić gęstość słów kluczowych
Optymalna wartość wskaźnika gęstości słów kluczowych mieści się pomiędzy 0,5 a 2,5 procent. Wynik poniżej tej wartości wskazuje na zbyt małą ilość słów kluczowych w tekście, zaś powyżej może świadczyć o nieetycznych praktykach SEO, czyli upychaniu słów kluczowych na siłę. Teksty ze zbyt dużą gęstością słów kluczowych zwykle brzmią nienaturalnie, co ma wpływ na doświadczenie użytkownika i jego ocenę treści (niekorzystną). Za upychanie słów na siłę algorytmy wyszukiwarki mogą nałożyć na stronę karę, a użytkownicy mogą się zniechęcić czytając dziwnie brzmiący tekst i poszukać wskazówek u konkurencji.
- Keyword Prominence (Widoczność słów kluczowych/ wyróżnienie słów kluczowych w tekście)
Keyword Prominency to wskaźnik odnoszący się do widoczności głównych słów kluczowych w tekście. Powinny być one umieszczone w odpowiedni sposób, to jest w odpowiednich miejscach. Widoczność głównych słów kluczowych ma duże znaczenie dla rankingów strony.
Widoczność słów kluczowych a pozycjonowanie strony
Widoczność słów kluczowych to jeden z elementów pozwalających na lepsze pozycjonowanie strony, czyli wyświetlanie jej adresu wyżej w wynikach organicznych. W tekstach zamieszczanych na stronach internetowych jest zwykle cały zestaw słów kluczowych, przy czym Keyword Prominency odnosi się do głównej frazy kluczowej, która określa tematykę tekstu. Ta fraza powinna znaleźć się w takich miejscach jak tytuł, nagłówki i pierwszy paragraf oraz (optymalnie) podsumowanie. Powinna również pojawić się w adresie URL oraz w metadanych (meta opisie). Dzięki temu algorytmy indeksujące mogą łatwiej rozpoznać tematykę strony i odpowiednią ją sklasyfikować. Wskaźnik Widoczności słów kluczowych określa na ile efektywne jest rozmieszczenie głównej frazy kluczowej w tekście – im jest ono lepsze, tym lepiej dla pozycjonowania strony.
Widoczność słów kluczowych a odległości między nimi (keyword proximity)
Wskaźnik Widoczności słów kluczowych jest powiązany z innym ważnym elementem, a mianowicie odległością, w jakiej znajdują się od siebie słowa kluczowe użyte w tekście. Im bliżej siebie znajdują się słowa kluczowe, tym lepiej (z punktu widzenia użyteczności dla algorytmów wyszukiwarki), należy jednak pamiętać, by zachować umiar i zdrowy rozsądek. Tekst powinien przede wszystkim brzmieć naturalnie, zatem czasami używanie słów kluczowych w jednym ciągu może być niekorzystne. Podobnie jest z używaniem zbyt dużej ilości słów kluczowych – programy indeksujące mogą zakwalifikować to jako keyword stuffing, czyli upychanie słów kluczowych na siłę. Wszystko zależy od kontekstu, od długości tekstu i jego tematyki. W działaniach SEO pod kątem optymalizacji słów kluczowych zaleca się raczej używanie synonimów niż zbyt dużej ilości powtórzeń głównej frazy kluczowej.
Widoczność słów kluczowych a odbiór tekstu przez użytkowników
Strony, na których słowa kluczowe są dobrze wyeksponowane i rozmieszczone, są lepiej odbierane i oceniane przez użytkowników. Precyzyjne i nie nadmierne umieszczenie w tekście głównej frazy kluczowej pozwala rozeznać się w tematyce artykuły, a jednocześnie nie zaburza naturalności tekstu pisanego. Właściwe wyróżnienie słów kluczowych w tekście to dobry sposób, by zdobyć uznanie użytkowników.
Keyword Proximity w praktyce
Przykład dobrego umieszczenia frazy kluczowej kawa organiczna w tytule (wysoki wskaźnik Keyword Proximity) to: Kawa organiczna dla smakoszy: poradnik dla konsumenta. Tytuł Jak wybrać dobrą kawę organiczną będzie miał niższy wskaźnik Keyword Proximity.
Leksykon pojęć
Zastanawiasz się, czym jest SEO? A może słyszałeś o optymalizacji on-site, off-site, backlinkach, słowach kluczowych i innych tajemniczych terminach, ale nie do końca wiesz, co oznaczają? Jeśli tak, to ten leksykon jest właśnie dla Ciebie! Został stworzony, aby pomóc Ci zrozumieć świat pozycjonowania stron internetowych w wyszukiwarkach. Znajdziesz tu definicje najważniejszych pojęć SEO, wyjaśnione w prosty i przystępny sposób. Leksykon to doskonałe źródło wiedzy zarówno dla osób początkujących, jak i bardziej doświadczonych webmasterów. Z pewnością znajdziesz tu wiele cennych informacji, które pomogą Ci w osiągnięciu sukcesu w pozycjonowaniu stron.
Zapraszamy do zapoznania się z leksykonem!
Uwaga: Leksykon jest stale aktualizowany o nowe pojęcia i definicje. Zapraszamy do regularnego odwiedzania strony!