03-09-2023
Pozycjonowanie stron internetowych
Chcesz dowiedzieć się, czym jest i jak działa pozycjonowanie stron? Mamy dla Ciebie konkretne kompendium wiedzy. Bez lania wody i reklamowego mydlenia oczu. Dowiesz się tutaj czym jest SEO, jak działa, co się na nie składa i co tak naprawdę jest w nim ważne. Zobaczysz też w jaki sposób sprawdzać jego efekty i zrozumiesz, jak działa Google. Pokazujemy, co i jak można zrobić samodzielnie i wskazujemy, gdzie znajdziesz wszystkie niezbędne do tego informacje. Wymieniamy najważniejsze elementy audytu SEO, przedstawiamy, o co chodzi ze strategią, podpowiadamy co wybrać. Podpowiadamy nawet wprost, jak sprawdzić agencję SEO przed podpisaniem umowy. Jednym zdaniem: jeśli tylko chodzi o pozycjonowanie, to na tej stronie znajdziesz odpowiedzi na wszystkie swoje pytania!
Czym jest pozycjonowanie i co oznacza skrót SEO?
Pozycjonowanie to proces (ciąg powiązanych czynności), którego celem jest poprawienie widoczności organicznej strony w wynikach wyszukiwania Google. W procesie tym wpływamy na to, jak dany serwis jest postrzegany przez wyszukiwarkę. Wszystko po to, by zwiększyć ruch na stronie.
Skrót SEO to z angielskiego Search Engine Optimization, czyli optymalizacja stron do potrzeb wyszukiwarki internetowej. Jest to więc dokładnie to samo, co pozycjonowanie stron (nazwy SEO używamy dla niego zamiennie).
Pozycjonowana strona zyskuje na jakości w “oczach Google”, dzięki czemu jest prezentowana na listach wyników wyszukiwania wyżej i częściej (na coraz więcej wyszukiwanych słów). To z kolei sprawia, że wyświetla się ona większej liczbie użytkowników, a Ci odwiedzają ją - rośnie więc ruch.
W SEO chodzi o to, by pomóc stronie czy sklepowi internetowemu znaleźć się w jak najkorzystniejszym miejscu wyników Google. Nie na chwilę, jak poprzez płatną reklamę, która znika w momencie wyczerpania budżetu, a na dłużej - dopóki nie pojawi się serwis, który Google uzna za lepszy.
Z czego składa się pozycjonowanie stron?
Wbrew pozorom, SEO to nie tylko szeroko pojęta optymalizacja stron. To też różne działania podejmowane kompletnie poza pozycjonowanym serwisem. Jak to możliwe? Wyjaśniamy poniżej.
On-site SEO, czyli działania na stronie
Choć nie jedyna, optymalizacja strony jest w SEO bardzo ważna. Składa się na nią optymalizacja elementów technicznych serwisu oraz optymalizacja zawartych w nim treści (w tym szczególnie ich rozbudowa). Razem, działania te nazywa się często właśnie “on-site SEO”, bo dokładnie tym są, czyli działaniami prowadzonymi na stronie.
Zasadniczo, działania pozycjonowania stron on-site to dostosowywanie wszystkiego, co może wpłynąć na widoczność i pozycję w wynikach wyszukiwania. Ze strony technicznej staramy się tutaj jednocześnie dopasować serwis do wytycznych Google i potrzeb naszych użytkowników. Co do treści natomiast, dokładamy tu z kolei starań, by wyszukiwarka była w stanie “zrozumieć” naszą stronę tak, jak rozumieją ją użytkownicy.
Optymalizacja techniczna może obejmować np. naprawianie błędów, poprawę struktury strony lub uzupełnianie meta tagów. Optymalizacja treści z kolei to zwykle rozbudowa tekstu znajdującego na stronie na potrzeby pozycjonowania. W działaniach on-site dbamy też o indeksację, czyli kluczowy w pozycjonowaniu proces zbierania i przetwarzania danych o stronie, prowadzony przez wyszukiwarkę.
*Więcej szczegółów na temat optymalizacji technicznej, optymalizacji treści i indeksacji w SEO znajdziesz niżej - zobacz spis treści po lewej!
Off-site SEO - pozycjonowanie poza stroną
Off-site SEO to pozycjonowanie, które nie jest prowadzone na stronie internetowej. To wszystko, co robimy “na zewnątrz” serwisu w ramach SEO. Zasadniczo jest to jeden proces: link building, czyli pozyskiwanie linków zewnętrznych do pozycjonowanej strony.
Linki te (odnośniki HTML) są dla Google istotnym sygnałem mówiącym o jakości witryny, do której kierują. Kluczowy w tym procesie jest jednak nie sam fakt ich zamieszczenia, a odpowiedniego “otoczenia”, czyli strony i treści, w której się pojawiają. Więcej na ten temat znajdziesz niżej, w “Linkowanie”.
Do SEO prowadzonego poza stroną sporadycznie zalicza się też sporadycznie wszystkie inne działania podejmowane poza serwisem “przy okazji” pozycjonowania. Może to być np. dobór słów kluczowych, analiza konkurencji czy konstruowanie strategii SEO, ale i prowadzenie social media lub dodatkowe angażowanie użytkowników.
Włączanie tych działań do definicji pozycjonowania poza stroną to już jednak bardziej spór o definicję niż realny podział. Czysto praktycznie off-site SEO to tylko i wyłącznie linkowanie zewnętrzne.
Pozycjonowanie lokalne
Pozycjonowanie lokalne to SEO, które uwzględnia lokalizację
To taki inny rodzaj SEO, które pozwala na pozycjonowanie stron w określonym regionie. Jest ono możliwe głównie dzięki tzw. zapytaniom lokalnym (zawierającym nazwę miejscowości) oraz mechanizmom geolokalizacji Google, które dostosowują wyniki do lokalizacji i poprzedniej aktywności.
Efekty zwykłego SEO są “globalne” dla danego języka - tego, w którym działa strona
Efekty pozycjonowania lokalnego już z kolei nie. Ograniczają się one wyłącznie do określonego regionu, najczęściej miasta, w którym działa pozycjonująca swoją stronę firma.
Jeśli, dajmy na to, pozycjonujemy stronę standardowo na zapytanie “pomoc drogowa” i wypracujemy dobrą pozycję, to zobaczy nas każdy, kto wpisze w wyszukiwarce “pomoc drogowa”.
Przy pozycjonowaniu lokalnym strona będzie pojawiać się za to już tylko w wynikach tylko w określonym regionie czy mieście (lub gdy szukający dopisze je do zapytania, np. “pomoc drogowa Wrocław”).
Jak nietrudno się domyślić, lokalne pozycjonowanie stron ma sporo korzyści, szczególnie tych czysto biznesowych:
SEO lokalne pozwala pozyskiwać tylko tych Klientów, których fizycznie da się obsłużyć (z okolicy w której działa firma).
Dzięki niemu pozycjonowanie stron można bardzo efektywnie wykorzystać, w lokalnym biznesie.
Zapytania lokalne są często mniej popularne, więc budowanie widoczności może być łatwiejsze.
To dobra alternatywa tam, gdzie zapytania na cały kraj są zbyt mocno oblegane przez konkurencję.
Co do przebiegu i elementów procesu pozycjonowanie lokalne różni się od “zwykłego” SEO właściwie tylko wykorzystaniem specyficznych słów kluczowych zawierających nazwy miejscowości. Pojawiają się w nim jednak także elementy nieobecne w pozycjonowaniu na cały kraj, jak np. optymalizacja profilu Google Moja Firma (Firma w Mapach Google).
Warto wspomnieć też, że niektóre z czynności w pozycjonowaniu lokalnym prowadzone są nieco inaczej. Przykładowo: w pozyskiwaniu linków zwrotnych rolę zaczyna odgrywać powiązanie stron z konkretnym regionem, a w optymalizacji bardzo istotna staje się obecność i spójność adresów publikowanych na stronie.
Z pozycjonowania lokalnego najczęściej korzystają serwisy, których oferta dotyczy tylko konkretnego miejsca. To oczywiście biznesy stacjonarne, do których Klient musi fizycznie przyjść, np. restauracje czy siłownie, ale też firmy usługowe, które działają np. tylko w danym mieście i okolicach lub kilku miejscowościach.
Co warto mieć z tyłu głowy: pozycjonowanie lokalne nie wymaga ograniczania się ani wyłącznie do jednego miasta, ani nawet do jednego “regionu”. W praktyce więc, z powodzeniem możemy pozycjonować stronę jednocześnie na Gdańsk, Gdynię, Sopot i choćby... Zakopane. Pełna dowolność. Jeśli ma to potencjał, to możemy nawet pozycjonować się na konkretne dzielnice, ulice czy miejsca, np. “Warszawa Mokotów” lub “Kraków Rynek główny”.
słowa kluczowe zawierające nazwy miejscowości
optymalizacja profilu Google Moja Firma
pozyskiwanie linków zwrotnych przez powiązanie stron z regionem
biznesy stacjonarne, np. restauracje, siłownie
nie wymaga ograniczenia do jednego regionu
Wizytówka Google Moja Firma - kompleksowy poradnik Rodzaje i dobór słów kluczowych Analiza słów kluczowych Planer słów kluczowych
Jak działa Google?
Żeby nakreślić jakoś to, jak tak właściwie działa pozycjonowanie stron, najlepiej będzie przedstawić to, jak działa Google. Pozycjonując, dostosowujemy stronę do wyszukiwarki, po to, by ta potraktowała ją tak, jak tego chcemy. Poprzez SEO wpływamy na wyszukiwarkę, jakby więc nie patrzeć, to właśnie sposób jej działania dyktuje tu “zasady gry”.
Wyszukiwarka Google działa w 3 etapach, którymi są: skanowanie, indeksowanie oraz wyświetlanie wyników:
Skanowanie
Skanowanie polega na pobieraniu zawartości stron przez oprogramowanie nazywane robotem internetowym.
Indeksowanie
Indeksowanie to zautomatyzowana analiza pobranych danych i przypisanie ich do bazy danych.
Wyświetlanie wyników
Wyświetlanie wyników jest natomiast zwracaniem informacji z tej bazy - wedługo zapytania użytkownika.
Nie każda strona internetowa przechodzi przez wszystkie z tych etapów. Google mówi otwarcie, że nie gwarantuje nawet skanowania strony, nie mówiąc już o indeksowaniu czy wyświetlaniu. Niezależnie od zgodności z oficjalnymi wytycznymi. Pozycjonowanie stron pozwala jednak znacznie zwiększyć na to wszystko szansę.
Żeby wszystko było bardziej zrozumiałe, zaczniemy trochę od końca...
Słowa kluczowe*
Wyświetlanie wyników
*Słowa kluczowe to indywidualne zapytania tekstowe używane do wyszukiwania w Google.
Mogą być nimi pojedyncze słowa, ale znacznie częściej są to składające się z kilku słów wyrazy, a nawet i całe zdania. To właśnie do nich Google przypisuje witryny internetowe w swojej bazie danych - indeksie. Jak nietrudno się więc domyślić, są one dla pozycjonowania bardzo ważne. Właściwie, dobiera się je na samym początku procesu SEO - i przypisuje do konkretnych stron.
Podstrona kursu pozycjonowania Top Online ma przypisane zapytanie “kurs SEO” i to właśnie pod nim docelowo ma pojawiać się w wyszukiwarce.
Od tego, czy słowa zostaną dobrane odpowiednio, zależą efekty całego pozycjonowania, a wynika to z 2 głównych powodów:
Sama popularność nie jest tu jednak wbrew pozorom najważniejsza. We współczesnej wyszukiwarce ogromne znaczenie ma też bowiem to, co osoba wpisująca konkretne słowo kluczowe w Google chce osiągnąć. Cel ten to tzw. intencja szukającego, która może dotyczyć pozyskania informacji, rozrywki, ale i np. zakupu określonego produktu.
Google dobiera wyniki na konkretne słowo kluczowe, mierząc wiele różnych elementów poszczególnych stron. Jednym z nich jest sama obecność frazy na stronie, która wskazuje na to, że dany adres jest do niej dopasowany. Poza tym mierzone są dziesiątki aspektów technicznych oraz zewnętrznych. Uwzględniane są też informacje o stronie obecne już w bazie danych.
Coraz ważniejszym, niemal kluczowym już aspektem jest jednak właśnie spełnienie intencji. Może być to więc np. to, czy strona pod frazą “pozycjonowanie stron” zapewnia wszelkie niezbędne informacje o SEO lub dostęp do samej rzetelnej usługi. Oraz, oczywiście, w jaki sposób to robi (czy jest przystępna i użyteczna). Do każdej strony na początku SEO dobieramy więc słowa kluczowe, na które będziemy pozycjonować. Na ich sukces składa się z kolei odpowiednio wyważona popularność i konkurencyjność oraz prawidłowo odczytane intencje.
Widoczność strony i pozycja w Google*
Wyświetlanie wyników
*Pojęcie pozycji w Google jest dość proste: to miejsce, które pozycjonowana strona zajmuje na wybrane słowo kluczowe.
Wiadomo, im wyżej, tym lepiej, a najlepiej jeśli znajdziemy się w ścisłej czołówce (TOP 10 wyników). Efekty SEO mierzy się jednak nie samymi pozycjami, a przede wszystkim poprzez badanie widoczności strony w Google. Widoczność strony została opracowana przez branżę SEO. Mierzy się ją ilością słów kluczowych, na które wyszukiwarka wyświetla daną stronę w wynikach z podziałem na poszczególne przedziały pozycji. Przedziały te z kolei to nic innego jak zakresy miejsc, na których “widać nas w Google”.
Widoczność przedstawia się najczęściej w trzech zakresach pozycji zajmowanych na stronach wyników:
1-3 (TOP3)
1-10 (TOP10)
11-50 (TOP50)
Pierwszy, czyli TOP3, to pozycje najwyższe, które generują realne efekty biznesowe - ruch (bo mało kto szuka dalej niż na pierwszej stronie Google). Podobnie sytuacja wygląda z metryką TOP10. TOP50 to z kolei frazy, które wyszukiwarka bierze już poważnie pod uwagę. Reprezentują one wyraźne efekty SEO, które zwykle nie są jeszcze widoczne gołym okiem jako nowi użytkownicy czy sprzedaż.
Na wykresie powyżej widać sklep, który w przeciągu roku pozycjonowania zyskał około 150 słów kluczowych w TOP10 oraz ponad 1500 nowych słów kluczowych w TOP50. Oznacza to więc tyle, że dzięki SEO pojawia się on w Google na prawie 1500 nowych, różnych zapytań - z czego na 150 na pierwszej stronie wyników.
Indeksacja w Google (indeksowanie)*
*Indeksacja to proces, w którym Google analizuje pobraną zawartość strony internetowej, dokonuje jej oceny i zapisuje ją (bądź nie) w swojej bazie danych - indeksie.
To właśnie z niej pochodzą wyniki wyszukiwania. Szukając w Google, szukamy więc tak właściwie nie w Internecie, a właśnie w indeksie.
Indeks jako taki stanowi bazę informacji o stronach internetowych. O ich zawartości, odpowiadającym jej zapytaniom i jakości tej “odpowiedzi”, czyli treści na stronie. Te są przypisywane z kolei do każdej witryny przez różne współgrające algorytmy sortujące i oceniające (czyli specjalne oprogramowanie).
Na podstawie tej niezwykle złożonej oceny Google dobiera strony do wyników. Cała ta operacja jest w pełni zautomatyzowana i prowadzona na gigantyczną skalę. Parę lat temu Google chwaliło się, że ich indeks waży już grubo ponad 100 milionów (!) gigabajtów. To “zaledwie” jakieś 100 tysięcy dysków twardych o pojemności 1TB.
Bez procesu indeksacji nie ma więc obecności w wyszukiwarce. To właśnie do niego pozycjonowanie stara się więc dostosować strony, bo w gruncie rzeczy to od jego przebiegu zależy efekt SEO.
Indeksowanie - baza informacji o stronach internetowych
Google dobiera strony do wyników
Obecność strony w wyszukiwarce
Co jednak ważne, w praktyce pozycjonowania do procesu indeksacji zaliczamy także prowadzony przez wyszukiwarkę osobno proces skanowania, znany także jako crawling lub crawlowanie. On również jest kluczowy, bo to w nim Google dowiaduje się o istnieniu naszej strony, a więc i o całej pracy włożonej w jej pozycjonowanie.
Roboty internetowe (skanowanie)*
*Proces skanowania również jest w pełni automatyczny, a prowadzą go autonomiczne roboty internetowe. Jakkolwiek rodem z science fiction by jednak to nie brzmiało, roboty te, to po prostu oprogramowanie. Są to tzw. Googleboty lub crawlery (z ang. pełzacze), co nawiązuje do sposobu poruszania się ich po stronach.
Roboty internetowe poruszają się po linkach. Z jednego na drugi adres przechodzą więc dalej głównie za pomocą napotkanych odnośników. Zadanie Googlebota wyszukiwarki jest proste: odwiedzić adres, pobrać jego zawartość (treść i wszystko, co znajduje się w kodzie strony) i wysłać ją na serwery Google. Tam zostanie ona oceniona i przypisana (lub nie) do wyników.
W praktyce jest to jednak dość złożona operacja, bo boty te odwiedzają strony nie tylko raz, ale cyklicznie - aby dostarczać wyszukiwarce informacji o ich aktualizacjach. Nawet wtedy, gdy nie zostaną wpisane do indeksu. Ta częstotliwość mu z kolei być odpowiednio wyważona, bo jakby nie patrzeć: ich rola to regularne odwiedzanie praktycznie całego dostępnego publicznie internetu. Tego już istniejącego i tego dopiero powstającego.
Samych robotów internetowych jest też znacznie więcej. Już tylko wyszukiwarka Google ma ich kilkanaście, a swoje boty mają też wszystkie inne wyszukiwarki, media społecznościowe, sieci reklamowe, narzędzia analityczne i... hakerzy. Szacuje się nawet, że boty generują już ponad połowę całego ruchu w sieci.
Na SEO obecność robotów internetowych przekłada się w kilku aspektach. Pozycjonując, dbamy o to, żeby boty wyszukiwarek miał łatwy dostęp do strony. Musimy też jednak pilnować, by nie pojawiały się na niej boty niechciane. Bardzo ważne jest także to, by roboty zobaczyły stronę prawidłowo - co wcale nie jest takie oczywiste.
Jak Google “widzi” stronę*
(skanowanie i indeksowanie)
*W SEO optymalizujemy stronę nie tylko do wytycznych wyszukiwarki, ale i do potrzeb użytkownika. Staramy się to też ze sobą pogodzić, co potrafi być wyzwaniem, szczególnie w aspektach stricte technicznych. Robot Google nie jest w stanie zobaczyć strony tak jak człowiek. Po prostu pobiera jej zawartość kryjącą się w plikach HTML i... to tyle.
Algorytmy Google
Algorytmy Google nie posiadają ludzkiej inteligencji, poczucia estetyki czy kontekstu tego, czym jest dana witryna. Posiadają jednak ogromne moce obliczeniowe, setki skomplikowanych czynników oraz złożonych wytycznych według których je analizują. W miarę rozwoju algorytmów są w tym też coraz skuteczniejsze - a na pewno skuteczniejsze w tym zadaniu od człowieka.
Jak Google widzi stronę
W gruncie rzeczy Google “widzi” jednak stronę jako czysty kod źródłowy i to on jest podstawą informacji. To stąd bierze się konieczność uzupełniania w SEO specjalnych niewidocznych na stronie znaczników oraz odpowiednio dostosowanej treści. To właśnie one są dla wyszukiwarki podstawą rozumienia tego, co znajduje się na danej stronie.
Rozwój wyszukiwarki
W tym miejscu trzeba jednak zaznaczyć fakt rozwoju wyszukiwarki. W ostatnich latach razem z rozwojem uczenia maszynowego obserwujemy wyraźne skupianie się Google także na wideo, dźwięku czy grafice - czego najlepszym przykładem może być funkcja obiektywu, czyli Google Lens.
Aktualizacje algorytmów Google
Zapamiętaj
Aktualizacje algorytmów Google są dokładnie tym, na co wskazuje ich nazwa. Daleko im jednak do znanych nam z codziennego życia aktualizacji systemu operacyjnego, programów czy aplikacji. Ktoś kiedyś powiedział, że “aktualizacja algorytmu Google” to najlepszy “clickbait” na specjalistę SEO - jest w tym sporo racji.
Zmiana w algorytmach wpływa zwykle (mniej lub bardziej) na to, jak dobierane są wyniki. Każda aktualizacja wyszukiwarki może więc wywrócić prowadzone dotąd pozycjonowanie strony do góry nogami (lub dość mocno nim zachwiać). Może też przynieść nowe możliwości. Stąd w SEO potrzeba ciągłego śledzenia zmian i ich efektów.
Najbardziej rozpoznawalny algorytm wyszukiwarki to emerytowany już PageRank - jeden z głównych czynników sukcesu Google. Kluczowe znaczenie w rozwoju pozycjonowania miały z kolei algorytmy wprowadzone jako aktualizacje “Panda” oraz “Pingwin”. O ich historii możesz przeczytać w naszym kompendium.
Nie istnieje tylko jeden algorytm Google. Wiemy, że jest ich wiele, a razem tworzą one automatyczne systemy rankingowe spełniające określone zadania. To dzięki nim Google jest w stanie przetwarzać i oceniać miliardy stron. Dzięki nim, mimo tej niepojętej ilości może również w miarę trafnie i użytecznie przypisywać informacje do konkretnych zapytań.
Audyt SEO
Audyt SEO to audyt strony internetowej, w którym analizujemy sytuację danej witryny pod kątem pozycjonowania. Sprawdzamy w nim:
obecność domeny w Google (widoczność i pozycję strony na frazy)
stan techniczny strony
treści strony
To punkt wyjścia, który daje obraz tego, co trzeba i można zrobić pod danym adresem.
Można powiedzieć, że audyt SEO strony, to takie badanie witryny, jej inwentaryzacja. Od niego zaczyna się cały proces pozycjonowania strony, razem z doborem słów kluczowych. Każdy ma tu swoje metody, ale co do zasady audytem sprawdza się wszystko to, czego dotyczyć może później optymalizacja SEO.
Audyt SEO proces pozycjonowania
W audycie sprawdzamy między innymi: przekierowania, certyfikat SSL, meta tagi, poprawność indeksowania czy błędy w kodzie strony. Weryfikujemy dostosowanie do urządzeń mobilnych, wszelkie odnośniki oraz atrybuty HTML. Analizujemy też wspomniane już treści oraz widoczność - żeby ustalić obecny już potencjał na skuteczne pozycjonowanie.
Cały proces jest dość rozbudowany, dlatego poszczególne elementy sprawdzane w audycie SEO opisaliśmy w kursie SEO Samodzielni. Taką pełną analizę serwisu na własne potrzeby można także przeprowadzić za pomocą w 100% darmowych narzędzi - o czym mówi nasz webinar “Audyt SEO domowymi sposobami”.
Jedno jest pewne: audyt i pozycjonowanie stron internetowych zawsze występują razem. To audytem zaczyna się też praktycznie każda usługa pozycjonowania.
Audyt SEO Webinar: Audyt SEO domowymi sposobami Audyt SEO bez płatnych narzędzi
Wybór agencji SEO
Jak zacząć pozycjonowanie strony? Właściwie jest dwie opcje: od nauki lub od poszukiwań odpowiedniego wykonawcy, czyli agencji SEO lub freelancera. Wiemy, że na stronę tę trafiają zainteresowani obiema opcjami, postaramy się więc pomóc :)
Na początek załóżmy, że interesuje nas usługa pozycjonowania stron, a nie prowadzenie SEO na własną rękę (o drugim tym przeczytasz niżej!). W takim wypadku pierwszy etap to zwykle poszukiwanie wykonawców i wysyłanie próśb o oferty (lub przeglądanie tych, które zalegają już na naszym mailu).
Rozwój wyszukiwarki
Tutaj polecamy kierować się dwiema zasadami.
Po pierwsze, rzetelna oferta będzie zawsze przejrzysta i czytelna, będzie zawierać dokładny zakres usługi.
Po drugie: będzie określać też cel współpracy. Nie sztuką jest powiedzieć “skuteczne pozycjonowanie stron”, sztuką jest pokazać, dlaczego będzie skuteczne w tym konkretnym przypadku.
Prosta sprawa: jeśli musimy zastanawiać się, co jest nam tak właściwie proponowane, to od razu wiadomo, że coś nie gra. Jeśli natomiast agencji zależy, to już w ofercie znajdziesz jakiś mniej lub bardziej zaawansowany zarys strategii pozycjonowania strony (Twojej strony, konkretnie, bez ogólników).
Dalej, dobrym filtrem wykonawców są również ich wyniki. Tutaj nie trzeba zwykle długo szukać, bo swoje efekty pozycjonowania stron agencje SEO eksponują zwykle aż zbyt mocno. Tutaj przyjrzyjmy się, czy w portfolio (case studies) są jakieś serwisy podobne do naszego (np. czy agencja prowadzi z sukcesami pozycjonowanie sklepów internetowych). Istotne są też dane zawarte w case studies. Jeżeli widzimy dwie, trzy ogólne statystyki, to może budzić wątpliwość. Natomiast konkretnie opisane efekty wraz ze screenami i konkretnymi liczbami będą bardziej wiarygodne i świadczące o agencji SEO.
Bezpośredni kontakt z agencją
Na tym etapie zwróćmy uwagę na to, jak ten kontakt przebiega. Czy jest sprawny i bezproblemowy to jedno, ale kluczowe jest też to, czy jako klient, w trakcie współpracy, będziemy mogli porozmawiać bezpośrednio ze specjalistą, który będzie pozycjonował przy nasz serwis. Po prostu o to wypytajmy.
A skoro już o zadawaniu pytań mowa, to wchodząc w rolę potencjalnych klientów, na pewno odpytalibyśmy jeszcze agencję ze sposobu raportowania prac i linkowania. W SEO rzetelne raporty to tak naprawdę jedyna opcja, żeby zobaczyć, czy robione jest to, za co płacimy. Linki z kolei muszą być bezpieczne, a firma powinna mieć nad nimi kontrolę.
Umowa
prześwietlamy dokładnie umowę. Zwłaszcza zapisy dotyczące:
okresu współpracy
warunków rozwiązania umowy
warunków dot. wynagrodzeń
Długie czasy umów bez możliwości ich wcześniejszego wypowiedzenia mogą być mocno ryzykowne dla Klienta. Podobnie jak nieścisłości co do kwot.
Agencja SEO - na co zwrócić uwagę Raport SEO - co powinien zawierać
Pozycjonowanie stron - jak się nauczyć?
Skoro wybór agencji mamy już z głowy, to teraz odpowiedzmy na pytanie, jak zacząć prowadzić pozycjonowanie stron internetowych samodzielnie. Dobra wiadomość jest taka, że SEO to nie fizyka kwantowa, ani nawet matematyka na poziomie akademickim i na pewno sobie z nim poradzisz. Zła: obiektywnie jest dość... nudne (choć zależy kogo spytać).
Pozycjonowanie najlepiej zacząć od wczytania się w podstawy teorii w dowolnym kursie (np. nasz darmowy kurs SEO Samodzielni). Dobrymi źródłami wiedzy są też webinary (na YouTube znajdziesz nagrania tych naszych!). Sięgnąć możesz również po książki (np. naszą - będącą pierwszym pełnym kursem SEO na polskim rynku wydawniczym). No ale dość tego promowania naszej działalności edukacyjnej - przejdźmy do rzeczy.
W podstawach teorii najlepiej jest dotrzeć do podstawowych audytów i dobierania fraz kluczowych. Na tym etapie polecamy włączyć do nauki teorię - czyli pierwsze samodzielne prace nad własną stroną. Nie musi to być od razu strona naszego biznesu - zawsze, dla bezpieczeństwa, można założyć serwis testowy! Oczywiście możesz też zacząć od samej teorii, ale im szybciej zaczniesz działać i uczyć się w trakcie, tym lepiej. Ta dziedzina to głównie praktyka. To dlatego w nauce pozycjonowania na potrzeby swojej strony internetowej zawsze najwięcej i najszybciej nauczysz się, próbując konkretnych działań SEO “na żywo”.
1
Nauka podstaw teoretycznych.
2
Samodzielny podstawowy audyt.
3
Analiza i dobór słow kluczowych do pozycjonowania.
4
Wyznaczenie strategii i planu działania.
5
Prowadzenie SEO z planem i dalsza nauka w trakcie.
Wiemy, że wygląda to banalnie, ale takie właśnie jest. Najlepiej po prostu zacząć i próbować rozwiązywać napotkane problemy. Nie ma lepszej metody na samodzielną naukę pozycjonowania (jak i zresztą wielu innych dziedzin).
Jeśli będziesz mieć jakieś wątpliwości, będziesz potrzebować pomocy, porady czy choćby porozmawiania sobie z kimś o SEO
Dołącz do naszej społeczności SEO Samodzielni na Facebooku.
W zakresie pozycjonowania zawsze znajdziesz u nas wsparcie. Tam nie ma głupich pytań.
Grupa SEO Samodzielni Kurs SEO Samodzielni SEO Webinary Książka SEO Samodzielni
Narzędzia SEO
Pozycjonowanie stron internetowych to w gruncie rzeczy wprowadzanie na nich zmian. To, co i gdzie modyfikować dowiadujemy się w audycie. A skąd pojawiają się w nim te informacje? Z narzędzi właśnie! Te są nierozłączną częścią SEO nie tylko w audytowaniu, ale i w śledzeniu efektów czy sprawdzaniu, czy wykonane wdrożenia są poprawne.
Planery słów
kluczowych*
*Planery słów kluczowych to narzędzia, które - jak wskazuje ich nazwa - pomagają nam planować słowa kluczowe. To od nich zwykle zaczyna się optymalizacja strony internetowej (a przynajmniej zaczynać się powinna). Można w nich zarówno szukać fraz do pozycjonowania, jak i analizować je pod kątem liczby wyszukiwań czy trudności.
Wśród planerów słów kluczowych wyróżnić można m.in.:
Planer słów kluczowych Google Ads
Ubersuggest
KWFinder
autorski i w 100% darmowy planer słów kluczowych Top Online
Crawlery i analiza techniczna*
*Crawlery SEO to narzędzia skanujące strony internetowe. Pozwalają one błyskawicznie badać aspekty techniczne serwisów, takie jak np. występowanie przekierowań, meta tagów czy linków wewnętrznych na podstronach. Mechanizm ich działania jest bardzo podobny do działania robotów internetowych wyszukiwarek.
To narzędzia bardzo wszechstronne i równie też przydatne. Bez nich audyty czy przygotowywania do optymalizacji wymagałyby analizowania stron ręcznie, podstrona po podstronie.
Najpopularniejszym SEO crawlerem jest zdecydowanie Screaming Frog SEO Spider, rozwiązań z tej kategorii istnieje jednak o wiele więcej.
Do analizy technicznej witryn zaliczyć można też rozwiązania służące do pomiaru szybkości ładowania strony.
np. PageSpeed Insights czy Lighthouse od Google.
tech.
Monitoring pozycji*
*Narzędzia do śledzenia pozycji, takie jak polski ASPS (Automatyczne Śledzenie Pozycji Strony) zbierają bardzo dokładne dane na temat widoczności serwisu w Google. Dzięki nim wiemy, na ile zapytań w wyszukiwarce pojawia się strona. Wiemy też jakie konkretne pozycje (miejsca na liście) zajmujemy na dane słowa i jak zmieniają się one w czasie.
Analizując kształtowanie się widoczności na frazy, możemy wyznaczać podstrony wymagające dodatkowej optymalizacji, czy linkowania. Mając wgląd w te dane, możemy obserwować też, jak wyszukiwarka reaguje na wprowadzane przez nas zmiany.
W tej kategorii również mamy narzędzie stworzone dla naszej społeczności. Sprawdzanie pozycji w Google od Top Online również jest w pełni darmowe. Ma także funkcję automatycznego raportowania wyników na maila.
SEO multi-toole (All-in-One)*
*Nie jest to nazwa oficjalna, ale świetnie reprezentuję tę kategorię rozwiązań. Takie multi-toole to w większości rozwiązania abonamentowe (SaaS). Są one dostępne z interfejsu webowego (w przeglądarce) lub poprzez API (interfejs programowania pozwalający na integrację z własnymi systemami czy narzędziami).
Narzędzia SEO z tej kategorii oferują cały wachlarz funkcjonalności. Od planerów słów kluczowych, monitorowania widoczności i pozycji, przez analizę aspektów technicznych, konkurencji, czy linków zwrotnych, aż po specjalne edytory treści SEO. Konkretny zakres zależy tu oczywiście od wybranego rozwiązania.
Takie wszechstronne narzędzia to m.in. Senuto, SEMSTORM, Ahrefs, MajesticSEO, Semrush i Moz. Spokojnie znajdziecie jednak dziesiątki innych.
Wtyczki do przeglądarek*
*Wtyczki do przeglądarek to w pewnym sensie osobna kategoria, choć pod kątem funkcji najbliższa chyba SEO multi-tool’om. W takich SEO pluginach zakres oferowanych możliwości również zależy od rozwiązania.
Wtyczki SEO mogą służyć do analizy linków (np. wtyczka Link Redirect Trace) lub do analizy podstawowych elementów optymalizacji technicznej (np. SEO META in 1 click). Często są jednak jakimś innym, unikalnym połączeniem różnych funkcji (np. SEO Minion).
Google Search Console*
*Search Console to w SEO narzędzie podstawowe. Darmowe, dostarczane przez Google i będące jedynym w 100% wiarygodnym źródłem informacji o stronie w wyszukiwarce. Sprawdzimy tutaj m.in. liczbę wyświetleń i kliknięć z wyników wyszukiwania, poziom zaindeksowania witryny czy poprawność danych strukturalnych.
W GSC (Google Search Console) zgłosimy też do Google mapę witryny oraz prośby o zaindeksowanie. W narzędziu tym możemy również przeanalizować mnóstwo innych elementów związanych z ruchem i widocznością. To taki rdzeń informacji o stronie w Google.
Google Analytics, Google Tag
Manager, Google Moja Firma
Google Analytics to pełne śledzenie ruchu na stronie i jego dowolne analizowanie. O ile w GSC śledzimy, co dzieje się ze stroną w wyszukiwaniu, o tyle w Analytics śledzimy już to, co dzieje się bezpośrednio w witrynie.
Google Moja Firma, czyli rozwiązanie będące profilem przedsiębiorstwa w mapach Google. Bardzo ważne dla local SEO, bo to w nim umieszczamy informacje o biznesie, które będą widoczne w mapach i wynikach lokalnych.
GTM (Google Tag Manager) również służy śledzeniu ruchu w witrynie, ale w sposób nieco inny. Pozwala bowiem na dowolne konfigurowanie pomiaru (np. mierzenie określonych czynności / konwersji) oraz łączenie danych z różnych rozwiązań w Google Analytics.
Narzędzia SEO Webinar: Google Search Console - poradnik Webinar: Praca z planerem słów kluczowych Google Search Console - poradnik Operatory Google
Podstawowa optymalizacja techniczna*
*Optymalizacja techniczna to wszystko to, co robimy w pozycjonowaniu bezpośrednio w naszym serwisie, a co dotyczy działania strony i jej innych aspektów technicznych.
Poniżej wymieniamy podstawowe elementy zaliczane do optymalizacji (a zarazem jej podlegające). To głównie je sprawdzamy w audycie SEO.
Hosting
Hosting odgrywa w SEO rolę równie ważną, jak i w samym działaniu witryny. Mówiąc najprościej: strona internetowa powinna działać szybko i nieprzerwanie. Zbyt długi czas ładowania serwisu lub przerwy w jego dostępności mogą przyczyniać się do powstawania problemów z indeksowaniem. Są też bardzo ważne dla doświadczeń użytkowników.
Tutaj jedyną czynnością optymalizacyjną może być, zmiana hostingu lub interwencja u dostawcy usługi (w razie problemów). Co do zasady usługa musi być dopasowana do potrzeb strony (jej ruchu itd.). Adres IP serwera nie ma dla pozycjonowania żadnego znaczenia.
Domena
Domena ma znaczenie dla SEO głównie ze względu na indeks wyszukiwarki, w którym to może być obecna już jej historia. Jeśli ktoś kiedyś używał domeny, to Google może ją “pamiętać”, a to może być zarówno duży plus, jak i ogromny minus.
Domeny z pozytywną historią (na których istniały kiedyś widoczne serwisy) są pod kątem SEO najbardziej pożądane. Wypracowane dawniej zaufanie może przyspieszać budowanie widoczności. Domeny z negatywną (czyli spamem lub inną treścią łamiącą zasady) - przeciwnie - mogą cały proces utrudniać albo i uniemożliwiać.
Historię domeny najłatwiej jest sprawdzić w Internet Archive. Kwestie inne, takie jak występowanie słowa kluczowego w nazwie domeny, czy jej rozszerzenie nie mają na pozycjonowanie stron żadnego wpływu. Ich wybór nadal jest bardzo istotny dla właścicieli stron, ale już czysto wizerunkowo.
Adresy URL
Adresy URL mają w SEO dwie role: wyznaczają strukturę serwisu oraz dostarczają wyszukiwarce wskazówki na temat zawartości podstrony. Tylko tyle i aż tyle. W praktyce chodzi o to, żeby każdy adres w serwisie był przyjazny (czyli zrozumiały i logiczny, bez losowych znaków czy niepotrzebnych identyfikatorów).
Struktura adresów URL polega z kolei na utrzymaniu spójnej logiki budowania URL-i w obrębie całej strony. Nie ma tu uniwersalnych zasad, ale chodzi o to, żeby zachować porządek - jedną, z góry przyjętą “metodę” adresowania. Tak, by wyszukiwarka była w stanie zrozumieć znaczenie podstron już na podstawie konstrukcji ich URL.
Przykładowo: jeśli mamy katalog /blog/ i przyjmujemy, że publikujemy w nim wpisy blogowe, to nie publikujmy w nim podstron produktów.
Przekierowania
Przekierowanie to mechanizm automatycznie przenoszący użytkownika z jednego adresu na drugi. Rozwiązania tego używamy do łączenia ze sobą kilku wersji adresów URL (duplikacji). Stosujemy je także, by zapobiegać wyświetlaniu się na stronie błędów 404, np. gdy usuniemy podstronę.
Adres usuniętej podstrony nie znika, tylko zaczyna zwracać kod błędu 404, tak samo, jak każdy inny nieistniejący URL. Rzecz w tym, że strona istniała, więc może być widoczna w wynikach wyszukiwania. Żeby nie stracić wypracowanej widoczności, musimy więc zasygnalizować Google, że zaszła zmiana - i właśnie temu służy przekierowanie.
Na potrzeby SEO stosuje się głównie dwa rodzaje przekierowań: 301 oraz 302 (są to kody odpowiedzi serwera). 301 to przekierowanie trwałe, które nie ulegnie już zmianie. 302 to przekierowanie tymczasowe - stosowane, gdy podstrona może jeszcze zostać przywrócona.
Przekierowania HTTP/HTTPS, www/bez wwww i trailing slash
Wymienione wyżej przekierowania są najczęściej spotykanymi przypadkami łączenia ze sobą kilku wersji adresów. Co w nich wyjątkowe, to to, że stosuje się je globalnie. Dotyczą one wszystkich URL-i istniejących w serwisie.
http://example.com/
http://www.example.com/
http://example.com
http://www.example.com
https://example.com/
https://www.example.com/
https://example.com
https://www.example.com
Wszystkie te adresy prowadzą do tej samej strony. To oczywiste dla człowieka, ale niestety nie dla wyszukiwarki. Dla niej to aż osiem odrębnych podstron z dokładnie tą samą zawartością, co algorytmy odczytują jako ogrom duplikacji. Takiej sytuacji pozwalają uniknąć właśnie globalne przekierowania.
Przekierowywać możemy z wersji adresu z prefiksem WWW na wersję bez niego (lub na odwrót), z protokołu HTTP na protokół HTTPS oraz z wersji adresu z ukośnikiem (tzw. trailing slash) na wersję bez - lub ponownie - na odwrót. Tak czy inaczej, dążymy do tego, by serwis był dostępny tylko pod jedną wersją URL. Wszystkie pozostałe mają do niej kierować.
Plik robots.txt
Robots.txt to plik tekstowy, w którym zapisujemy instrukcje dla botów internetowych. Możemy w nim całkowicie zablokować dostęp do naszego serwisu lub nałożyć ograniczenia dotyczące katalogu czy konkretnej strony internetowej (podstrony serwisu lub pliku).
Odczytuje go większość botów, ale wiele z nich (w tym roboty wyszukiwarki Google) może nie przestrzegać zawartych w nim reguł. Plik ten tworzymy zawsze go w głównym katalogu witryny. Według rekomendacji wyszukiwarki, powinna mieć go każda strona (nawet jeśli ma być pusty).
Mapa strony - plik sitemap
Mapa strony to wykaz podstron serwisu tworzony po to, by pomóc wyszukiwarce (a właściwie jej robotom) odnaleźć się w witrynie i poprawnie ją zaindeksować. To plik o rozszerzeniu .XML, który, tak jak plik robots, powinna zawierać każda strona.
W mapie umieszczamy się wszystkie adresy, które mają być obecne w indeksie (widoczne w Google). Plik mapy umieszczamy na serwerze, a jego adres zgłaszamy wyszukiwarce w narzędziu Google Search Console. To właśnie wygenerowanie (lub zaktualizowanie) i zgłoszenie mapy jest częścią optymalizacji technicznej.
Plik Sitemap można wygenerować w wielu darmowych narzędziach internetowych, a często i bezpośrednio w używanym przez stronę systemie CMS.
Certyfikat SSL
Certyfikat SSL to jedno z podstawowych zabezpieczeń sieciowych. Jest on uzupełnieniem protokołu HTTPS (pozwalającego szyfrować dane użytkowników). To także świadectwo tego, że nasza strona jest zabezpieczona oraz że można jej zaufać.
Nie ma on bezpośredniego wpływu na SEO, ale stanowi dzisiaj sieciowy standard, więc po prostu trzeba go mieć. Na szczęście można uzyskać go nieodpłatnie, np. poprzez Let’s Encrypt.
Wdrożenie w większości przypadków zostaje po stronie dostawcy hostingu lub CMS-ów czy platform sklepowych i wymaga od właściciela strony tylko kilku kliknięć. Wiąże się to jednak z wygenerowaniem adresów w wersji z HTTPS, robiąc to, pilnujemy więc przekierowań (o czym pisaliśmy wyżej).
Meta tagi
Meta tagi to specjalne znaczniki języka HTML, zapisywane w kodzie źródłowym strony. Są one niewidoczne w witrynie, a odczytują je niemal wyłącznie roboty internetowe. Określa się w nich między innymi tytuły stron, ich opisy, różne parametry techniczne czy instrukcje dla robotów.
Meta tagów jest wiele, ale prawdziwie istotnych dla SEO i uzupełnianych w optymalizacji jest tylko kilka. Dwa najbardziej znane z nich to meta title i meta description - czyli tytuł i opis strony. To wartości, które wyszukiwarka wyświetla przy adresie na stronie wyników wyszukiwania.
Nagłówki Hx
Nagłówki Hx również są znacznikami HTML, ale w przeciwieństwie do meta tagów, widocznymi już dla użytkownika. Oznaczamy nimi śródtytuły w treści witryny. H1 to tytuł, H2 to śródtytuł pierwszego poziomu, a H3 - trzeciego i tak dalej.
Pomagają one w zachowaniu przejrzystej i logicznej struktury tekstów oraz wskazują robotom, o czym ta treść jest (wyróżniają kluczowe zdania, będące zarazem śródtytułami). Nagłówki H1, podobnie zresztą jak meta title, nie powinny powtarzać się w obrębie jednej strony internetowej.
H1 to zwykle nazwa podstrony (lub tytuł artykułu), więc i jej główna fraza. Fraz przypisanych do podstron staramy się jednak używać także we wszystkich pozostałych nagłówkach. Dane słowo kluczowe nigdy nie powinno jednak pojawiać się na siłę czy bez odmiany. Zawsze dążymy do tego, by rozmieszczać je w sposób naturalny.
Alt tagi
ALT tag to tekst alternatywny obrazka, czyli tekst, który pojawia się, gdy plik graficzny nie zostanie z jakiegoś powodu załadowany. To wartość, z której korzystają programy odczytujące strony internetowe używane przez niedowidzących oraz niewidomych, oraz... roboty Google.
Mimo ogromnych postępów w analizie grafik, głównym źródłem wiedzy Google o obrazkach i zdjęciach nadal są opisy zawarte w ALT tagach. Dzięki nim wyszukiwarka wie, co się na nich znajduje, więc lepiej rozumie stronę, ale i może to wyświetlać w Google grafika. To dlatego uzupełniamy je w optymalizacji technicznej.
PageSpeed
PageSpeed to szybkość ładowania witryny, którą bada się w trakcie audytu. Zasada jest prosta: strona musi działać sprawnie, inaczej będzie odrzucać użytkowników. W skrajnych przypadkach, przez długi czas ładowania strona może zostać gorzej oceniona, a nawet i całkiem przestać być indeksowana.
W praktyce to temat rzeka, bo stronę spowalniać może dziesiątki czynników. Od problemów po stronie hostingu, przez zbyt duże obciążenie serwera, błędy w kodzie, przeładowanie strony niepotrzebnymi rozwiązaniami aż po najczęstsze, czyli zbyt duże grafiki. Na potencjalne przyczyny problemu wskazują narzędzia SEO.
Hosting SEO Wpływ domeny na SEO Adresy URL Przekierowania Sitemap Certyfikat SSL Meta tagi Nagłówki Hx Atrybut ALT PageSpeed a SEO Trailing slash Kody błędów HTTP
Optymalizacja treści w SEO
Google rozumie strony internetowe jako dokumenty HTML (ich zawartość). Jak możesz domyślać się po lekturze na temat elementów technicznych, boty wyszukiwarki śledzą znacznie więcej niż tylko obecność znacznika czy wybrane parametry. Analizują też treść.
Nie tylko tę wskazywaną im specjalnie w meta czy ALT tagach, ale i (przede wszystkim) tę zawartą na stronie (widoczną dla użytkownika). To ona jest głównym źródłem wiedzy wyszukiwarki o Twoim serwisie. To dlatego jej optymalizacja (w tym rozbudowa) jest jednym z kluczowych składników każdej strategii pozycjonowania.
Nie chodzi tu tylko o słowa kluczowe. Rozmieszczanie ich w serwisie jest ważne, ale systemy rankingowe coraz lepiej rozumieją teksty, obrazki i multimedia. Stąd coraz większy nacisk na zwiększanie realnej wartości i użyteczności contentu dla użytkownika, a coraz mniejszy na „pisanie pod SEO”.
SEO copywriting i teksty SEO*
*Optymalizacja techniczna to wszystko to, co robimy w pozycjonowaniu bezpośrednio w naszym serwisie, a co dotyczy działania strony i jej innych aspektów technicznych.
SEO copywriting to pisanie tekstów dostosowanych do pozycjonowania, czyli takich, które zostaną „zrozumiane” przez systemy wyszukiwarki. W praktyce to zwykłe tworzenie treści do internetu z dodatkiem kilku zasad. Ze stosowaniem nagłówków Hx, dobranych wcześniej fraz czy choćby wyróżnień najważniejszych fragmentów tekstu.
Tekstami SEO nazywa się z kolei wszystkie treści powstające na potrzeby i w wyniku optymalizacji. Przede wszystkim opisy podstron i wpisy blogowe (w przeróżnych formach).
Opisy kategorii i innych podstron*
*Opis podstrony (w sklepach najczęściej opis kategorii) to najprostszy, a zarazem jeden z najefektywniejszych tekstów SEO. Jak wskazuje jego nazwa, stworzenie go polega na opisaniu strony, czyli tego, co się na niej znajduje. Naturalnie z uwzględnieniem dobranych wcześniej do owej strony słów kluczowych.
Tekst taki powstaje głównie po to, żeby robot wiedział, z czym ma do czynienia (zrozumiał, po co jest nasza podstrona i jaką niesie w sobie wartość dla użytkownika). Nie ma w nim wielkiej filozofii, ale mimo wszystko, warto zadbać, żeby nie był on o niczym. Ponownie: staramy się zwiększać użyteczność (np. odpowiadając w opisie na częste pytania).
Kolejność opisywania podstron wyznacza zwykle analiza strony internetowej i przyjęta w jej efekcie strategia. Przy niewielkiej liczbie podstron (np. kilkunastu kategoriach produktów w sklepie) nie ma to jednak większego znaczenia.
Blog firmowy*
*Blogi firmowe w SEO nie mają zbyt dobrej opinii, głównie przez schematyczne prowadzenie ich z nastawieniem na pozycje, a nie na użytkownika. Powoli trend ten jednak się odwraca. Tak ze zmianami algorytmicznymi, które tną zasięg nijakiej treści, jak i w miarę tego, że coraz więcej osób rozumie już, że samo kliknięcie użytkownika to jeszcze nie sukces.
I tak bloga firmowego, nawet takiego wyłącznie pod zwiększanie widoczności, da się prowadzić z korzyścią dla wszystkich. Tworząc bazy wiedzy na temat tego, w czym specjalizuje się firma, rozwiązując problemy użytkowników, czy choćby ucząc ich jak coś zrobić (np. poprzez poradniki). Wymaga to jednak sporo zaangażowania.
Małe „ale”: jeśli zamierzasz pozycjonować stronę samodzielnie, a bloga nie zamierzasz wykorzystywać marketingowo, to wpisy pod pozycjonowanie zostaw sobie na sam koniec optymalizacji. Pod kątem widoczności organicznej o wiele więcej zyskasz, uzupełniając najpierw treści pod istniejącymi już adresami.
Duplicate content*
*Duplicate content to duplikacja, czyli powielenie treści, zjawisko co do zasady szkodliwe i niepożądane. Temat ten nie dotyczy jednak każdego takiego samego zdania w obrębie strony. Chodzi raczej o całe powtarzające się podstrony lub ich główną zawartości.
Wbrew pozorom duplikacja najczęściej powstaje poprzez błędy techniczne, takie jak trailing slash czy inne powielenia adresów, o których pisaliśmy wyżej. W sklepach internetowych częstym powodem jej powstawania są też warianty produktów (osobne adresy) z tymi samymi opisami lub używanie treści skopiowanej od producentów.
Duplikująca się treść w obrębie strony zaniża jej jakość w oczach Google (a często i użytkowników). Optymalizując treść, dążymy więc do tego, by duplikacja nie powstawała. Choćby przez przypisywanie słów kluczowych do konkretnych podstron, ale i poprzez rozbudowę treści (która różnicuje podobne adresy).
Kanibalizacja słów kluczowych*
*Kanibalizacja to dosłownie wzajemne zjadanie się słów kluczowych, a konkretnie widoczności podstron w wyszukiwarce. To sytuacja, w której przez zbyt podobne treści co najmniej dwie podstrony serwisu walczą ze sobą o miejsce na tę samą frazę. Świadczą o niej zazwyczaj duże wahania pozycji na określone słowa kluczowe.
Przyczyną kanibalizacji zwykle nie są jednak po prostu powielone treści. Algorytm wyszukiwarki Google odsiewa podobne podstrony, żeby nie zaśmiecać nimi wyników (i dawać użytkownikowi wybór). Powstaje ona z reguły w sytuacji, w której dla wyszukiwarki treści są od siebie wystarczająco różne, ale traktują jednocześnie o tym samym.
Kanibalizacja może powstać na przykład, gdy dwa artykuły zostaną zoptymalizowane na te same frazy, ale będą poruszać różne wątki. Wówczas Google nie będzie w stanie zdecydować się, która podstrona jest istotniejsza (bo każda ma unikalne informacje).
Rozwiązanie tego problemu wymaga zwykle połączenia treści w jeden adres lub ich mocniejszego zróżnicowania (w tym zmiany fraz).
Topical authority*
*Topical authority to koncepcja tworzenia treści na pod pozycjonowanie stron. Firmy powinny według niej wykazywać się w swoich serwisach maksymalnym pokryciem tematu, który dotyczy ich głównej działalności. To ma budować ich „autorytet” w dziedzinie i wpływać tym samym na zaufanie wyszukiwarki oraz widoczność.
W praktyce chodzi o to, żeby pisać tylko o tym, co robimy i na czym faktycznie się znamy. Proste i na ogół skuteczne, ale wymagające zaangażowania i systematyczności. Dzięki takiemu nastawieniu łatwiej jest utrzymać jakość treści i ich użyteczność. Sam fakt obracania się wokół jednej niszy sprawia także, że Google pewniej i sprawniej klasyfikuje naszą stronę w indeksie.
Z topical authority zazębia się świetnie koncepcja evergreen content, czyli treści, która nie traci na wartości z upływem czasu, przez co raz stworzona ciągle „pracuje na wyniki”. W strategiach tworzenia treści z uwzględnieniem tych dwóch przewijają się również tzw. pillar pages. Wyznaczają one swoją zawartością w strukturze serwisu zbiory tematyczne treści.
Webinar: Tworzenie treści dla ecommerce Opis kategorii Opisy produktów Blog firmowy Duplicate content Kanibalizacja słów kluczowych Teksty SEO Topical authority Evergreen content Pillar page
Linkowanie*
*Linkowanie to nic innego jak zamieszczanie w sieci odnośników, hiperłącz. To jednak tylko ogólna czynność, bo linkowanie w SEO to także cały prowadzący do niej proces. Często zawierający w sobie tworzenie treści, skrupulatne planowanie czy nawet budowanie osobnych serwisów internetowych.
Dawniej linki prowadzące do stron internetowych były w SEO wszystkim. Pozycja w organicznych wynikach wyszukiwania zależała prawie że tylko od ich ilości. Kto miał więcej, ten wygrywał – tak przez lata działało Google. Czasy te dawno mamy już jednak za sobą. Dzisiaj linki grają w SEO rolę drugoplanową. Nadal są istotne, ale na dobre skończył się już wyścig o ilość, a zaczął o jakość. Na znaczeniu w pozycjonowaniu stron zyskało również linkowanie wewnętrzne, pomiędzy podstronami własnego serwisu.
Link building
Link building to pozyskiwanie odnośników prowadzących do pozycjonowanej witryny z innych miejsc w sieci (z innych domen). Było ono kiedyś niezbędne do uzyskania wysokiej pozycji strony, obecnie stanowi raczej wsparcie działań optymalizacyjnych. Nadal jest jednak ważne.
Dlaczego to działa? Pierwszy system rankingowy Google, PageRank, oceniał jakość stron internetowych dobieranych do wyników na podstawie kierujących do nich linków. Miało to sens, bo wówczas nikt nie linkował do niczego w celu innym niż podzielenie się z innymi treścią (w domyśle przydatną i wartościową).
Obecnie PageRank przeszedł znaczną ewolucję i został włączony do większego, o wiele bardziej zaawansowanego systemu oceniania odnośników. Te, mimo zmian w sposobie ich oceniania, pozostają ciągle dla wyszukiwarki ważnym sygnałem jakości.
Linkowanie wewnętrzne
Linkowanie wewnętrzne jest pojęciem bliskim link buildingowi ze względów technicznych (też chodzi w nim o hiperłącza). W praktyce pozycjonowania to jednak zupełnie inna para kaloszy, o wiele bliższa optymalizacji technicznej.
Linkowanie wewnętrzne, jak wskazuje nazwa, ma miejsce w obrębie pozycjonowanej przez nas strony. Polega ono na umieszczaniu na podstronach serwisu odnośników prowadzących w inne, powiązane z nimi tematycznie w tym serwisie miejsca.
Linki wewnętrzne łączą w ten sposób ze sobą poszczególne elementy strony internetowej. To pomaga w nawigacji – ułatwia poruszanie się po stronie zarówno użytkownikom, jak i robotom internetowym (używają one linków – o czym wspominaliśmy wyżej). Pozwala też na rozprowadzanie autorytetu (tzw. link juice) pomiędzy podstronami i wzmacnianie struktury całej witryny.
Rodzaje linków
Linki można klasyfikować na wiele sposobów. Nadrzędnie dzielimy je oczywiście na wewnętrzne i zewnętrzne oraz według kierunku działania: na zwrotne (przychodzące do danego adresu) oraz wychodzące (kierujące z niego na inny).
Poza tym linki podzielić można także według sposobu pozyskiwania, na zamieszczone naturalnie oraz sztucznie, np. kupione (co jest niezgodne z wytycznymi Google). Mówić można również o linkach tekstowych i graficznych, czy aktywnych i uszkodzonych.
Funkcjonuje też szczególnie ważny dla SEO podział związany z omawianymi niżej atrybutami oraz anchorami. Tutaj najistotniejsze są wyszczególniane na podstawie atrybutów linki „follow” oraz „nofollow”, czyli śledzone lub nieśledzone przez roboty internetowe.
Anchor tekst
Anchor tekst to inaczej tekst zakotwiczenia odnośnika, czyli fraza lub wyrażenie, pod którym zamieszczamy link. Znajduje się on w kodzie strony pomiędzy tagami HTML oraz . Jest on ważny dla pozycjonowania, bo wyszukiwarka uwzględnia go w ocenie jakości odnośnika.
Technicznie może to być dowolny zestaw znaków, pod którym umieszczono link w treści strony internetowej. W praktyce SEO występują tu jednak określone kategorie. I tak mamy tutaj anchory dokładnego dopasowania (exact match), częściowego dopasowania (partial match) czy anchory neutralne (zero match).
Co do zasady tekst zakotwiczenia linku powinien precyzyjnie określać to, co znajduje się pod wskazywanym przez niego odnośnikiem. Zwykle im dokładniejsze dopasowanie frazy do linkowanej podstrony, tym więcej przenoszonej przez link „mocy” rankingowej. Nie warto jednak próbować tego nadużywać, bo Google potrafi to łatwo wykryć.
Atrybuty linków
Atrybuty linków to znaczniki HTML określające relację między odnośnikami (stąd parametr „rel=”, w którym się je określa). Większość z nich nie wpływa na działanie linków. Służą one głównie jako informacje i instrukcje dla robotów internetowych.
Najważniejsze i najbardziej znane atrybuty URL-i to wymienione już “follow” oraz “nofollow”. Poza nimi równie istotne są także wartości “index” oraz “noindex”. Wspomnieć warto również “noopener” oraz “norefferer”. Te mają w pozycjonowaniu stron kluczowe znaczenie.
Domyślnie link bez żadnego atrybutu jest traktowany przez wyszukiwarki jako oznaczony poprzez “follow” oraz “index” - tj. podążaj oraz indeksuj. Co ważne: wszystkie wartości “rel=” są wyłącznie wskazówkami i roboty nie muszą ich respektować (choć zwykle to robią).
Pozyskiwanie linków
Pozyskiwanie linków na potrzeby SEO jest coraz większym wyzwaniem. Dzisiaj linki muszą pochodzić z różnych stron internetowych. Ważna jest między innymi ich tematyka, ruch, widoczność czy mierzony na przeróżne sposoby „autorytet”. Nie mogą także pojawiać się zbyt często lub mieć powtarzalne anchory/atrybuty, a optymalnie, jeśli pojawiają się w 100% organicznie.
Na to, do jakich podstron oraz z jakich fraz powinniśmy linkować, wskazuje zwykle analiza słów kluczowych, a konkretnie widoczności strony na te słowa. Odnośniki zewnętrzne pomagają podbić w jakimś stopniu widoczność podstrony na dane frazy lub wzmocnić zajmowaną już pozycję. Do linkowania wybiera się więc adresy, w których wypadku takie działanie będzie najefektywniejsze.
Metody bezpiecznego pozyskiwania linków to między innymi:
- publikowanie wpisów gościnnych na innych blogach,
- sponsorowanie publikacji,
- udział w wydarzeniach lub ich organizacja,
- wizytówki NAP,
- budowanie zaplecza pozycjonerskiego.
Zaplecze pozycjonerskie
Zapleczem pozycjonerskim nazywa się w SEO zbiór portali internetowych utworzonych w celu wsparcia pozycjonowania innych serwisów. To taka baza własnych stron, np. blogów tematycznych, prowadzona i utrzymywana na potrzeby SEO.
Mocne zaplecze to obecnie jeden z najlepszych sposobów pozyskiwania linków. Jako jedyna z dostępnych metod zapewnia ono pełną kontrolę nad odnośnikami oraz jakością serwisów, więc zarazem: bezpieczeństwo. Ze względu na koszty, a także nakład pracy i czasu potrzebny budowanie zaplecza wybierane jest niemal wyłącznie przez agencje.
Jak sprawdzić moc linku?
Z link buildingiem wiąże się jeszcze ocena ich “mocy”, czyli tego, czy dane sposoby i miejsca pochodzenia odnośników mogą realnie wpłynąć na widoczność naszego serwisu. Dawniej była ta ocena banalnie prosta, wystarczyło sprawdzić publiczną wówczas wartość PageRank. Obecnie układanka ta jest o wiele bardziej skomplikowana.
Do oceny mocy linku najczęściej wykorzystuje się tak zwany autorytet domeny, czyli w pewnym sensie “poziom zaufania” do niej wyszukiwarki. Szacuje się go za pomocą zewnętrznych wskaźników dostępnych w narzędziach SEO. Analizuje się też profile linkowe, czyli to, ile i jakich odnośników przychodzi oraz wychodzi z witryny.
Tak czy inaczej, ocena ta jest trudna i właściwie nie można mieć tutaj pewności. Dlatego pamiętajmy, że współczesne kompleksowe pozycjonowanie to nie tylko linki, ale przede wszystkim wszechstronna optymalizacja. I to ona powinna być zawsze naszym priorytetem, a zarazem główną częścią działań.
Co to jest link building? Linkowanie wewnętrzne - istotny element SEO Linkowanie - rodzaje linków Co to jest anchor i jego rodzaje Atrybuty linków - poznaj jak możesz oznaczać URLe Pozyskiwanie linków do witryny - jak to zrobić Autorytet domeny - jak sprawdzić moc linków? Zaplecze pozycjonerskie, czyli jak wygląda linkowanie w agencji
SEO dla zaawansowanych
Wszystko, o czym napisaliśmy wyżej to elementy najważniejsze w SEO. Taka solidna podstawa pozycjonowania stron, najczęściej w zupełności wystarczająca do osiągania biznesowych sukcesów. W żadnym wypadku nie jest to jednak wszystko.
Żeby dać Ci pełniejszy ogląd, w tym akapicie schodzimy jeszcze trochę głębiej. Przedstawiamy kilka zaawansowanych kwestii technicznych.
Uprzedzamy jednak: w przypadku pozycjonowania stron samodzielnie w dużej mierze nie są to rzeczy, na które warto poświęcać czas, a już na pewno nie w ramach podstawowej optymalizacji. Warto za to o nich po prostu wiedzieć.
Crawl budget
Pierwsze pojęcie w kategorii kwestii zaawansowanych to crawl budget, czyli, mówiąc najbardziej potocznie, moc przerobowa robotów Google przeznaczana na Twój serwis. Pod nazwą tą nie kryje się jednak żadna konkretna czy mierzalna wartość.
Crawl budget to pojęcie używane do określania częstotliwości skanowania strony przez boty wyszukiwarki oraz liczby podstron, które mogą one prześledzić „za jednym zamachem” (przy jednej wizycie). Chodzi przede wszystkim o to, by roboty były na stronie jak najczęściej oraz by za każdym razem odwiedzały możliwie jak najwięcej najistotniejszych podstron.
Działania związane z budżetem crawlowania to przede wszystkim analizowanie ruchu robotów na stronie, a następnie jej optymalizacja, tak by ruch ten usprawnić. Zwykle obejmują one strukturę witryny (zwłaszcza linkowanie wewnętrzne) oraz czas jej ładowania (PageSpeed).
Crawl budget śledzi się tylko w serwisach bardzo dużych, liczących setki tysięcy czy nawet miliony podstron. Zasoby crawlowania Google są limitowane, ale limit jest na tyle duży, że w mniejszej skali ograniczenia te są praktycznie niezauważalne.
Architektura informacji
Architektura informacji (IA – information architecture) dotyczy logicznego porządkowania informacji dostępnych na stronach internetowych (i nie tylko). Nie jest to pojęcie czysto techniczne, ale zazębia się dość mocno z SEO i optymalizacją serwisów (a zwłaszcza ich struktury).
Tworzenie IA polega na planowaniu, w jaki sposób poukładamy nasz serwis. Nie tylko pod kątem tego, co i gdzie znajdzie się wizualnie oraz technicznie (w jakiej ścieżce i pod jakim URL-em), ale też pod kątem tego, co będzie ten układ wyznaczać.
W kilku prostych słowach: architektura informacji to plan na logiczne, intuicyjne i maksymalnie użyteczne ułożenie całego serwisu internetowego, a także określone zasady porządkowania nowej treści. Jej cel to dać użytkownikom korzystającym ze strony dokładnie to, czego potrzebują.
Załóżmy, że zakładamy sklep z przyprawami. Oprócz podziału na przyprawy całe i mielone dobrze przemyślana architektura może pozwolić nam porządkować asortyment np. według przeznaczenia czy kuchni charakterystycznej dla danych produktów.
Taki podział może inspirować Klientów, przypominać im o powiązanych produktach i w efekcie zwiększać sprzedaż. To też mnóstwo potencjału do rozwoju widoczności strony internetowej. Bez niego potencjał ten tracimy, a strona z czasem jest coraz mniej intuicyjna.
Orphan pages
Orphan pages to dosłownie strony sierotki, osierocone adresy URL. Pojęcie to odnosi się do podstron serwisu, do których nie prowadzą żadne linki wewnętrzne. Jedynym sposobem, by na nie trafić, jest wpisanie w przeglądarce dokładnego linku, lub znalezienie takich stron w Google.
Orphan pages pojawiają się na praktycznie każdej większej stronie. Zazwyczaj są to adresy powstające w efekcie błędów technicznych serwisów, braków w przekierowaniach, a nawet przez czysty przypadek. Najczęściej to strony zduplikowane lub o zasadniczo niskiej jakości, przez co mogą szkodzić widoczności i pozycjonowaniu stron.
Ze względu na brak odnośników wykrywanie ich jest dość trudne. Jeśli osierocone adresy nie znajdują się w mapach witryn, to właściwie jedyną szansą na ich wykrycie jest Google Analytics, notujące wszystkie odwiedziny na stronie. Nadal jednak, gdy orphan pages nie zanotowały żadnej wizyty, są praktycznie niewykrywalne.
Optymalizacja fontów
Optymalizacja fontów (potocznie: czcionek) to część optymalizacji skupiająca się wyłącznie na usprawnianiu sposobu załączania i ładowania web-fontów na stronie. Jest w niej dużo technikaliów, ale co do zasady, chodzi o to, żeby każdy użytkownik zobaczył font (tekst na stronie) jak najszybciej i dokładnie tak samo.
Ten element SEO wydaje się na pierwszy rzut oka chyba największym przerostem formy nad treścią w pozycjonowaniu (bo przecież całe zagadnienie dotyczy tylko czcionki tekstu!). Mimo wszystko jest to jednak dość istotna sprawa.
W optymalizacji fontów walczymy przede wszystkim o czas ładowania i użyteczność serwisu, ale także o UX naszych użytkowników i o zasoby naszego serwera. Ponownie, dla większości witryn jest to temat marginalny, ale wszystko zależy tu od konkretnej strony internetowej. Czasem na optymalizacji fontów można sporo ugrać.
Optymalizacja grafik
O optymalizacji grafik wspominaliśmy już wyżej, przy okazji PageSpeed oraz ALT tagów, ale temat ten ma do zaoferowania znacznie więcej. Grafiki optymalizować można nie tylko poprzez dodawanie opisów czy stosowanie dodatkowej kompresji, ale i nawet przez nadawanie odpowiednich nazw plikom czy stosowanie dla nich przyjaznych URL-i.
W telegraficznym skrócie optymalizacja ma tutaj prowadzić do tego, by obrazki i zdjęcia na stronie były jak najlepiej wyważone w kwestii waga / jakość oraz odpowiednio opisane. Dzięki temu nie będą one spowalniać strony, będą lepiej rozumiane przez roboty oraz widoczne w Google Grafika.
Kody błędów HTTP
Kody błędów HTTP to kody odpowiedzi HTTP przypisane błędom, czyli informacje zwracane przez serwer w przypadku odrzucenia lub niespełnienia zapytania. W praktyce są to trzy cyfry klasyfikujące przyczynę lub kategorię napotkanego problemu. Najbardziej znanym przykładem takiego kodu jest błąd 404.
Błędy HTTP analizuje się w audycie SEO, za pomocą crawlera odpytującego wszystkie napotkane w serwisie podstrony. Znajduje on podstrony zwracające negatywne odpowiedzi, a sama treść tych odpowiedzi, czyli właśnie kod błędu, stanowi informację o potencjalnych przyczynach jego pochodzenia.
O ile wychwytywanie „404-ek” należy raczej do podstawowych działań SEO, o tyle głębsza analiza rzadziej spotykanych kodów odpowiedzi HTTP jest już zdecydowanie kwestią zaawansowaną. Często jest to punkt wyjścia do szukania przyczyn bardziej złożonych problemów.
Logi serwera
Logi serwera to taki „dziennik pokładowy” strony internetowej, w którym odnotowywane jest każde połączenie nawiązane z witryną – każda akcja wymagająca odpowiedzi serwera. Dane te analizuje się zwykle w poszukiwaniu przyczyn występowania błędów, a w SEO głównie po to, by rozwiązać problemy z indeksowaniem.
Analiza logów na potrzeby SEO może dostarczać szczegółowych informacji o przebiegu crawlowania strony, ale nie tylko. Wykazuje też wspomniane wyżej kody błędów HTTP, pozwala weryfikować działanie przekierowań czy prześledzić postrzeganie struktury serwisu przez Googleboty.
To działanie szalenie przydatne, ale (tak, znowu się powtórzymy) w większości przypadków zupełnie niepotrzebne. Podejmujemy je celowo, czyli tylko wtedy, gdy zachodzi taka potrzeba.
Jedyne w kwestii logów serwera, co powinno uwzględniać absolutnie każde pozycjonowanie stron usługowych czy sklepów, to przypilnowanie tego, by były one rejestrowane.
Crawl budget Architektura informacji Orphan pages Optymalizacja fontów Optymalizacja grafik Logi serwera a SEO
Nieszablonowe rozwiązania w optymalizacji
Wiesz już, co składa się na podstawy SEO. Wiesz też, że to nie wszystko, bo w dziedzinie tej jest mnóstwo kwestii zaawansowanych, często po prostu niepotrzebnych w praktyce, nawet jeśli chodzi o profesjonalne pozycjonowanie stron. Nadal jednak można iść dalej.
Bo widzisz, SEO w żadnym wypadku nie jest czymś zamkniętym i ustalonym, gdzie trzeba dopasować się do zasad i tyle. Pozycjonowanie jest żywe. Ciągle się zmienia i można do niego podchodzić na przeróżne sposoby. Żeby to zobrazować, poniżej wymieniamy pokrótce kilka nieszablonowych rozwiązań optymalizacyjnych stosowanych przez nas w pracy nad stronami i sklepami Klientów.
Leksykon SEO
Leksykonem SEO nazywamy zestaw podstron tworzących „słowniczek” strony lub branży, w której działa dany serwis. Można tu stosować różne podejścia, ale zasadniczo tworzymy jedną podstronę leksykonu lub słownika, z której linkujemy później do podstron pojęć.
Brzmi dziwnie? Spokojnie, już wyjaśniamy. Taki zestaw podstron ma dwa główne zadania: pozycjonowanie fraz kluczowych, których nie ma jeszcze na stronie i wzmacnianie linkowania wewnętrznego.
Nasz leksykon SEO linkujemy zwykle w stopce lub menu serwisu. Na podstronach poszczególnych haseł z kolei wstawiamy odnośniki do powiązanych z nimi treści. Oczywiście same podstrony mają też swój unikalny content.
W ten sposób tworzymy spore wzmocnienie struktury strony w oczach Google. Rozwiązanie banalnie proste, a oferujące korzyści zarówno dla SEO, jak i dla użytkownika.
Ukryte kategorie
Ukryte kategorie to jeden z naszych asów w rękawie. Zwłaszcza jeśli chodzi o SEO sklepów, ale patent ten sprawdza się też, jeśli chodzi o pozycjonowanie stron usługowych.
Rozwiązanie to polega na tworzeniu osobnego drzewa kategorii serwisu, dodatkowego „ukrytego” menu. Ukrytego w cudzysłowie, bo wszystkie tworzone w jego ramach podstrony są dostępne dla użytkownika, linkowane na stronie i widoczne w Google. Nie ma ich tylko w menu głównym.
Co taki zabieg ma na celu? Naturalnie zwiększanie widoczności o kolejne, bardziej precyzyjne lub nieco zmienione słowa kluczowe. Strategia ta praktycznie nie ma ograniczeń, a co najlepsze, jest w pełni zgodna z wytycznymi Google.
Sprawa jest prosta: normalne menu nie pozwala na rozwijanie kategorii bez końca, bo wraz ze wzrostem ich ilości traci użyteczność. Tworzymy więc podstrony poza nim, i optymalizujemy je na różne dodatkowe słowa odpowiadające wariantom produktów, które są wyszukiwane w Google. Użytkownik dostaje to, czego chce, a my zachowujemy porządek w serwisie.
Indeksowanie zapytań użytkowników
Indeksowanie zapytań użytkowników to jeden ze sposobów na wykorzystanie wewnętrznej wyszukiwarki na stronie w celu rozwoju serwisu. Ponownie, jest to rozwiązanie genialne w swojej prostocie.
W największym skrócie: zamiast szukać fraz do rozbudowy witryny, sprawdzamy, czego szukają na niej użytkownicy i to wykorzystujemy.
Widząc na przykład, że w sklepie internetowym sprzedającym akcesoria komputerowe klienci szukają “klawiatur bez klawiatury numerycznej”, możemy stworzyć dodatkową kategorię, zbierającą to, czego potrzebują. Alternatywnie można też po prostu pozwolić wówczas na indeksowanie strony wyników wyszukiwania na taką frazy.
W rozwiązaniu tym można nawet iść dalej i cały proces takiej rozbudowy w oparciu o zainteresowanie w pełni zautomatyzować. Robi tak np. Allegro, które ma między innymi dzięki temu największą widoczność w Google w Polsce.
Dynamiczne nazwy produktów
Dynamiczne nazwy produktów są już nieco bardziej złożone. Polegają na wdrożeniu w serwisie (sklepie internetowym) mechanizmu, który modyfikuje wyświetlane użytkownikowi nazwy produktów w zależności od kategorii, w jakiej te są przeglądane.
Brzmi skomplikowanie, ale w praktyce działa to tak, że np. jeśli „kubek X” będzie w kategorii „białe kubki ceramiczne”, to będzie nazywał się „biały kubek ceramiczny X”, a jeśli będzie w kategorii „kubki matowe”, to będzie nazywał się „kubek matowy X” itd.
Chodzi o to, żeby osiągnąć efekt lepszego dopasowania zawartości podstrony do jej nazwy. Dzięki takim podmienionym nazwom uzyskujemy większą spójność, a dzięki tej roboty lepiej rozumieją, o co chodzi w danym adresie. W efekcie zyskujemy więc lepszą widoczność wyszukiwarce internetowej Google.
Leksykon SEO Ukryte kategorie Webinar: Ukryte kategorie Indeksacja zapytań użytkowników Dynamiczne nazwy produktów Jak wykorzystać wyszukiwarkę na stronie do SEO Webinar: Jak wykorzystać wyszukiwarkę na stronie do SEO
Automatyzacja działań w SEO
Top Online to najbardziej zautomatyzowana agencja SEO w Polsce. Co to znaczy w praktyce? Że w wielu powtarzalnych aspektach naszej pracy wyręczają nas nasze autorskie narzędzia i roboty internetowe.
Automatyzacja na własne potrzeby
Automatyzacja jest mocnym trendem w całym e-marketingu. Nie jest jednak zarezerwowana tylko dla „dużych”. Wręcz przeciwnie jest czymś, co można wykorzystać i w mikroskali, samodzielnie, na własnej stronie. Choćby pod postacią automatycznego uzupełniania meta tagów, które przedstawialiśmy w poświęconej im części kursu SEO Samodzielni.
Wiele automatyzacji można dzisiaj tworzyć nawet bez żadnej wiedzy na temat programowania, w technologiach no code oraz low code. Trzeba tylko znaleźć w swojej codziennej pracy elementy, które nadają się do oddelegowania oprogramowaniu. O tym, jak to zrobić, przeczytasz na naszym blogu.
Inteligentny Asystent SEO
Nasz Inteligentny Asystent SEO (IGNAŚ) wykonuje każdego dnia ponad 14 tysięcy zadań. Między innymi monitoruje on pozycje serwisów, które pozycjonujemy, a także bada ich dostępność i wykrywa błędy. Zbiera również ogrom informacji, w tym na temat tego, co nasi specjaliści wykonali w ramach SEO dla danej strony.
Automatyzacja jest przewagą naszą jako agencji, ale i w efekcie przewagą naszych Klientów. Dzięki niej działamy w każdym aspekcie po prostu lepiej. To właśnie dzięki niej każdy ze specjalistów ma czas na to, by rozmawiać z Klientami, dla których prowadzi pozycjonowanie. Bez tego nie dałoby się mówić o prawdziwej współpracy.
Praca w SEO
Praca specjalisty SEO może wyglądać różnie. Specjalista może być freelancerem, może pracować w wewnętrznym zespole lub jako SEO manager, może też pracować w agencji. W pierwszym wypadku wiadomo: „sam sobie sterem, żeglarzem, okrętem...”. W drugim wszystko zależy od pracodawcy i struktury, a w trzecim... od tego, jak działa agencja.
U nas, w Top Online, specjalista SEO (nieważne junior, mid czy senior), zajmuje się po prostu obsługą pozycjonowania. Kształtuje strategię, dobiera frazy, wdraża optymalizacje, przygotowuje wskazówki dla Klientów i planuje treści (ale nigdy ich nie pisze! Mamy od tego zespół copywriterów). W wielu aspektach pomaga też wspomniana automatyzacja.
Stawiamy na maksymalną samodzielność, ale i swobodną atmosferę budowaną na wzajemnej pomocy. Każdy z zespołu zawsze będzie wysłuchany, a i każdy może po prostu o wszystko pytać. Również naszych CEO, którzy pracują z nami dosłownie biurko obok. Nie ma tu niezdrowej gonitwy, bo i tak wszyscy gramy do jednej bramki.
Kto nadaje się do pracy w tym zawodzie?
W kwestii cech osobowych, do specjalisty SEO (według nas) pasują przede wszystkim umiejętność samodzielnej organizacji pracy, otwartość i chęć ciągłej nauki.
W kwestii umiejętności na początek trzeba mieć podstawy teorii SEO i ogólną wiedzę o działaniu stron internetowych oraz marketingu. Na bardzo duży plus będzie też każda praktyka pozycjonowania.