"SEO się zmieniło. Twoja wiedza też powinna." Szkolenie online z nowoczesnego SEO - już 11 czerwca! Zobacz szczegóły TUTAJ.
Jesteś tutaj: Baza wiedzy / Blog i aktualności / Dlaczego przestałem pisać pod Google – i zacząłem pisać pod pytania użytkowników?

05-05-2026

Dlaczego przestałem pisać pod Google – i zacząłem pisać pod pytania użytkowników?

Era tekstów pisanych pod frazy kluczowe powoli się kończy, bo algorytmy AI zwyczajnie ignorują treści, które nie rozwiązują realnych problemów użytkowników. Mój framework na 2026 rok to zmiana podejścia z keyword-first na problem-first. Zamiast walczyć wyłącznie o TOP 1 w Google, optymalizuję treści tak, by stały się głównym źródłem odpowiedzi dla modeli takich jak ChatGPT, Claude czy Gemini. Okazuje się, że niższa pozycja w tradycyjnych wynikach, ale z silną obecnością w AI, generuje dziś znacznie lepszej jakości leady i wyższą konwersję. W nowej rzeczywistości sukces mierzę nie tylko pozycją w rankingu, ale przede wszystkim częstotliwością cytowań przez boty i prawdziwą wartością dla użytkownika.

Dlaczego przestałem pisać pod Google – i zacząłem pisać pod pytania użytkowników? - SEO blog

Keyword research → struktura → tekst → publikacja. Przez lata działałem dokładnie w tym schemacie. I żeby była jasność – efekty były super. Klienci łapali dobre pozycje, ruch rósł, a raporty wyglądały naprawdę solidnie. Nie bez powodu piszę jednak w czasie przeszłym, bo ostatnio mocno przebudowałem fundamenty. Powód? AI. Poniżej opisuję, co się zmieniło – i dlaczego teraz działa to lepiej niż kiedykolwiek.

Spis treści:

  1. Czas na zmianę podejścia
  2. Strategia keyword-first vs problem-first – czym się różnią?
  3. Mój framework tworzenia contentu w 5 krokach
  4. Jak to wygląda w praktyce – od researchu do publikacji
  5. Narzędzia, które to wszystko spinają
  6. Podsumowanie po pół roku pracy z nowym frameworkiem
  7. Podsumowanie w punktach

Zobacz też:

Jak wyciągam pain pointy z Claude i Gemini zamiast szukać słów kluczowych

Czas na zmianę podejścia

Jesień 2025. Projekt B2B, temat dość „suchy” i techniczny: optymalizacja procesów sprzedażowych. Zrobiłem wszystko książkowo. Analiza fraz, intencji i konkurencji, dopięta struktura, linkowanie wewnętrzne – cały pakiet.

Efekt? Top 3 na główną frazę, ruch idzie w górę, klient jest zadowolony.

Teoretycznie powinienem zamknąć temat i iść dalej.

Tyle że coś mnie podkusiło, żeby wrzucić ten tekst do naszego narzędzia Agent Monitor, które sprawdza, jak treści są wykorzystywane przez modele AI – ChatGPT, Claude, Perplexity, Gemini itd.

I tu oberwałem kubłem lodowatej wody.

Boty odwiedzały stronę, indeksowały ją, ale… kompletnie jej nie używały. Zero cytowań czy wzmianek, nie wspominając o linkach w odpowiedziach.

Sprawdziłem też inne teksty tego klienta i zobaczyłem identyczny schemat. Google – widzi i poleca stronę. AI – cisza w eterze.

Wtedy pierwszy raz pomyślałem: może problem nie leży w jakości tekstów, tylko w strategii ich tworzenia. Może mój proces nie jest wcale taki idealny?

Zacząłem zadawać sobie pytanie: a co, jeśli pisanie pod frazy kluczowe już nie wystarcza?

Brzmiało to głupio. To jest coś, co słyszy się na każdym szkoleniu z pozycjonowania stron. Absolutna podstawa, bez której nie mamy szans poprawić widoczności strony w wynikach wyszukiwania.

No ale okazało się, że głupie (albo naiwne) było co najwyżej moje podejście.

Strategia keyword-first vs problem-first – czym się różnią?

Przez lata pisaliśmy pod zapytania, które użytkownik wpisuje w wyszukiwarkę. Ja wykorzystywałem do tego dobrze znany schemat:

  1. Wyciągałem frazę z Ahrefs/Senuto.
  2. Sprawdzałem intencję (informacyjna/transakcyjna).
  3. Analizowałem Top 10.
  4. Budowałem strukturę tekstu pod tę frazę.
  5. Pisałem tak, żeby fraza i jej warianty pojawiły się w odpowiednich miejscach (nagłówki, treść, FAQ, title).

To jest klasyczne podejście keyword-first. I to działało przez bite 15 lat – więc nic dziwnego, że każdy z nas się do tego przyzwyczaił.

Problem w tym, że użytkownik coraz rzadziej wpisuje zapytania w formie krótkich haseł (dwa/trzy/cztery słowa).

Zamiast wklepać w ChatGPT „pozycjonowanie sklepów trendy 2026”, zaczyna z nim normalnie rozmawiać:

„Słuchaj, prowadzę sklep z akcesoriami wędkarskimi, od pół roku widzę spadek ruchu z Google i podejrzewam, że to wina AI Overviews – co mogę z tym zrobić, żeby nie stracić klientów?”

Różnicę widać gołym okiem. Nawet nie ma sensu tego analizować, bo to są po prostu dwa różne światy. W jednym masz etykiety i skróty myślowe, w drugim – realne problemy, emocje i kontekt.

Warto wiedzieć

Na tym etapie już zrozumiałem, że teksty, które tworzyłem przez X lat – świetnie zoptymalizowane pod ekosystem Google – kompletnie nie pasują do świata AI. Trzeba było zmienić podejście z keyword-first na problem-first, żeby mieć realne szanse na zwiększenie widoczności w odpowiedziach w ChacieGPT czy Gemini.

Nie będę udawał, że to była łatwa zmiana, bo nie była. Przez lata wyrobiłem sobie odruchy, które dobrze się sprawdzały: fraza w nagłówku, fraza w pierwszym akapicie, synonimy, odpowiednie nasycenie. To wszystko było logiczne i dawało powtarzalne efekty.

Tylko że to jest myślenie od frazy do treści. A ja musiałem to myślenie odwrócić.

Mój framework tworzenia contentu w 5 krokach

Ten framework wypracowałem w ciągu 6 miesięcy testów – na własnych tekstach i tekstach klientów. Nie jest święty, ale działa.

Krok 1: Pain pointy (klient + Claude + Gemini)

Zaczynam od trzech źródeł równolegle, bo każde daje mi inny kawałek układanki.

Najpierw klient – godzina rozmowy, podczas której wyciągam od niego 5-10 najczęstszych problemów, z którymi przychodzą do niego jego klienci. Zależy mi na konkretnych sytuacjach, cytatach i historiach.

Potem Claude – wrzucam mu transkrypcję i proszę o rozszerzenie listy o problemy, o których klient mógł nie wspomnieć, a które logicznie wynikają z kontekstu jego branży.

Na końcu Gemini z funkcją Deep Research – dostaję obraz tego, co na ten temat piszą inni, jakie pytania pojawiają się w sekcji Google „People also ask”, co powraca na forach itd.

Te trzy listy zestawiam razem. Robi mi się z tego baza 40-60 problemów, którą filtruje do 5-8 najważniejszych.

Krok 2: Klaster wokół problemu, nie frazy

Kiedyś robiłem klastry fraz kluczowych. I nadal robię klastry, ale dziś skupiam się na pytaniach.

Biorę jeden problem – np. „jak sprawdzić, czy moja strona jest widoczna w AI Overviews”. Dookoła niego układam 8-15 pytań, które użytkownik zadaje na trzech etapach:

  • zanim dotrze do głównego problemu,
  • w trakcie,
  • po rozwiązaniu problemu.

Ten klaster staje się szkieletem jednego tekstu albo całej serii artykułów.

Krok 3: Język konwersacyjny zamiast klasycznego SEO copywritingu

To najbardziej „bolesna” zmiana. W mojej głowie wciąż siedzi typowy odruch: muszę wrzucić słowo kluczowe tutaj i tutaj, najlepiej z 3-4 razy, dodać z dwa razy jakiś synonim…

Teraz robię odwrotnie – piszę dosłownie tak, jakbym odpowiadał znajomemu przy kawie.

Dopiero na końcu sprawdzam, czy najważniejsze frazy pojawiły się naturalnie. Jeśli nie – dodaję jedno, dwa zdania. Jeśli tak – nie tykam.

Efekt jest taki, że tekst brzmi jak rozmowa, a nie jak instrukcja obsługi.

Krok 4: E-E-A-T przez własne doświadczenia

Bez tego ani rusz. Pisałem już o tym szerzej w innym artykule, więc nie będę się powtarzał. Ale zasada jest prosta: każdy tekst ma zawierać minimum jedno konkretne doświadczenie, case study lub dane, których użytkownik nie znajdzie w żadnym innym miejscu w internecie.

Nie chodzi o wrzutki w stylu „badania pokazują” lub „eksperci twierdzą”, tylko o twarde dane: „w lutym 2026 robiłem X dla klienta Y i wyszło Z”.

To jest ten element, który odróżnia tekst wypluty przez AI od tekstu napisanego z pomocą AI.

Krok 5: Pomiar w Google i AI równolegle

Kiedyś sprawdzałem tylko pozycje w GSC i ruch organiczny w GA4. Dziś mam drugi panel obok:

  • Ile razy tekst został zacytowany w AI Overviews? (w YOSA)
  • Jak często boty AI odwiedzają stronę? (w AgentMonitor)
  • Czy tekst pojawia się w odpowiedziach ChatGPT, Claude, Perplexity na konkretne pytania z klastra?

Dopiero zestawienie obu stron daje pełen obraz. Tekst może słabo rankować w Google i świetnie funkcjonować w LLM-ach (albo odwrotnie) – i obie te sytuacje wymagają zupełnie innych działań naprawczych.

Jak to wygląda w praktyce – od researchu do publikacji

Pokażę to na konkretnym przykładzie, bo tu najlepiej widać, o co mi chodzi.

Klient – agencja ubezpieczeniowa. Temat, który chciał poruszyć: „ubezpieczenie OC dla freelancera”.

Gdybym podszedł do tego „po staremu”, sprawa byłaby prosta. Biorę frazę „ubezpieczenie OC freelancer” (około 320 wyszukań miesięcznie), analizuję Top 10, buduję strukturę: czym jest OC dla freelancera, ile kosztuje, jak wybrać odpowiednie itd.

Piszę tekst, optymalizuję i publikuję. I prawdopodobnie ten tekst wszedłby do Top 10, zebrał sensowny ruch i… w zasadzie tyle. Byłby jednym z wielu.

Nowe podejście zaczęło się od rozmowy z klientem: „Co najczęściej słyszysz od freelancerów, którzy do ciebie przychodzą?”. Odpowiedź mnie zaskoczyła.

Okazało się, że oni w ogóle nie zaczynają od ceny. Zadają m.in. takie pytania:

  • „Czy ja w ogóle potrzebuję OC, jeśli pracuję tylko zdalnie?”
  • „Co się stanie, jeśli klient pozwie mnie za błąd w kodzie, który popełniłem pół roku temu?”
  • „Czy jeśli mam B2B z jedną firmą, to jestem freelancerem w rozumieniu ubezpieczyciela?”

To są zapytania, których nie znajdziesz wysoko w Ahrefsie – nie mają spektakularnych wolumenów. Ale każde z nich jest bardzo konkretne i wynika z realnej sytuacji. Ktoś siedzi wieczorem z laptopem i się nad tym głowi.

Wrzuciłem tę listę do Claude’a, poprosiłem o rozszerzenie i uporządkowanie. Wyszło z tego 6 głównych wątków. I na tej podstawie zbudowałem tekst – nie jako zestaw nagłówków pod frazy, tylko odpowiedzi na konkretne pytania, które ktoś faktycznie może zadać.

Efekt po trzech miesiącach był dla mnie dość wymowny.

  • W Google – pozycja 6. na główną frazę (czyli obiektywnie niżej, niż pewnie byłbym w stanie wyciągnąć klasycznym podejściem).
  • W AI Overviews – tekst cytowany na 4 z 6 pytań z klastra.
  • W ChatGPT – tekst pojawia się jako źródło przy pytaniach freelancerów o odpowiedzialność cywilną.
  • Konwersja z tego tekstu – 3x wyższa niż ze starszych tekstów tego klienta, mimo niższej pozycji w Google.

Niższa pozycja może dawać wyższą konwersję i lepszy efekt biznesowy. Gdyby ktoś mi to powiedział 5 lat temu, to pewnie bym parsknął śmiechem. A jednak.

Etap Stare podejście (keyword-first) Nowe podejście (problem-first)
Punkt wyjścia Fraza: „ubezpieczenie OC freelancer” (ok. 320 wyszukań) Realna sytuacja: freelancer ma konkretne wątpliwości i problemy
Start pracy Analiza frazy i Top 10 w Google Rozmowa z klientem: „o co ludzie naprawdę pytają?”
Zbieranie danych Narzędzia SEO (Ahrefs, Senuto) Cytaty klientów + pytania z życia
Przykładowe pytania „Ile kosztuje OC dla freelancera?” „Czy w ogóle potrzebuję OC pracując zdalnie?”
„Jak wybrać OC dla freelancera?” „Co jeśli klient mnie pozwie za błąd sprzed pół roku?”
„Czym jest OC freelancera?” „Czy B2B z jedną firmą to dalej freelancer?”
Budowa struktury Nagłówki pod frazy Struktura wokół pytań i wątpliwości
Pisanie Optymalizacja pod frazę i jej warianty Odpowiedzi na konkretne problemy użytkownika
Efekt w Google Wyższa pozycja Nieco niższa pozycja
Efekt w AI Brak widoczności Cytowania w AI Overviews i LLM-ach
Jakość ruchu Ogólny, informacyjny Bardziej świadomy, bliżej decyzji zakupowej
Konwersja Standardowa ~3x wyższa
Długofalowy efekt Treść „jedna z wielu” Treść, która żyje w wielu kanałach (Google + AI)

Narzędzia, które to wszystko spinają

Nie będę robić z tego kolejnego zestawienia typu „10 narzędzi SEO, które musisz znać”, bo takich tekstów jest pełno w sieci i niewiele z tego wynika. Chcę Ci pokazać, co faktycznie pomaga mi ogarniać ten nowy sposób pracy.

YOSA – to nasz autorski chatbot AI, które świetnie sprawdza się przy tworzeniu contentu pod SEO i LLM-y. Używam go, kiedy piszę treści oparte na własnych materiałach klienta. Wrzucam do niego e-booki, raporty, whitepapery i transkrypcje, a potem generuję z tego naturalne teksty, które faktycznie odzwierciedlają wiedzę i unikalne doświadczenie klienta. To nasz as w rękawie i broń przeciwko „generycznym” treściom AI.

Zobacz też:

Od chatbota SEO do platformy contentowej

AgentMonitor – to nasze kolejne narzędzie, które pokazuje, jak często boty AI (GPTBot, ClaudeBot, PerplexityBot, GoogleExtended) odwiedzają stronę klienta. To jest wskaźnik, którego w klasycznym SEO w ogóle nie było. Jeśli boty nie przychodzą – tekst nie trafi do LLM-ów, nawet jeśli jest genialny.

Te dwa rozwiązania dają mi coś, czego wcześniej nie miałem – widok na całą podróż treści, od pisania i publikacji przez pozycję w rankingu, widoczność w odpowiedziach AI, aż po wejścia i konwersje.

Kiedyś patrzyłem na pojedynczy wycinek. Dopiero dzisiaj mam poczucie, że widzę całość.

Podsumowanie po pół roku pracy z nowym frameworkiem

Ogólnie – petarda, ale nie będę udawał, że wszystko wyszło idealnie. Po tych 6 miesiącach mam kilka wniosków.

Co zadziałało?

Najbardziej namacalna zmiana to ruch z AI. Jeszcze niedawno to był marginalny kanał, dziś u części klientów robi się z tego zauważalny kawałek tortu. U jednego klienta z branży SaaS to już ponad 20% całego ruchu organicznego, co jeszcze rok temu brzmiałoby abstrakcyjnie.

Druga rzecz to konwersje. Teksty oparte na problemach działają inaczej niż te skupione na frazach. Przyciągają ludzi, którzy są już głębiej w procesie decyzyjnym. Te osoby nie szukają ogólnych informacji, tylko odpowiedzi na konkretną sytuację.

I to widać w liczbach. Nie mam jeszcze pełnej próby statystycznej, ale tendencja jest jednoznaczna.

Co mnie zaskoczyło?

Przede wszystkim to, jak mocno rośnie aktywność botów AI na stronach, które zaczynają być „pisane pod LLM-y”. W momencie, kiedy zmieniłem podejście, liczba wizyt takich botów wzrosła nawet kilkukrotnie.

Największa niespodzianka? Pozycja w Google przestała być najważniejsza. Tekst na miejscu 5-8, który jest cytowany przez modele, może wygenerować więcej leadów niż tekst z TOP 3, który jest dostępny tylko w klasycznych wynikach wyszukiwania. Gdybym nie zobaczył tego w danych, pewnie sam bym w to nie uwierzył.

Wtopy, których teraz bym uniknął

Oczywiście popełniłem też błędy. Największy to próba „przerabiania” starych treści na nowe podejście. Wydawało mi się, że da się to zrobić szybką edycją.

Dziś wiem, że to są dwa różne sposoby myślenia i mieszanie ich rzadko daje sensowny efekt. Szkoda czasu – lepiej pisać od zera.

Gdzie framework się wykłada?

Ważna rzecz na koniec: to nie jest uniwersalne rozwiązanie dla każdego. W branżach czysto transakcyjnych, gdzie decyzja sprowadza się do ceny i parametrów, klasyczne podejście nadal działa bardzo dobrze. Nie ma sensu na siłę wszystkiego zmieniać.

Ale jednocześnie mam wrażenie, że większość firm nawet nie sprawdziła, czy ten nowy model mógłby u nich zadziałać. A teraz jest dobry moment, żeby to przetestować – zanim okaże się, że ta nowa „warstwa” ruchu gdzieś nam ucieka.

Podsumowanie w punktach

  • Stary model „keyword → struktura → tekst → publikacja” przestaje wystarczać, kiedy obok Google rośnie cały ekosystem wyszukiwania oparty na LLM-ach.
  • Problem-first to pisanie w odpowiedzi na prawdziwe pytania użytkowników, nie w oparciu o frazy z narzędzi SEO – i to podejście działa zarówno w Google, jak i w AI.
  • Mój framework opiera się na 5 krokach: pain pointy (klient + Claude + Gemini), klaster pytań zamiast klastra fraz, język pytania zamiast języka SEO, E-E-A-T przez własne doświadczenia, pomiar w Google i AI równolegle.
  • Konkretny przypadek klienta udowodnił mi, że niższa pozycja w Google może oznaczać wyższą konwersję, jeśli tekst trafia jednocześnie do Google, AI Overviews i ChatGPT.
  • YOSA i AgentMonitor dają mi widok na całą podróż treści – od publikacji po cytowania w LLM-ach – czego klasyczne narzędzia SEO nie pokazują.
  • Po 6 miesiącach widzę wyraźny wzrost ruchu z AI i wyższą konwersję, ale też wiem, że tego frameworka nie da się zastosować wszędzie – w czysto transakcyjnym e-commerce podejście keyword-first wciąż ma sens.
  • W 2026 wygrywają ci, którzy odpowiadają na pytania użytkowników – bez względu na to, gdzie oni je zadają.

Naprodukowaliśmy się nie lada. A czy szczena opada? (D)oceń nas!

Aktualna ocena:

5 / 5

Liczba ocen: 1

Twoja ocena:

Przeczytaj również:

Pozycjonowanie
Jak weryfikuję obecność w AI – i czy ma to w ogóle sens? - SEO blog
Pozycjonowanie
Od chatbota SEO do platformy contentowej – premiera YOSA 1.0 - SEO blog

SEO na luzie

Historia Twojego sukcesu może zacząć się dziś. Odbierz darmową analizę Twojej strony.

ODBIERZ DARMOWY
AUDYT W H

  • Odezwiemy się w 24h
  • Otrzymasz bezpłatną analizę strony i porównanie z konkurencją
  • Zaproponujemy skuteczną strategię działania
  • Otrzymasz ofertę w formie wideo, współpraca od 2999zł / mc