Jesteś tutaj: Baza wiedzy / SEO News / SEO News #201 – Perplexity chce kupić Chrome, strony na JS w wynikach AI, generowane treści a widoczność w Google

20-08-2025

SEO News #201 – Perplexity chce kupić Chrome, strony na JS w wynikach AI, generowane treści a widoczność w Google

Perplexity się rozkręca i składa Google propozycję kupna Chrome. Eksperci twierdzą, że jest to raczej sprytny zabieg marketingowo-wizerunkowy niż faktyczna chęć przejęcia przeglądarki – tym bardziej że samo Google nie chce jej sprzedawać. Ale to pokazuje, że pozycja gigantów big-tech w obecnych realiach może być zagrożona, a dynamicznie rosnące firmy technologiczne z sektora AI będą chciały zagarniać dla siebie coraz większy kawałek tortu.

SEO News #201 – Perplexity chce kupić Chrome, strony na JS w wynikach AI, generowane treści a widoczność w Google - SEO blog

Perplexity wysyła Google ofertę kupna ich flagowej przeglądarki internetowej. Wyszukiwarki AI mają problemy z renderowaniem contentu opartego na JavaScript. Google przypomina, że treści AI powinny być weryfikowane przez ludzi przed publikacją. Poza tym: spadek aktywności Google botów w wyniku błędu serwera i wdrożenie funkcji Preferred sources w Indiach i USA.

1. Perplexity składa Google ciekawą propozycję

Perplexity przeprowadza mocną ofensywę i chce odkupić od Google… przeglądarkę Chrome.

Propozycja jest dość nieoczekiwana, ale zbiega się w czasie z trwającym sporem sądowym o dominację Google i tworzenie przez nich monopolu na rynku wyszukiwania.

W zeszłym roku Departament Sprawiedliwości w USA sugerował, że Google powinno sprzedać Chrome, co mogłoby osłabić pozycję firmy i nieco ułatwić życie ich konkurentom.

Dla lepszego kontekstu: Chrome ma obecnie ok. 3,5 mld użytkowników na całym świecie i kontroluje ponad 60% globalnego rynku wyszukiwania.

Oferta Perplexity opiewa na skromne 34,5 miliarda dolarów :D – co ciekawe, jest to prawie dwa razy więcej, niż wynosi wycena całej firmy.

Jeden z większych start-up’ów AI podkreśla, że utrzymałby open-source’owy charakter Chrome. Pojawiły się tez obietnice zainwestowania blisko 3 mld dolarów na dalszy rozwój przeglądarki w ciągu najbliższych dwóch lat.

Podkreślono również, że Google pozostałoby domyślną wyszukiwarką, z opcją zmiany w zależności od preferencji użytkowników.

Wszystko super, ale Google jak dotąd nie wyraziło chęci pozbycia się swojej flagowej przeglądarki. Analitycy zgodnie podkreślają, że szanse na sprzedaż są minimalne i raczej nie traktują ich jako realnej próby przejęcia.

Jak więc to rozumieć? Ruch Perplexity może być gestem symbolicznym – sygnałem, że firma zamierza odważnie rywalizować z gigantami w obszarze wyszukiwania i AI.

Jak dla mnie to może być też próba odciągnięcia uwagi od ostatnich oskarżeń ze strony Cloudflare, które twierdzi, że boty Perplexity skanowały strony ich klientów mimo zablokowania im dostępu. O sprawie zrobiło się głośno na początku sierpnia – wiemy, że Perplexity dostało wówczas całkowitego bana od Cloudflare.

2. JavaScript na stronie = gorsza widoczność w wyszukiwarkach AI?

Dynamiczny rozwój wyszukiwania opartego na sztucznej inteligencji przynosi wiele korzyści – ale i poważne wyzwania techniczne.

Potwierdzają to najnowsze analizy Glenna Gabe’a z portalu GSQi, który udowodnił, że popularne platformy wyszukiwania AI – takie jak ChatGPT, Perplexity czy Claude – mają problem z odczytywaniem stron renderowanych wyłącznie po stronie klienta, a nie serwera (tzw. client-side rendering).

W praktyce oznacza to, że treści serwisów w pełni zależnych od JavaScriptu są dla systemów AI niewidoczne.

AI w starciu z JavaScriptem

Gabe przytacza przykłady, w których narzędzia AI wyświetlały komunikaty w rodzaju „brak treści” czy „Access Denied”, mimo że strona działała poprawnie i była normalnie widoczna w Google.

Efektem były nie tylko puste wyniki, ale też brak fragmentów cytowanych w odpowiedziach czy nawet błędne favicony.

Wyniki z ChatGPT dla strony opartej na JS.
Wyniki z Claude dla strony opartej na JS.
Wyniki z Perplexity dla strony opartej na JS.

Tymczasem Bing (Copilot) oraz Google (AI Mode, AI Overviews) bez problemu radzą sobie z renderowaniem JavaScriptu, dzięki czemu w klasycznym wyszukiwaniu strony oparte na JS są indeksowane i rankują normalnie.

Problem dotyczy więc wyłącznie nowej fali wyszukiwarek AI, które coraz częściej stanowią dla użytkowników alternatywę dla tradycyjnych narzędzi do przeszukiwania sieci.

To może być sygnał ostrzegawczy dla właścicieli stron i specjalistów od pozycjonowania – warto upewnić się, że treści pojawiają się w narzędziach i odpowiedziach AI, bo jest to rosnące źródło ruchu i widoczności.

Rozwiązaniem może być tutaj przejście na model server-side rendering i stosowanie strategii tzw. progressive enhancement (progresywnego ulepszania), która zapewniłaby dostęp do kluczowego contentu w formie czystego HTML-a.

3. Google: Content AI powinien być weryfikowany przez ludzi

Google kolejny raz odniosło się do rosnącej fali treści tworzonych w narzędziach generatywnej sztucznej inteligencji.

Jak wyjaśnił Gary Illyes, materiały generowane przez AI mogą być publikowane i pojawiać się w wyszukiwarce, ale tylko wtedy, gdy będą sprawdzone i zatwierdzone przez ludzkiego specjalistę.

Najważniejszym kryterium pozostaje jakość treści – zgodność z faktami, oryginalność i unikanie duplikacji.

Google ostrzega, że automatycznie tworzone teksty bez kontroli redakcyjnej mogą prowadzić do powielania istniejących treści, a nawet do efektu „pętli treningowej” – czyli sytuacji, w której sztuczna inteligencja uczy się na treściach wygenerowanych przez inne modele AI.

Pisałem o tym w kontekście odpowiedzi AI pojawiających się w sekcji People Also Ask w Google.

Jednocześnie firma przypomniała, że sama korzysta z własnych rozwiązań opartych na modelach Gemini w usługach takich jak AI Overviews czy AI Mode. Tam treści AI są ściśle powiązane z danymi z indeksu wyszukiwarki (tzw. grounding), co pozwala minimalizować ryzyko błędów i dezinformacji.

W praktyce rekomendacja Google sprowadza się do prostego wniosku: sztuczna inteligencja może przyspieszyć tworzenie tekstów, ale to człowiek powinien decydować o ostatecznym kształcie i wiarygodności publikacji.

Bez tego materiały generowane przez AI mogą zostać uznane za niskiej jakości i prawdopodobnie nie zdobędą widoczności w Google.

4. Błędy serwera mogą wpłynąć na skuteczność indeksowania Google botów

Trafiłem ostatnio na Reddicie na ciekawy wątek utworzony przez jednego z użytkowników, który zauważył nagłe zmniejszenie aktywności Googlebota – w przypadku jego strony było to nawet -90% w ciągu doby.

Podejrzenie padło na błędnie wdrożone nagłówki hreflang, które zwracały statusy 404 i mogły wywołać takie spadki – czasowo obie te sytuacje idealnie się pokrywały.

Do dyskusji włączył się John Mueller z Google, który rozwiał wątpliwości: samo pojawienie się błędów 404 nie powinno powodować tak gwałtownego spadku crawl rate, ale problemy z dostępnością serwera – już tak.

Dużo bardziej prawdopodobne jest to, że serwer w tym czasie zwracał inne błędy – 500, 503, 429 – lub dochodziło do timeoutów. W efekcie Googlebot automatycznie ograniczył liczbę zapytań, żeby nie przeciążać infrastruktury.

Podobne problemy mogą powodować także systemy bezpieczeństwa – np. CDN, WAF czy reguły rate limiting, które czasowo blokują ruch z botów Google.

Mueller podkreślił, że jeśli przyczyna zostanie usunięta, szybkość indeksowania z czasem powinna wrócić do normy.

Proces nie jest jednak natychmiastowy – odbudowa aktywności bota może potrwać od kilku dni do kilku tygodni, w zależności od tego, jak stabilny będzie serwer po naprawie.

5. Funkcja Preferred sources oficjalnie dostępna w USA i Indiach

Google oficjalnie uruchomiło nową opcję personalizacji wiadomości w wyszukiwarce – Preferred Sources, która była testowana w ramach Search Labs od czerwca tego roku.

Funkcja pozwala użytkownikom wskazać ulubione i zaufane źródła informacji, które będą częściej pojawiać się w sekcji Top stories.

Nowość działa już w USA i Indiach dla wyszukiwań w języku angielskim. Aby dodać wydawcę do preferowanych, wystarczy kliknąć ikonę gwiazdki widoczną przy nagłówkach wiadomości.

Google umożliwia też udostępnianie specjalnych linków, które pozwolą odbiorcom jednym kliknięciem dodać strony wydawców do ulubionych.

Funkcja Preferred Sources w Google

Firma podkreśla, że dzięki funkcji Preferred sources użytkownicy mogą łatwiej filtrować treści i szybciej docierać do sprawdzonych publikacji, a wydawcy – budować lojalność i zwiększać swoją widoczność w wynikach organicznych.

To też w sumie fajna odskocznia od wszechobecnych newsów związanych z kolejnymi rozwiązaniami opartymi na sztucznej inteligencji – akurat ta funkcja nie ma z nią nic wspólnego.

Naprodukowaliśmy się nie lada. A czy szczena opada? (D)oceń nas!

Aktualna ocena:

4.94 / 5

Liczba ocen: 14

Twoja ocena:

SEO na luzie

Historia Twojego sukcesu może zacząć się dziś. Odbierz darmową analizę Twojej strony.

Bezpłatna oferta
  • Odezwiemy się w 24h
  • Otrzymasz analizę strony i porównanie z konkurencją
  • Przygotujemy strategię SEO dla Twojego biznesu
  • Pokażemy Ci na przykładach, jak wygląda współpraca i raporty miesięczne
  • Otrzymasz ofertę w formie video, współpraca od 1999 zł/mc