Aktualizacje algorytmów Google potrafią przestawić widoczność strony, mimo że po Twojej stronie nie wydarzyło się nic „awaryjnego”, dlatego tak istotne jest rozpoznanie, z jakim rodzajem zmiany masz do czynienia. W praktyce poszczególne update’y uderzają w inne obszary: jakość treści, recenzje, spam, wyniki lokalne, a czasem nawet w sam mechanizm indeksowania adresów URL. W efekcie sensowne przygotowanie nie sprowadza się do jednej, uniwersalnej „optymalizacji”, lecz do dopasowania działań do źródła spadków albo wzrostów. Równie ważne bywa odróżnienie wahań algorytmicznych od ręcznych działań, które zobaczysz bezpośrednio w Google Search Console. W tym artykule przejdziesz przez kluczowe typy aktualizacji i nauczysz się je odczytywać, aby działać na podstawie danych, a nie domysłów. Dzięki temu szybciej ustawisz priorytety: co poprawić w treści, co w technikaliach, a co po prostu trzymać pod obserwacją.
Typy aktualizacji Google i jak je zrozumieć
Typy aktualizacji Google najłatwiej uporządkować, gdy rozdzielisz zmiany wpływające na jakość treści, spam, recenzje, lokalność, wygląd SERP oraz indeksowanie i crawl.
Core Updates korygują sposób ważenia wielu sygnałów jednocześnie, dlatego wahania często dotyczą całych sekcji lub kategorii treści, a nie pojedynczego potknięcia technicznego. Helpful Content premiuje materiały tworzone z myślą o użytkowniku, więc przygotowania zwykle zaczynają się od audytu podstron o niskiej wartości oraz decyzji, czy je przeredagować, czy skonsolidować. Jeśli widzisz spadek „wszędzie naraz”, najczęściej potrzebujesz oceny jakości i lepszego dopasowania do intencji użytkownika, zamiast punktowej poprawki technicznej. Z kolei Spam Updates potrafią szybko zbić widoczność witryn nadużywających automatycznie generowanych treści, doorway pages, ukrytych przekierowań czy agresywnych schematów linkowych.
Product Reviews / Reviews Updates premiują recenzje oparte na doświadczeniu, testach, porównaniach i twardych danych, zamiast prostego przepisywania specyfikacji czy haseł w rodzaju „najlepszy produkt 2026”. Local Search Updates obejmują m.in. Google Business Profile, spójność NAP, opinie oraz lokalną relewancję treści, dlatego dla firm usługowych znaczenie mają strony lokalizacyjne z unikalną wartością, a nie hurtowe kopie schematu „usługa + miasto”. Zmiany w SERP (np. AI Overviews i inne moduły) potrafią obniżyć liczbę kliknięć bez spadku pozycji, więc interpretację najlepiej oprzeć na CTR w Google Search Console oraz dopasowaniu treści do formatów wyników (np. sekcje Q&A, listy kroków, dane strukturalne schema.org). Jeśli podejrzewasz „karę”, w pierwszej kolejności rozdziel ręczne działania od spadków algorytmicznych: Manual Action zobaczysz wprost w raportach Google Search Console, natomiast przy algorytmie taki komunikat się nie pojawi. Niekiedy źródłem problemu jest infrastruktura indeksowania (kanonikale, mapy witryny, parametry URL i architektura linkowania), a nie sama treść, dlatego zanim wyciągniesz wnioski z „alarmów” w mediach społecznościowych, sprawdzaj je na danych z GSC (np. porównanie 28 dni do 28 dni), a dopiero później planuj zmiany.
jak monitorować i wykrywać zmiany algorytmiczne
Zmiany algorytmiczne najszybciej wychwycisz, gdy śledzisz widoczność i ruch w podziale na sekcje serwisu, zamiast sprowadzać wszystko do jednej zbiorczej liczby. Dobrym punktem startu jest dashboard w Looker Studio oparty na Google Search Console i GA4, który pokazuje kliknięcia, wyświetlenia, CTR oraz pozycje dla kluczowych katalogów (np. /blog/, /kategoria/, /produkt/). Dzięki temu w kilka minut sprawdzisz, co spadło konkretnie: dany katalog, urządzenie, kraj albo typ zapytań. Najwięcej daje segmentacja po typach stron (poradniki/kategorie/produkty) oraz intencji (informacyjne vs transakcyjne), bo dopiero ona podpowiada właściwy kierunek diagnozy.
Wczesne ostrzeganie warto oprzeć na alertach anomalii, ponieważ ręczne przeglądanie wykresów zwykle zaczyna się dopiero po spadku. Ustaw reguły, gdy ruch organiczny spada np. o >20% dzień do dnia lub tydzień do tygodnia, ale osobno dla brand i non-brand, aby nie mylić wahań popytu z problemem SEO. Takie alerty wdrożysz przez GA4 + BigQuery + proste zapytania SQL albo przez gotowe alerty w Ahrefs/Semrush oraz reguły w Google Analytics. W firmie dobrze też prowadzić kalendarz zmian (change log), bo bez niego łatwo przypisać spadek aktualizacji Google, gdy w praktyce zadziałał własny release w CMS.
- Dashboard (GSC + GA4): kliknięcia, wyświetlenia, CTR, pozycje w podziale na katalogi i typy stron.
- Alerty anomalii: spadki >20% dla brand/non-brand, dzień do dnia i tydzień do tygodnia.
- GSC „Strony”: wzrost „Wykluczono”, problemy z duplikacją, soft 404 oraz sygnały indeksacji i kanonikalizacji.
- CTR vs pozycje: spadek kliknięć przy stabilnych pozycjach jako sygnał zmian w wyglądzie SERP lub konkurencji snippetami.
- Logi serwera: sprawdź, czy Googlebot nie marnuje budżetu crawl na parametry i duplikaty kosztem kluczowych URL-i.
Wpływ aktualizacji oceniaj w adekwatnym oknie czasowym, ponieważ wyniki z 24 godzin często potrafią zafałszować obraz. Rozsądny standard to minimum 7–14 dni od wdrożenia zmian oraz porównanie 28 dni do 28 dni, z uwzględnieniem sezonowości i kampanii. Jeśli pojawia się podejrzenie, że „to nie my spadliśmy, tylko konkurencja urosła”, przygotuj stały monitoring share of voice: top 10 konkurentów, nowe typy treści, modyfikacje struktury oraz przyrost liczby linkujących domen (Ahrefs/SEMrush). Gdy kliknięcia spadają, a pozycje pozostają podobne, w pierwszej kolejności zweryfikuj CTR i zmiany w SERP, zamiast od razu zakładać problem techniczny.
Techniczne SEO: optymalizacja indeksacji i architektury
Techniczne przygotowanie na aktualizacje sprowadza się do tego, aby Google bez przeszkód indeksował właściwe URL-e i poprawnie odczytywał ich priorytety w architekturze serwisu. Zacznij od higieny map witryny XML: umieszczaj w nich wyłącznie adresy kanoniczne z kodem 200, które faktycznie nadają się do indeksacji, bo w przeciwnym razie wysyłasz niespójne sygnały. Jeśli w Google Search Console widzisz błędy w sitemapie, częstą przyczyną bywają przekierowania, 404/410, URL-e z parametrami albo strony z noindex. Uporządkowane sitemapy i konsekwentne kanonicale to fundament, który stabilizuje indeksację, gdy zmienia się sposób przeliczania sygnałów.
Duplikacja wynikająca z filtrów, sortowań i parametrów (np. UTM) rozmywa sygnały i potrafi osłabić kluczowe strony w okresach zmian algorytmicznych. Rozwiązaniem jest konsekwentna strategia canonicali, kontrola parametrów w GSC oraz czytelne zasady indeksacji dla filtrów (część może być index, większość zwykle noindex). Równolegle wzmacniaj linkowanie wewnętrzne w modelu „topical hubs”, czyli strona filarowa + wspierające podstrony z linkami kontekstowymi. Jeśli chcesz wzmocnić ważną kategorię, kieruj do niej linki z artykułów poradnikowych i sekcji „powiązane” opartych na intencji, a nie na przypadkowych tagach.
Dostępność i kompletność treści dla robota zależy również od paginacji, renderowania oraz jakości odpowiedzi serwera. Przy infinite scroll dopilnuj, by istniały paginowane URL-e (np. ?page=2) możliwe do crawl i indeksacji, bo inaczej Google może nie dotrzeć do głębiej położonych produktów. W serwisach SPA indeksacja bywa wolniejsza, dlatego sprawdzaj renderowanie w „Sprawdzenie adresu URL” w GSC i rozważ SSR/prerender dla kluczowych sekcji. Dodatkowo ogranicz masowe soft 404 (np. puste kategorie lub produkty bez dostępności z ubogą treścią) i trzymaj się zasad: 410 dla trwałych usunięć oraz 301 tylko do najbliższego odpowiednika.
Na stabilność interpretacji treści wpływają również dane strukturalne, poprawnie wdrożony hreflang oraz kontrola spamu w UGC. Dane schema.org nie gwarantują rich results, ale ułatwiają Google rozpoznanie typu treści, dlatego weryfikuj je w Rich Results Test i Schema Markup Validator oraz śledź błędy w raportach GSC (np. Produkt, FAQ, Breadcrumbs). Jeśli masz wersje międzynarodowe, nieprawidłowy hreflang potrafi wywołać kanibalizację między krajami, więc potrzebujesz mapowania par język–kraj, wzajemnych odnośników i spójnych canonicali. Jeżeli w serwisie funkcjonują komentarze, profile lub forum, wdroż moderację, atrybuty nofollow/ugc dla linków oraz limity publikacji i filtry (np. reCAPTCHA, Akismet), ponieważ UGC bywa źródłem spamu i toksycznych linków wychodzących.
Strategia treści odporna na aktualizacje algorytmów
Strategia treści odporna na aktualizacje algorytmów opiera się na konsekwentnym podnoszeniu jakości, unikalności i dopasowaniu formatu do intencji wyszukiwania, zamiast na „kosmetycznych” poprawkach. Zacznij od audytu wszystkich URL-i i rozstrzygnięcia, co zostaje, co wymaga odświeżenia, co scalić, a co usunąć, bo najszybciej porządkuje to sygnały jakości w skali serwisu. Często lepszy rezultat niż kasowanie daje połączenie kilku słabszych materiałów w jeden mocny przewodnik oraz ustawienie przekierowań 301 z duplikujących wpisów. Ważne jest też wychwytywanie kanibalizacji: gdy kilka stron odpowiada na to samo pytanie, Google może „przerzucać” widoczność, co destabilizuje ruch.
- Audyt URL-i: decyzja keep / update / merge / remove oraz priorytetyzacja stron o największym znaczeniu biznesowym.
- Dopasowanie do intencji: analiza SERP i dobór formatu (krok po kroku, porównanie, definicje) zamiast tekstu „wszystko naraz”.
- Unikalna wartość: własne dane, zdjęcia/screeny, wyniki testów, checklisty oraz praktyczne procedury i workflow.
- Kontrola jakości programmatic SEO: unikalny wkład na każdej stronie oraz blokowanie indeksacji tam, gdzie nie da się utrzymać wymaganej wartości.
Dopasowanie treści do intencji wyszukiwania wymaga decyzji, czy użytkownik szuka instrukcji „jak zrobić”, porównania „co wybrać”, czy strony transakcyjnej „gdzie kupić”. Gdy format rozmija się z tym, co dominuje w wynikach dla danej frazy, nawet poprawny merytorycznie artykuł może przegrywać z lepiej ustrukturyzowanymi odpowiedziami. Przewagę budują elementy trudne do skopiowania: własne dane, zdjęcia, screeny, wyniki testów, checklisty oraz opis rzeczywistego procesu (np. konfiguracja GA4 + GTM i przykładowe zdarzenia). W przypadku programmatic SEO (np. wiele stron „X w mieście Y”) trzymaj się progów jakości i nie indeksuj stron, na których nie da się dostarczyć unikalnej, użytecznej wartości.
Odporność na aktualizacje wzmacniają regularne dopracowanie merytoryczne oraz spójny proces redakcyjny, a nie wyłącznie podmiana daty publikacji. Zaplanuj realne odświeżanie materiałów: strony „money pages” aktualizuj co 3–6 miesięcy, a poradniki sezonowe minimum raz w roku, uzupełniając je o nowe wersje narzędzi i aktualne screeny. Uporządkuj autorstwo i review: kto pisze, kto recenzuje, kto zatwierdza oraz jakie elementy muszą znaleźć się w briefie (cel, intencja, źródła, przykłady, sekcja FAQ). Jakość weryfikuj również po stronie użytkownika, obserwując zachowania (scroll, czas do konwersji, powroty, mikrokonwersje) i zestawiając je przed/po zmianach w GA4.
budowanie zaufania i wiarygodności w kontekście E-E-A-T
Budowanie zaufania i wiarygodności w kontekście E-E-A-T polega na pokazaniu doświadczenia, możliwej do sprawdzenia ekspertyzy oraz transparentności redakcyjnej, zwłaszcza w tematach YMYL (zdrowie, finanse, prawo). Treść powinna jednoznacznie sygnalizować „Experience”, czyli że autor faktycznie wykonał opisywane działania: w recenzjach i poradnikach pomagają własne zrzuty ekranu, konkretne ustawienia, wyniki testów oraz wnioski z użycia. W obszarach specjalistycznych liczą się trafne definicje, precyzyjne liczby i zgodność z aktualną wiedzą, dlatego wzmacniaj tekst cytowaniami z wiarygodnych źródeł (np. dokumentacja Google, normy branżowe). Jeśli temat wpływa na decyzje zakupowe lub bezpieczeństwo użytkownika, transparentność i możliwość weryfikacji informacji stają się elementem „jakości” ocenianej przez algorytmy.
Wiarygodność serwisu podbijają elementy „real business” oraz czytelne zasady publikacji. Strony autora powinny uwzględniać doświadczenie, stanowisko, publikacje, certyfikaty i sposób kontaktu, ponieważ ułatwia to ocenę, kto bierze odpowiedzialność za treść. Dobrą praktyką jest też opisanie polityk redakcyjnych: jak weryfikujesz fakty, jak aktualizujesz treści, jak rozwiązujesz konflikt interesów i jak oznaczasz materiały sponsorowane. Dla sklepów i firm usługowych istotne są czytelne dane kontaktowe, regulaminy, polityka zwrotów i informacje o firmie, bo ich brak potrafi obniżać zaufanie do stron transakcyjnych.
Na E-E-A-T wpływają także sygnały reputacyjne oraz to, jak podchodzisz do opinii i treści afiliacyjnych. Opinie klientów mogą wspierać sprzedaż, jednak manipulacja (fałszywe recenzje lub ukrywanie negatywnych) zwiększa ryzyko reputacyjne, więc potrzebujesz uczciwych procedur zbierania i reagowania (np. w Google Business Profile, Opineo, Trustpilot). Jeśli zarabiasz na afiliacji, jasno oznacz relacje i dodaj merytorykę wykraczającą poza „kup teraz” (sekcje „dla kogo/nie dla kogo”, alternatywy, jawne kryteria rankingów), ponieważ aktualizacje często uderzają w „thin affiliate”. Regularnie odświeżaj cytowania i kontroluj, czy linki do źródeł nie prowadzą do 404 (np. kwartalny crawl w Screaming Frog), a reputację monitoruj również poza stroną, śledząc wzmianki i wyniki na zapytania typu „marka opinie” (np. Brand24).
bezpieczne zarządzanie linkami i sygnałami off-site
Bezpieczne zarządzanie linkami i sygnałami off-site sprowadza się do tego, aby profil odnośników sprawiał wrażenie naturalnego, a aktywności promocyjne nie układały się w schematy łatwe do wyłapania przez algorytmy. Warto zacząć od audytu w narzędziach takich jak Ahrefs, Majestic lub Semrush i zweryfikować, czy nie występują nienaturalne wzorce: nadmiar dokładnych anchorów, gwałtowne przyrosty linków z domen niskiej jakości czy linki sitewide. Gdy wraca temat disavow, w praktyce zazwyczaj najpierw usuwa się źródła spamu i wzmacnia profil zdrowymi linkami, a dopiero później rozważa disavow w przypadkach oczywistych, masowych nadużyć. Najbezpieczniej jest ucinać praktyki wyglądające jak „skrót”, ponieważ to one najczęściej wychodzą na jaw podczas Spam Updates.
Stabilny profil linków buduje się poprzez dywersyfikację anchorów, w której przeważają brand, URL-e oraz ogólne sformułowania, zamiast samych money keywordów. Zamiast na siłę narzucać anchory, łatwiej prowadzić link building w oparciu o treści, które realnie „zasługują” na cytowanie (raporty, narzędzia, kalkulatory), a także o publikacje PR z faktycznym zasięgiem i zgodnością tematyczną. Równocześnie warto ograniczać ekspozycję na PBN i systemy wymiany, bo powtarzalne szablony, identyczne footprinty oraz sztuczne sitewide zwiększają ryzyko algorytmicznego obniżenia jakości. Jeśli trzeba ustawić priorytety na czas zmian, pamiętaj, że linki wewnętrzne zwykle da się skorygować szybciej niż zewnętrzne, ponieważ nie zależą od stron trzecich.
Sygnały off-site obejmują również cytowania lokalne oraz to, do kogo linkujesz z własnej strony. Dla firm lokalnych większe znaczenie ma spójność NAP (nazwa, adres, telefon) w wielu źródłach niż obecność w dużej liczbie przypadkowych katalogów, dlatego lepiej skupić się na uzupełnieniu i korekcie profili tam, gdzie ma to uzasadnienie (np. Google, Apple Maps, Facebook, Panorama Firm). Równolegle warto przeprowadzać audyt linków wychodzących, bo kierowanie do słabych witryn (np. hazard, pirackie treści) potrafi obniżać zaufanie, nawet jeśli Twoje treści są poprawne. Materiały sponsorowane oznaczaj poprawnie (rel=”sponsored”) i trzymaj w ryzach format reklam, bo zbyt komercyjny układ (reklamy nad treścią, agresywne pop-upy) bywa sygnałem słabego doświadczenia. Jeśli pojawia się obawa o negatywne SEO, monitoruj nowe linkujące domeny i nagłe skoki linków, a przy kopiach treści reaguj zgłoszeniami DMCA. W skrajnych przypadkach disavow rozważ dopiero po analizie.
rola UX i Core Web Vitals w stabilności strony
UX i Core Web Vitals stabilizują wyniki, ponieważ poprawiają faktyczne doświadczenie użytkownika, które Google szczególnie bierze pod uwagę w podejściu mobile-first. Warto trzymać się progów CWV dla 75. percentyla użytkowników: LCP ≤ 2,5 s, INP ≤ 200 ms oraz CLS ≤ 0,1, a priorytetyzację zwykle zaczynać od LCP i INP. W praktyce LCP najczęściej usprawnisz dzięki optymalizacji obrazów, serwera i krytycznego CSS, a INP przez ograniczanie obciążenia JavaScript oraz liczby interakcji. Jeśli nie wiesz, co poprawić jako pierwsze, zacznij od elementów wpływających na LCP (media, serwer) i INP (JS, formularze), bo zwykle przynoszą największy zwrot.
Rozbieżności między Lighthouse a danymi w GSC biorą się z tego, że Lighthouse jest testem laboratoryjnym, a CrUX prezentuje pomiary od realnych użytkowników. Gdy widzisz „zielono” w Lighthouse, a „pomarańczowo” w GSC, najczęściej oznacza to wolniejsze urządzenia i sieci w rzeczywistym ruchu, dlatego optymalizacja powinna uwzględniać faktyczne warunki mobile. Duże obrazy i wideo często pogarszają LCP, więc stosuj AVIF/WebP, poprawne rozmiary (srcset), kompresję oraz CDN (np. Cloudflare). Jeśli na wejściu dominuje wideo, rozważ poster image i opóźnienie ładowania, ponieważ autoplay nad treścią potrafi wydłużać render.
Stabilność układu i szybkość interakcji najczęściej psują reklamy, dynamiczne komponenty oraz nadmiar skryptów marketingowych. CLS rośnie, gdy elementy „doskakują”, dlatego rezerwuj miejsce na reklamy, ustawiaj wymiary obrazów (width/height) i unikaj wstrzykiwania komponentów nad czytaną treścią. INP obniżają ciężkie frameworki, zbyt wiele tagów oraz nieużywane biblioteki, więc audytuj tagi w Google Tag Manager, usuwaj zbędne skrypty i odraczaj to, co nie jest krytyczne dla pierwszej interakcji. Dodatkowo ogranicz natrętne pop-upy i interstitiale na mobile do niezbędnych (np. cookie) oraz wspieraj dostępność (alt-y, etykiety formularzy, logiczna kolejność nagłówków), bo pośrednio poprawia to nawigację i zrozumiałość strony. Do testów wykorzystuj PageSpeed Insights i WebPageTest, a do monitorowania trendów po wdrożeniach narzędzia typu SpeedCurve, najlepiej z pilnowaniem budżetu wydajności (np. maksymalny rozmiar JS 250–350 KB gzip dla strony kluczowej) w procesie wdrożeniowym.
procedura reagowania na aktualizację Google
Procedura reagowania na aktualizację Google powinna zaczynać się od szybkiego triage, które wyklucza awarie myląco przypominające „update”. W pierwszych 48 godzinach sprawdź dostępność serwisu, robots.txt, niezamierzone noindex, przekierowania, błędy 5xx oraz zmiany w CMS, ponieważ te elementy mogą dawać identyczne objawy jak zmiana algorytmu. Jeśli w Google Search Console spada liczba zaindeksowanych stron albo rośnie liczba 403/404, w pierwszej kolejności napraw technikalia, zanim zaczniesz przebudowywać treści. Najdroższy błąd na starcie to potraktowanie problemu technicznego jak „problem jakości” i rozpoczęcie masowych edycji bez diagnozy.
W dniach 2–7 najszybciej dotrzesz do źródła problemu, wskazując segmenty serwisu, które ucierpiały. Pobierz listę URL-i z największym spadkiem kliknięć i posegreguj je według typu strony, tematu oraz intencji, aby sprawdzić, czy kłopot dotyczy np. konkretnego klastra treści, a nie całej domeny. Jeżeli ucierpiały głównie artykuły „definicyjne”, potraktuj to jako sygnał, że konkurencja trafniej odpowiada na pytanie użytkownika albo że SERP przejął odpowiedź (np. snippet/AI). W takiej sytuacji właściwym kierunkiem jest dołożenie unikalnej wartości, a nie „przestawianie” pojedynczych elementów na stronie.
W dniach 7–14 podejmuj decyzje w oparciu o audyt SERP i analizę konkurencji dla 20–50 kluczowych fraz. Zestaw top 3–5 wyników pod kątem długości, formatu, autorstwa, multimediów, aktualności, elementów zaufania oraz danych strukturalnych, ponieważ zwykle dobrze pokazuje to, czego brakuje Twoim stronom. Jeśli rywale oferują konkretne zasoby (np. kalkulator, checklistę PDF albo tabele porównawcze), potraktuj to jako wskazówkę wdrożeniową zamiast przepisywania tekstu „od zera”. Audyt SERP powinien wyjść od tego, w jaki sposób użytkownik otrzymuje odpowiedź w wynikach, a dopiero później przełożyć się na plan zmian w treści i strukturze.
Zmiany wprowadzaj w sposób kontrolowany, aby nie zamazać obrazu i móc ocenić, co zadziałało. Pracuj w batchach (np. po 20 URL-i tygodniowo) i notuj w change logu: co zmieniono, jaki był cel oraz które KPI obserwujesz. Gdy pozycje pozostają zbliżone, ale CTR spada, testuj nowe tytuły i opisy dopasowane do intencji oraz przewagi treści (np. „kalkulator”, „checklista”, „porównanie 2026”), lecz wyłącznie na ograniczonej próbce. Rezultaty oceniaj po 14–21 dniach, ponieważ tygodniowe wahania potrafią wypaczyć interpretację.
Po wstępnej stabilizacji zdecyduj, czy lepszy rezultat da konsolidacja, przyspieszenie ponownej oceny czy eskalacja do audytu zewnętrznego. Usuwanie ma sens wtedy, gdy strona jest trwale bez wartości i nie da się jej poprawić bez sztucznego „nadmuchiwania”, a przy dużej masie thin content często rozsądniej jest scalać wiele stron w mniejszą liczbę mocnych przewodników z przekierowaniami i aktualizacją linków wewnętrznych. Ponowną ocenę możesz wspierać przez aktualne sitemapy, linkowanie do odświeżonych URL-i z mocnych stron, poprawne lastmod oraz ręczne prośby o indeksację dla kluczowych adresów (priorytetyzując top 50–200 stron generujących największy przychód). Jeśli spadek przekracza ok. 30–50% w kluczowym segmencie i utrzymuje się 14–28 dni po zakończeniu update’u, sensownym krokiem jest niezależny audyt (techniczny + content + linki) oparty o listę zmian, eksporty z GSC (Top pages/queries), logi crawl i listę najważniejszych URL-i.