Jak ocenić pracę agencji marketingowej po efektach, a nie po prezentacji
Jak ocenić pracę agencji marketingowej po efektach, a nie po prezentacji

Jak ocenić pracę agencji marketingowej po efektach, a nie po prezentacji

Jak ocenić pracę agencji marketingowej po efektach, a nie po prezentacji

Agencję marketingową ocenia się po tym, czy dowozi wynik biznesowy, a nie po tym, jak elegancko wygląda raport czy prezentacja. Liczy się praktyka: czy potrafi zdiagnozować problem, wdrożyć właściwe działania, sensownie je zmierzyć i z danych wyciągnąć decyzje, które coś realnie zmieniają. To nie jest zabawa w jeden kanał. To jest praca na zależnościach, często rozciągnięta w czasie dłuższym niż jeden miesiąc raportu. Najważniejszy jest pełny łańcuch dowodowy: cel biznesowy, pomiar, wykonane działania, zmiana w lejku i realny wpływ na leady, sprzedaż albo koszt pozyskania. Dopiero wtedy widać różnicę między skutecznością a dobrze opowiedzianą historią. I to nie jest frazes. Taka perspektywa jest po prostu uczciwsza, bo pokazuje i efekt końcowy, i jakość procesu, który do niego prowadzi.

Na czym polega ocena pracy agencji marketingowej po efektach

Ocena pracy agencji po efektach jest prosta w definicji, ale wymagająca w wykonaniu. Sprawdzasz, co zrobiono, jak to zmierzono i jaki miało to wpływ na wynik, zamiast punktować samą komunikację, tempo spotkań czy estetykę slajdów. Same slajdy nie sprzedają. Regularny rytm podsumowań, sprawne statusy i wzrost zasięgu mogą wyglądać dobrze, ale pytanie brzmi: czy te działania poprawiły to, co dla firmy faktycznie ma znaczenie.

Podstawową jednostką oceny nie powinna być pojedyncza kampania. Kluczowe jest całe domino zależności: cel, wskaźniki, dane źródłowe, działania, wynik i decyzja, co robimy dalej. Jeśli firma chce więcej wartościowych leadów, raport ma pokazać nie tylko kliknięcia czy CTR, ale też jakość ruchu, współczynnik konwersji, status leadów i koszt pozyskania. Jeżeli nie da się połączyć działań agencji z konkretną zmianą w lejku lub wyniku biznesowym, ocena jest niepełna. Bo wtedy oceniamy narrację, nie rezultat.

W praktyce trzeba bezlitośnie rozdzielać wskaźniki wynikowe od wskaźników próżności. Pozycje w Google, liczba sesji, wyświetlenia reklam czy zasięg bywają użyteczne diagnostycznie, ale same w sobie nie są dowodem skuteczności. Dane mówią jasno: liczy się to, czy rośnie sprzedaż, liczba zaakceptowanych leadów, udział ruchu niebrandowego o intencji zakupowej, albo czy spada koszt marnowany na nieskuteczne segmenty. Zamiast „jest więcej”, interesuje nas „czy jest lepiej”.

Dobra ocena uwzględnia też rolę kanału w lejku sprzedażowym. SEO, content, kampanie płatne, e-mail marketing czy UX nie zawsze „domykają” konwersję w modelu last click, ale powinny usprawniać konkretne etapy ścieżki użytkownika. Nie wszystko musi być finałem. Coś może być solidnym początkiem, środkiem albo katalizatorem decyzji. Agencja powinna umieć pokazać, który etap lejka poprawia i na podstawie jakich danych to widać.

Ważna jest również jakość samego procesu pracy. Skuteczna agencja pracuje na hipotezach, prowadzi testy, priorytetyzuje zadania i potrafi uzasadnić, dlaczego dane działanie miało sens biznesowy, a nie tylko „dobrze wyglądało” w planie. To robi różnicę. Pozwala ocenić nie tylko to, czy wynik się pojawił, lecz także czy był efektem metodycznej pracy, a nie serii przypadków, które akurat zagrały.

Aktualny kontekst pomiaru efektywności agencji

Dziś ocenianie efektywności agencji to już nie prosta tabelka. Użytkownik skacze między wieloma punktami styku, zanim kupi albo wyśle formularz, więc jeden raport z systemu reklamowego czy nawet samo GA4 rzadko domyka obraz. Kluczowe jest łączenie danych z analityki, CRM, platform reklamowych, Search Console i często także z systemu sprzedażowego. Dopiero wtedy widać, co faktycznie pracuje na wynik.

Największy kłopot to atrybucja. Ograniczenia cookies, zgód marketingowych i śledzenia między urządzeniami robią swoje, przez co nie każdy wynik da się przypisać jednemu kanałowi w 100%. W praktyce oznacza to jedno: nie warto oceniać agencji wyłącznie po modelu last click, bo może on zaniżać wkład kanałów wspierających decyzję zakupową. Pytanie brzmi, czy patrzymy na drogę klienta, czy tylko na ostatni krok.

W płatnych kampaniach i w SEO coraz wyraźniej widać rozjazd między wynikiem „w narzędziu” a wynikiem „w firmie”. Kampania może mieć niski koszt kliknięcia i wysoki CTR, a jednocześnie dowozić leady słabe jakościowo. Widoczność SEO też potrafi rosnąć, ale jeśli rośnie na tematach czysto informacyjnych, bez intencji zakupu, sprzedaż może nawet tego nie zauważyć. I to nie jest frazes, tylko codzienność w raportach.

Coraz większą wagę ma jakość danych i techniczne wdrożenia. Błędna konfiguracja GA4, źle ustawione zdarzenia, brak deduplikacji konwersji, niepoprawne UTM-y, brak call trackingu albo brak importu danych offline potrafią całkowicie rozjechać ocenę wyników. Zanim ocenisz skuteczność działań, sprawdź, czy w ogóle mierzysz je poprawnie. Bo gdy pomiar kuleje, cała dyskusja o „skuteczności” staje się trochę teatrem.

Jest jeszcze jeden haczyk: automatyzacja i narzędzia AI zmieniają sposób raportowania. Sama liczba wygenerowanych kreacji, tekstów czy wariantów reklam niczego nie przesądza. Liczy się to, czy te materiały były zgodne z celem, poprawnie wdrożone i czy realnie podniosły jakość ruchu, konwersję lub obniżyły koszt pozyskania. Zamiast produkcji „na kilogram” liczy się wpływ na lejek.

Jak działa praktyczna ocena pracy agencji marketingowej

Praktyczna ocena pracy agencji zaczyna się od sprawdzenia pełnego ciągu. Cel biznesowy, sposób pomiaru, wykonane działania, zmiana w lejku i wpływ na wynik. Dopiero taki układ pozwala odróżnić realną poprawę od ładnie opisanego raportu. Jeśli agencja pokazuje wyłącznie końcowe liczby, a nie da się prześledzić, skąd się wzięły, ocena jest z definicji niepełna. Najpierw trzeba wiedzieć, jaki problem agencja miała rozwiązać, a dopiero potem patrzeć na wyniki.

Pierwszy krok to ustalenie, co jest właściwym efektem współpracy. Dla jednej firmy będzie to liczba zaakceptowanych leadów, dla innej koszt pozyskania, sprzedaż z SEO albo poprawa konwersji formularza. Dopiero potem dobiera się wskaźniki pomocnicze, takie jak CTR, CPC, sesje czy pozycje. One mają wspierać diagnozę, nie zastępować wynik biznesowy. Zamiast fetyszu metryk pobocznych, potrzebna jest prosta logika przyczyn i skutków.

Drugi krok to audyt danych i dostępów. Najpierw sprawdza się, czy agencja pracowała na poprawnie skonfigurowanych źródłach: GA4, Google Tag Manager, Search Console, CRM, system reklamowy, call tracking czy import danych offline. Jeśli pomiar jest błędny, najpierw ocenia się naprawę analityki, a nie skuteczność kampanii. Inaczej bardzo łatwo pochwalić albo zjechać agencję na podstawie liczb, które od początku były krzywe.

Kolejny etap to ustalenie punktu wyjścia. Porównujesz wyniki sprzed współpracy z okresem po wdrożeniach, ale z uwzględnieniem sezonowości, zmian budżetu, cen, oferty, dostępności produktu i prac wykonanych po stronie klienta. Bez tej perspektywy ocena robi się loterią. I wtedy wzrost albo spadek ląduje na koncie agencji, choć w rzeczywistości wynikał z zupełnie innych czynników.

Następnie przychodzi czas na ocenę konkretnych działań wykonanych przez agencję. Nie interesuje mnie opis w stylu „prowadziliśmy optymalizację”, tylko twarda lista zmian: przebudowa kampanii, testy reklam, poprawki na landing page, naprawy techniczne SEO, nowy plan treści, segmentacja odbiorców, automatyzacje e-mail czy zmiany w formularzach. Pytanie brzmi, co dokładnie zostało ruszone i po co. Dobra ocena zawsze spina te działania z problemem, który miały rozwiązać, zamiast zostawiać je jako luźne aktywności.

Sama lista nie wystarczy. Trzeba jeszcze sprawdzić jakość tych ruchów i logikę decyzji, bo inaczej mylimy „dużo pracy” z „dobrą pracą”. Jeśli problemem był niski współczynnik konwersji, sensowne będą prace nad stroną, komunikatem, formularzem i szybkością działania, a nie tylko pompowanie ruchu. Dobra agencja potrafi pokazać hipotezę, wdrożenie i wynik, a nie tylko powiedzieć, że „działała”.

W praktyce kluczowa jest też ocena wpływu na poszczególne etapy lejka. Na górze lejka patrzy się na jakość ruchu i dopasowanie grup odbiorców, w środku na przejścia do stron ofertowych, mikrokonwersje i zaangażowanie, a na dole na leady, sprzedaż, koszt i czas do konwersji. I tu wychodzi różnica między marketingiem a fajerwerkami. To szczególnie istotne przy SEO, content marketingu, e-mail marketingu i UX, bo te obszary nie zawsze domykają sprzedaż bezpośrednio, ale powinny podnosić konkretny etap ścieżki użytkownika.

Trzeba też zestawić wynik z realnym zakresem współpracy. Nie obciążasz agencji za obszary, których nie prowadziła, ale też nie pozwalasz chować słabych efektów za zadaniami pobocznymi, bo to wygodna zasłona dymna. Jeśli agencja odpowiadała za kampanie płatne, a głównym problemem okazał się niedziałający formularz, ocena powinna rozdzielać jakość prowadzenia kampanii od problemów technicznych strony. Nie „wszyscy winni”, lecz precyzyjnie: kto odpowiada za co.

Na końcu sprawdza się, czy agencja optymalizowała działania, czy tylko je podtrzymywała. Liczy się to, czy wyłączała nieskuteczne segmenty, przesuwała budżet, aktualizowała treści, poprawiała słabe strony, wykrywała błędy techniczne i reagowała na dane z CRM. Stała aktywna optymalizacja jest zwykle cenniejsza niż efektowny raport z jednego dobrego miesiąca. Bo w marketingu wygrywa proces, nie jednorazowy strzał.

Ostatni element to raportowanie i decyzja biznesowa. Raport ma spinać dane z kilku źródeł, pokazywać zmiany w czasie, tłumaczyć przyczyny odchyleń i kończyć się prostą rekomendacją: kontynuować, zmienić strategię, ograniczyć zakres albo zakończyć współpracę. Jeśli po poprawnym pomiarze i realnych wdrożeniach dalej nie widać poprawy kluczowego etapu lejka, sama jakość prezentacji nie jest żadnym argumentem za ciągnięciem tematu.

Co sprawdzić przy ocenie efektywności agencji

Przy ocenie efektywności agencji liczą się dane, faktycznie wykonane działania, wpływ na lejek i powiązanie z wynikiem biznesowym. To oznacza kontrolę nie tylko raportu, ale też źródeł danych, CRM, wdrożeń na stronie i logiki decyzji podejmowanych po drodze. Najwięcej błędów bierze się z oceniania agencji po metrykach pośrednich albo po samej narracji ze spotkania. Jeśli nie da się połączyć działań agencji z jakością leadów, sprzedażą lub kosztem pozyskania, ocena jest po prostu zbyt płytka.

  • Poproś o listę wykonanych działań z podziałem na analizę, wdrożenie, test, optymalizację i rekomendacje.
  • Sprawdź mapę KPI przypisaną do lejka, a nie tylko jedną tabelę z wynikami kanału.
  • Porównaj dane z platform reklamowych z GA4, Search Console, CRM i liczbą realnych zapytań.
  • Zweryfikuj definicje konwersji, UTM-y, deduplikację, integrację formularzy, telefonu i danych offline.
  • Oceń jakość leadów w CRM: zaakceptowane, odrzucone, niepasujące, nieodebrane, zamknięte sprzedażą.
  • Sprawdź, czy agencja zgłaszała problemy z UX, formularzami, mobilnością, szybkością i treścią oferty.
  • Zobacz, czy istniał backlog zadań z priorytetami, a nie przypadkowy zestaw aktywności.

Szczególnie ważna jest jakość leadów, bo to ona najczęściej obnaża różnicę między dobrym wynikiem marketingowym a dobrym wynikiem biznesowym. Kampania może wyprodukować dużo formularzy. Ale jeśli dział sprzedaży odrzuca większość kontaktów, agencja nie dowozi wartości. Dlatego kluczowe jest patrzenie na statusy leadów w CRM, a nie tylko na ich liczbę w systemie reklamowym czy w GA4.

Spójrzmy na to inaczej: czy agencja patrzyła szerzej niż na sam kanał. Jeśli prowadzi reklamy, ale nie sygnalizuje problemów z landing page, formularzem, ścieżką zakupu czy treścią oferty, może omijać główny powód słabych wyników. W praktyce skuteczna agencja nie kończy na „ustawieniu kampanii”, lecz wyłapuje blokery, które psują konwersję, i dopina ich usunięcie.

Dobrym testem jakości pracy jest sposób priorytetyzacji. Agencja powinna umieć pokazać, które działania miały największy potencjalny wpływ, co weszło do wdrożenia najpierw i jakie były wnioski z testów. Jeśli wszystkie zadania wyglądają tak samo ważnie, zwykle oznacza to brak realnego procesu decyzyjnego. I wtedy raport jest tylko opowieścią, nie narzędziem.

  • Sygnałem ostrzegawczym jest raport bez dostępu do danych źródłowych lub bez jasnej definicji konwersji.
  • Problem w tym, że nie rozdziela się ruchu brandowego i niebrandowego, a to zaciera rzeczywisty wpływ działań.
  • Niepokoi fetysz zasięgów, kliknięć lub pozycji, gdy nie ma przełożenia na leady, sprzedaż albo koszt pozyskania.
  • Słaby znak. Brakuje informacji o testach, błędach, odrzuconych hipotezach i wnioskach.
  • Uważaj też, gdy wszystkie spadki tłumaczone są sezonowością, ale bez danych porównawczych i bez planu reakcji.

Decyzje lubią prostą kartę oceny. Osobno oceń poprawność danych, jakość wykonanych działań, wpływ na lejek, wpływ na wynik biznesowy oraz jakość współpracy operacyjnej, bo dopiero taki rozdział pokazuje, gdzie naprawdę jest problem. Zamiast ładnych slajdów — chłodny rachunek. Taki układ zmniejsza ryzyko, że dobra prezentacja przykryje słaby proces albo odwrotnie, że słabsza komunikacja zakryje dobrze wykonaną pracę.

Jeśli chcesz ocenić agencję uczciwie, zbierz też podstawowe dokumenty: plan działań, zakres odpowiedzialności, dashboard KPI, log zmian na stronie i w kampaniach, wyniki testów, audyt analityki oraz eksport leadów z CRM. To nie papierologia, tylko materiał dowodowy, bez którego łatwo pomylić ruch z rezultatem. Dopiero na takim materiale da się podjąć rozsądną decyzję o kontynuacji, korekcie zakresu lub zakończeniu współpracy. Bez tego łatwo ocenić formę zamiast efektu.

Jakie decyzje podjąć na podstawie wyników oceny

Wynik oceny ma prowadzić do decyzji, nie do wrażeń. Na tej podstawie rozstrzygasz, czy współpracę kontynuować, skorygować, zawęzić, rozszerzyć albo zakończyć, ale kluczowe jest, czy agencja poprawia krytyczny etap lejka i czy robi to na wiarygodnych danych. Pytanie brzmi: czy ufamy pomiarowi. Jeśli nie ma pewności co do pomiaru, najpierw naprawia się analitykę, a dopiero potem ocenia skuteczność działań. Błędne dane mogą sprawić, że dobra agencja wygląda słabo albo słaba wygląda dobrze.

Współpracę warto kontynuować, gdy widać spójny łańcuch. Chodzi o poprawny pomiar, wykonane działania, sensowną logikę zmian i poprawę wyniku biznesowego lub etapu lejka, za który agencja odpowiada, a nie o jeden „ładny” miesiąc w raporcie. Nie chodzi o idealny wynik w każdym miesiącu, tylko o to, czy praca idzie we właściwym kierunku i czy decyzje są uzasadnione. Co z tego, że sprzedaż domyka się dłużej, jeśli SEO zwiększa ruch na strony ofertowe i liczbę wartościowych zapytań. To może być dobry sygnał do dalszej pracy, a nie powód do pochopnego zakończenia współpracy.

Współpracę należy skorygować, gdy działania są wykonywane poprawnie, ale nie rozwiązują głównego problemu. To częsty scenariusz: kampanie generują ruch, lecz strona słabo konwertuje, albo content zwiększa widoczność, ale na frazy zbyt informacyjne, by wspierać sprzedaż. Nie chodzi o większą liczbę zadań, lecz o właściwy cel. Jeżeli efekty są pośrednie, ale nie przekładają się na właściwy cel, trzeba zmienić strategię, a nie tylko „optymalizować dalej”.

Zawężenie albo rozszerzenie zakresu ma sens tylko wtedy, gdy ocena pokazuje proste rozróżnienie. Coś działa, coś nie dowozi. Przykład z życia: agencja dobrze prowadzi reklamy płatne, ale nie wspiera strony, analityki i CRO, przez co koszt pozyskania nie spada. W takim układzie rozsądniej jest albo dołożyć zakres związany z UX i pomiarem, albo ograniczyć współpracę do kanału, w którym efekt rzeczywiście widać, a nie tylko ładnie wygląda w raporcie.

Zakończenie współpracy jest zasadne, gdy dane są poprawne, zakres odpowiedzialności jasny, czas na wdrożenie wystarczający, a mimo to nie ma poprawy w kluczowych wskaźnikach i nie widać spójnej logiki decyzji. To sygnał ostrzegawczy. To samo dotyczy sytuacji, gdy agencja nie potrafi pokazać, co realnie wdrożyła, unika dostępu do danych źródłowych albo tłumaczy każdy słaby wynik wyłącznie sezonowością. Brak związku między działaniami a wynikiem to dużo ważniejszy sygnał niż jakość samej prezentacji.

Najbezpieczniej podejmować decyzję na podstawie prostej karty oceny. Bez fajerwerków. Powinna obejmować pięć obszarów: poprawność danych, jakość wykonanych działań, wpływ na lejek, wpływ na wynik biznesowy i jakość współpracy operacyjnej. Taki układ porządkuje rozmowę i ucina sytuacje, w których o losie współpracy decyduje jedna ładna tabela albo jeden słabszy miesiąc. Jeśli dwa pierwsze obszary są słabe, nie ma sensu ufać wynikom końcowym bez dodatkowego audytu.

Najczęstsze błędy przy ocenie pracy agencji marketingowej

Najczęstsze błędy są powtarzalne do bólu. Ocenianie agencji po metrykach próżności, bez poprawnych danych, bez odniesienia do celu biznesowego i bez sprawdzenia jakości leadów lub sprzedaży. W praktyce oznacza to zachwyt nad zasięgiem, kliknięciami, pozycjami albo liczbą publikacji, mimo że wynik finansowy się nie poprawia. Takie podejście premiuje dobrą narrację, nie skuteczną pracę.

Bardzo częsty błąd to porównywanie raportu agencji wyłącznie z danymi z jednej platformy. Wygodnie, ale myląco. Wyniki z systemu reklamowego nie wystarczą, jeśli nie zgadzają się z GA4, CRM, call trackingiem albo danymi handlowymi. Ocena powinna opierać się na kilku źródłach jednocześnie, bo dopiero wtedy widać, czy kampania generuje realny popyt, czy tylko dobrze wygląda w panelu.

Kolejny problem to brak ustalonego punktu wyjścia. Bez baseline’u nie wiadomo, czy agencja poprawiła wynik, utrzymała wcześniejszy trend czy tylko skorzystała z sezonowego wzrostu. Pytanie brzmi: z czym to porównujemy, a nie co pokazuje wykres. Trzeba uwzględnić zmiany budżetu, oferty, cen, dostępności produktu, działań handlowych i jakości strony, bo każdy z tych czynników może istotnie zmieniać rezultat.

To częsty błąd. Ocenia się agencję tak, jakby odpowiadała za cały wynik firmy, choć prowadzi tylko wycinek działań. Jeśli agencja zarządza kampaniami, ale nie ma wpływu na ofertę, obsługę leadów, czas reakcji handlowca albo problemy techniczne strony, jej wpływ trzeba mierzyć w granicach realnej odpowiedzialności. Działa to też w drugą stronę: agencja nie powinna przypisywać sobie wzrostu, którego źródłem była zmiana produktu lub polityki cenowej.

Wiele firm patrzy wyłącznie na efekt z jednego okresu. A to prosta droga do złych wniosków, bo proces znika z pola widzenia. Dobra agencja pracuje na hipotezach, testach, priorytetach i wnioskach, zamiast wykonywać działania „pod prezentację”, tylko dlatego, że dobrze brzmią na spotkaniu. Jeżeli nie ma backlogu, logu zmian, wyników testów i uzasadnienia decyzji, trudno odróżnić zarządzanie od improwizacji. I wtedy dyskusja kręci się wokół narracji, nie wokół faktów.

Na koniec uważaj na pułapkę psychologiczną. Łatwo ocenić współpracę po tym, jak sprawnie idą spotkania i jak przekonująco brzmią rekomendacje, ale pytanie brzmi: co z tego wynika w liczbach. Dobra komunikacja jest ważna, lecz nie zastępuje efektu. Agencję należy rozliczać z tego, czy poprawia właściwe wskaźniki i czy potrafi udowodnić związek między swoją pracą a zmianą wyniku.

Praktyczne wskazówki dla skutecznej oceny współpracy z agencją

Ocena współpracy ma sens tylko wtedy, gdy stale zestawiasz działania z danymi, zakresem odpowiedzialności i wynikiem biznesowym. Bez tego łatwo ocenić prezentację zamiast realnej pracy. Zacznij od prostego zestawu dokumentów: planu działań, listy wdrożeń, dashboardu KPI, logu zmian w kampaniach i eksporcie leadów z CRM. To nie jest biurokracja, i to nie jest frazes. Jeśli agencja nie pokazuje, co dokładnie zostało zrobione, trudno uczciwie ocenić, co naprawdę zadziałało.

Kluczowe jest przypisanie mierników do konkretnego etapu lejka i kanału. SEO, reklamy płatne, content czy e-mail nie muszą odpowiadać za to samo, ale każdy obszar powinien mieć jasno określony cel i sposób pomiaru. Gdy raport opiera się głównie na kliknięciach, zasięgu albo pozycjach, trzeba sprawdzić, czy te wskaźniki prowadzą do leadów, sprzedaży albo poprawy jakości ruchu. Nie „ładne metryki”, lecz te, które realnie dowożą wynik.

Dane porównuj w kilku źródłach, zamiast wierzyć jednemu panelowi. Zestaw raport z platformy reklamowej z GA4, CRM, liczbą faktycznych zapytań i statusem leadów. Jeśli wyniki się rozjeżdżają, problemem może być atrybucja, tagowanie, duplikacja konwersji albo brak importu danych offline. Ale uwaga: czasem to nie kampania „nie działa”, tylko pomiar się rozsypał. Dobra ocena zaczyna się od sprawdzenia wiarygodności pomiaru, bo błędne dane potrafią całkowicie zniekształcić obraz współpracy.

Nie oceniaj kampanii wyłącznie po liczbie leadów. Sprawdź, ile z nich zostało zaakceptowanych przez sprzedaż, ile było niepasujących, ilu klientów nie udało się skontaktować i ile spraw zakończyło się realną sprzedażą. To dopiero pokazuje, czy agencja dowozi wartość, czy tylko pompuje wolumen niskiej jakości. Mniej hałasu, więcej sensu.

W praktyce wiele mówi też to, czy agencja widzi problemy poza samym zakupem ruchu. To jest papier lakmusowy. Jeśli prowadzi kampanie, ale nie sygnalizuje słabego formularza, wolnej wersji mobilnej, nieczytelnej oferty albo błędów w ścieżce zakupu, to może przechodzić obok najtwardszych blokerów konwersji. Pytanie brzmi: czy ktoś patrzy na całość, czy tylko na emisję. Agencja, która odpowiada za wynik, nie ogranicza się do emisji reklam lub publikacji treści, lecz wskazuje miejsca, w których ucieka sprzedaż.

Sprawdź też, jak podejmowane są decyzje. Bez tego współpraca zamienia się w teatr raportów. Dobra praca zostawia ślad w backlogu zadań, priorytetach, testach i wnioskach, a nie tylko w comiesięcznych podsumowaniach. Jeśli nie da się odtworzyć, co było hipotezą, co wdrożeniem i jaki był rezultat, to zwykle znak, że proces jest nie tyle zwinny, co reaktywny albo zwyczajnie przypadkowy.

Na koniec najlepiej sięgnąć po prostą kartę oceny w pięciu obszarach: poprawność danych, jakość działań, wpływ na lejek, wpływ na wynik biznesowy i jakość współpracy operacyjnej. Proste narzędzie, twarde wnioski. Taki układ porządkuje rozmowę i ogranicza wpływ sympatii, formy raportu czy jakości prezentacji. Nie chodzi o to, kto lepiej opowiada, lecz kto dowozi. Im bardziej ocena opiera się na dowodach, tym łatwiej odróżnić agencję, która dobrze wygląda na spotkaniu, od tej, która realnie poprawia wynik.