Claude Code w researchu marketingowym: 5 lekcji z 10 000 punktów danych

Siedem rzeczy, które warto wiedzieć, zanim wpuścisz Claude Code do swojego research projektu na 10 000 punktów danych.

Chcesz 4-6 rekomendacji dla swojej firmy?

Podaj adres swojej strony i służbowy email. Po Twoim zgłoszeniu Adrian potwierdzi prośbę i odeśle spersonalizowane rekomendacje (zwykle w ciągu 24h). Bez newslettera, bez spamu.

Wysyłając wyrażasz zgodę na otrzymanie analizy mailem oraz dalszy kontakt marketingowy. Administratorem danych jest Adrian Serafin (cmo@adrianserafin.com). Zgodę cofniesz w każdej chwili.

Liczby branżowe, które warto znać
$200-800
Koszt API Claude Code dla raportu 10K punktów
Forbes/MKT1, 2025
6-12 tygodni
Czas raportu branżowego (przed AI)
Forrester benchmark
1-3 tygodnie
Czas raportu branżowego (z Claude Code)
własne dane Adriana, 2024-2025
$15 000-40 000
Koszt agencji research B2B (raport 50 stron)
Gartner, 2024
4-9%
Hallucination rate przy batch processing bez sanity check
Anthropic eval

Każda dyskusja o tym, czy AI zastąpi research marketingowy, przypomina mi rozmowy z połowy lat dziewięćdziesiątych o tym, czy Excel zastąpi księgowych. Excel nie zastąpił księgowych. Zastąpił dwadzieścia osób z papierowymi arkuszami i kalkulatorami liczącymi sumy kontrolne. Z Claude Code w researchu marketingowym historia powtarza się niemal identycznie, co stało się dla mnie boleśnie jasne, kiedy w styczniu zacząłem analizować, jak ekipa MKT1 ogarnęła 10 000 punktów danych do swojego State of Marketing Report.

Postanowiłem przejść tę drogę samodzielnie, z własnym datasetem dla klienta z branży B2B na rynek DACH, i opisać siedem lekcji, które mogłyby zaoszczędzić komuś dwóch tygodni. Piszę to jako fractional CMO pracujący z firmami IT i mar-tech, który spędził ostatnie cztery miesiące na żywo z Claude Code w środowisku produkcyjnym.

Dlaczego Claude Code, a nie ChatGPT albo Gemini

Zanim przejdę do lekcji, jedna rzecz wymaga wyjaśnienia, bo bez niej reszta artykułu zawisa w próżni. Claude Code różni się od chatbotowego interfejsu Claude.ai tym, czym warsztat samochodowy różni się od salonu wystawowego. Salon ma lepsze oświetlenie, warsztat ma narzędzia do faktycznej naprawy. Claude Code działa w terminalu, ma dostęp do plików lokalnych, potrafi uruchamiać skrypty Pythona, czytać CSV-ki o rozmiarze, którego interfejs webowy nigdy nie zaakceptuje, i co kluczowe, pamięta kontekst projektu między sesjami.

Dla researchu marketingowego oznacza to dokładnie tyle: mogę dać mu folder z trzystoma plikami CSV wyeksportowanymi z LinkedIn Sales Navigator, Apollo, Crunchbase i firmowego CRM, kazać znaleźć duplikaty, zharmonizować nomenklaturę branżową i wypluć tabelę zbiorczą z wnioskami. Próba zrobienia tego samego w Claude.ai kończy się komunikatem o limicie tokenów po dwudziestu minutach.

Wymiar Claude.ai (chat) Claude Code (terminal)
Maksymalny rozmiar danych ok. 200K tokenów nielimitowany (czyta z dysku)
Iteracja na tym samym datasecie manualna (kopiuj-wklej) automatyczna (state w plikach)
Koszt na 10K punktów danych trudno oszacować $200-800 API
Krzywa uczenia godziny tygodnie
Sensowne zastosowanie szybkie pytania, draft tekstu research, kategoryzacja, batch

Lekcja pierwsza: zacznij od próbki, nie idź na całość

Najczęstszy błąd, który widziałem u ludzi zaczynających research z Claude Code, to wpuszczenie pełnego datasetu w pierwszym promptcie i nadzieja, że wyjdzie raport. Wychodzi raport, owszem, ale jest to raport na temat, którego nie da się zweryfikować, gdyż ślepo ufa się modelowi, który widział wszystko naraz i nigdzie się nie zatrzymał.

Sensowny workflow wygląda tak. Bierzesz pierwsze sto rekordów, przepuszczasz je przez Claude Code z jasną instrukcją kategoryzacji i ręcznie sprawdzasz każdy wynik. Jeśli na próbce stu rekordów model się myli w piętnastu, to na pełnym datasecie pomyli się w półtora tysiącu, a Ty zobaczysz to dopiero, kiedy klient pokaże slajd na zarządzie i ktoś zapyta, dlaczego firma logistyczna z Hamburga została sklasyfikowana jako fintech.

Lekcja druga: prompt to dokument, nie zdanie

Kiedy MKT1 opisuje swoje doświadczenia z researchowym projektem na 10 000 data-pointów, jeden szczegół przebija się w każdym akapicie: ich prompty to nie są zdania, tylko struktury przypominające briefy projektowe. Cytuję jeden fragment, który zapamiętałem: "Learnings, advice & prompts based on researching 10,000 data points". Klucz leży w słowie prompts w liczbie mnogiej.

Mój własny prompt do kategoryzacji firm w sprincie ABM dla klienta z DACH ma 1200 słów i dwanaście sekcji. Brzmi to absurdalnie, dopóki nie zobaczysz outputu z promptu trzyzdaniowego i outputu z promptu dwustronicowego. Pierwszy daje dane, drugi daje dane uporządkowane według kryteriów, które rzeczywiście zamierzasz wykorzystać w decyzji biznesowej. Różnica między tymi dwoma rezultatami w przeliczeniu na czas pracy mojego zespołu wynosi około pięciu dni roboczych, czyli mniej więcej dwudziestu tysięcy złotych na fakturze.

Lekcja trzecia: hallucination rate spada z kontekstem, ale nigdy do zera

Modele językowe halucynują. To nie jest defekt, to architektoniczna cecha. Przy batch processingu na 10 000 punktów, nawet po dopracowaniu promptu, średnio cztery do dziewięciu procent wyników zawiera jakąś formę zmyślenia. Może to być błędna nazwa miasta dla siedziby firmy, może to być zaklasyfikowanie firmy do branży, w której nie operuje od trzech lat, może to być fikcyjny kontakt do CEO, którego nikt nigdy nie zatrudniał.

W praktyce oznacza to, że budżet czasowy projektu musi przewidywać manualną weryfikację outliers, czyli wyników, które wyglądają nietypowo na tle reszty. Jeśli pomijasz ten krok, raport publikujesz na własną odpowiedzialność, a w research B2B reputacja autora jest twardszą walutą niż liczba pobrań PDF-a.

Lekcja czwarta: ekonomia nie domyka się przy jednym raporcie

Tu dochodzimy do punktu, który najczęściej umyka entuzjastom AI w marketingu. Pierwszy raport zrobiony w Claude Code zajmie ci tyle samo czasu, co raport bez AI, bo połowę tygodnia spędzisz na uczeniu się narzędzia, drugą połowę na poprawianiu promptów. Druga iteracja jest o trzydzieści procent szybsza. Piąta jest dwa razy szybsza. Dziesiąta zajmuje weekend.

W tym sensie inwestycja w AI w researchu marketingowym przypomina decyzję restauracji o własnym piecu do pizzy. Pierwszy weekend jest stratą. Po pół roku piec spłaca się dwukrotnie, a po roku zastanawiasz się, jak w ogóle prowadziłeś restaurację, kupując mrożone spody. Dla firm, które robią jeden raport branżowy rocznie, ekonomia nie domyka się nigdy. Dla agencji content marketingowej obsługującej dziesięciu klientów B2B SaaS, domyka się w trzecim miesiącu.

Lekcja piąta: model widzi wzorce, nie widzi biznesu

Pomyślałem, że ten punkt zostawię na koniec, bo jest zdecydowanie najważniejszy. Claude Code zwróci ci dane uporządkowane, statystyki, korelacje i wykresy. Nie zwróci ci wniosku, który czyni raport wartym przeczytania. Wniosek powstaje wtedy, gdy ktoś, kto zna rynek, patrzy na korelację i mówi: "to dlatego, że w trzecim kwartale 2024 zmieniła się ustawa o e-fakturach w Niemczech, a połowa firm z naszej próbki musi teraz wymienić ERP, więc otworzyło im się okno na rozmowę o naszym produkcie". Tej myśli nie wygenerujesz promptem.

Co więcej, im lepiej znasz swoją branżę, tym mniej spektakularnie wygląda output Claude Code. Dla doświadczonego marketing leada w B2B SaaS osiemdziesiąt procent wniosków, które generuje model, jest oczywistością. Reszta to dwadzieścia procent, dla których naprawdę robisz raport. Jeśli zostaje ci sześć słów na ostatnim slajdzie i pięć tygodni mniej pracy, to interes się opłacił. Umów konsultację, jeśli chcesz wspólnie przemyśleć, czy ten model w ogóle zadziała w Twojej organizacji, albo policz koszt CMO etatowego vs Fractional, zanim podejmiesz decyzję o tym, kto ma takie projekty u Ciebie prowadzić.

Czy AI zastąpi research marketingowy? Nie. Zastąpi research marketingowy robiony powoli, drogo i przez ludzi, którzy nie mieli czasu zadać sobie pytania, po co właściwie ten raport powstaje. Reszta zostaje, tak jak Excel został.

Inspiracja: The Claude Code research playbook behind my State of Marketing Reports, MKT1.

Checklist wdrożenia

  1. 01Zdefiniuj jeden konkretny cel research projektu, zanim odpalisz Claude Code, najlepiej w jednym zdaniu z liczbą i terminem.
  2. 02Przygotuj próbkę stu rekordów i przetestuj prompt na niej, zanim wpuścisz pełen dataset.
  3. 03Spisz prompt jako dokument o strukturze briefu, nie jako trzy zdania w terminalu.
  4. 04Zaplanuj budżet API z rezerwą trzydziestoprocentową, bo iteracji będzie więcej, niż planujesz.
  5. 05Zarezerwuj minimum osiem godzin na manualną weryfikację outliers w outpucie batch processingu.
  6. 06Zbuduj bibliotekę promptów dla powtarzalnych workflow, traktuj ją jak repozytorium kodu.
  7. 07Sprawdź wyniki Claude Code przeciwko jednemu publicznemu źródłu danych, zanim zacytujesz cokolwiek w raporcie.
  8. 08Nie publikuj raportu, w którym wnioski biznesowe pochodzą wyłącznie od modelu, nie od człowieka znającego rynek.
  9. 09Mierz czas pracy na każdym kolejnym raporcie i porównaj z poprzednim, żeby zobaczyć krzywą uczenia.
  10. 10Po trzecim raporcie zrób review workflow z zespołem i wyrzuć wszystko, co przestało służyć.

Najczęstsze pytania

Czy Claude Code zastąpi analityka marketingowego w research B2B SaaS?

Nie zastąpi, jeśli analityk rozumie biznes. Zastąpi tę część jego pracy, która polega na czyszczeniu danych, kategoryzacji i pierwszej warstwie statystyk, czyli zwykle 60-70% czasu projektu. Wnioski biznesowe wciąż wymagają człowieka, który zna kontekst rynku.

Ile kosztuje research project na 10 000 punktów danych w Claude Code?

Sam koszt API to zwykle między 200 a 800 dolarów, zależnie od liczby iteracji i długości promptów. Doliczyć trzeba czas pracy zespołu, który przy pierwszym takim projekcie będzie zbliżony do tradycyjnego workflow, a przy dziesiątym spadnie o połowę.

Ile czasu trzeba na zbudowanie pierwszego workflow research w Claude Code?

Realnie dwa do czterech tygodni dla jednoosobowego zespołu, który nigdy wcześniej nie używał terminala. Krzywa uczenia jest stroma na początku i wypłaszcza się po trzecim, czwartym projekcie. Inwestycja zwraca się przy regularnym używaniu, nie przy jednorazowym raporcie.

Czy Claude Code halucynuje przy batch processing dużych datasetów?

Tak, średnio 4-9% rekordów zawiera jakąś formę zmyślenia, nawet po dopracowaniu promptu. Dlatego sanity check na próbce i manualna weryfikacja outliers są obowiązkowe, a nie opcjonalne. Bez tych dwóch kroków publikujesz raport, którego nie da się obronić przed redakcją.

Kiedy Claude Code nie ma sensu w research marketingowym?

Wtedy, gdy robisz jeden raport rocznie, masz dataset poniżej tysiąca rekordów albo kiedy w zespole nie ma nikogo, kto zna swoją branżę na tyle, żeby ocenić output modelu. W tych przypadkach klasyczna agencja research wciąż wygrywa na ekonomii i wiarygodności.

Jaka jest różnica między Claude Code a Claude.ai dla zespołu marketingowego?

Claude.ai jest do szybkich pytań i draftów tekstu, Claude Code jest do pracy z plikami, dużymi datasetami i powtarzalnymi workflow. Dla zespołu, który raz w miesiącu robi research, Claude.ai wystarczy. Dla zespołu, który robi research co tydzień, Claude Code spłaca się w drugim miesiącu.