Chcę ofertę
Menu
Wróć
/ Artykuły

CTRL + GROW Warszawa 2026: Automatyzuj, ale nie zapomnij o człowieku

CTRL + GROW Warszawa 2026: Automatyzuj, ale nie zapomnij o człowieku

9 kwietnia 2026 roku w warszawskim klubie Studio Up! Olimpia odbyła się kolejna edycja konferencji CTRL + GROW – wydarzenia, które od początku wyróżnia się na tle branżowego kalendarza formułą barcampową: bez korporacyjnego ceremoniału, za to z programem skupionym na konkretach i wymianie doświadczeń między praktykami.

  • Spis treści
  • Damian Rams - Optymalizacja konwersji w czasach AI
  • Paweł Sokołowski - AI Visibility – jak sobie radzić
  • Michał Kukliński - To nie przez AI tracisz klientów, a przez brak relacji z nimi
  • Paweł Wróblewski - SEO, GEO, AI… a klient i tak pyta tylko o jedno: zysk
  • Oscar Rak - Maszyna contentowa na sterydach – jak tworzyć treści wideo i pisane, które realnie wspierają markę osobistą
       

Konferencja ruszyła nieco po godzinie 17:00 i przez cały wieczór utrzymywała atmosferę daleką od typowych eventów branżowych. Pizza fundowana przez organizatora zamiast standardowego cateringu konferencyjnego dobrze ilustrowała ducha całego wydarzenia: liczy się merytoryka i rozmowa, nie oprawa.

Program złożony z pięciu prelekcji obejmował zagadnienia, które dziś wyznaczają główne kierunki dyskusji w środowisku digital marketingu: optymalizacja konwersji w kontekście narzędzi AI, widoczność marek w odpowiedziach modeli językowych, zarządzanie relacją z klientem w dobie automatyzacji, ewolucja SEO w kierunku GEO oraz budowanie efektywnych procesów contentowych wspierających markę osobistą. Wszystkie wystąpienia łączyło jedno: praktyka zamiast teorii. W skrócie: realne dane, case studies i wnioski z codziennej pracy agencyjnej lub własnej działalności.

Poniżej przedstawiam omówienie poszczególnych prelekcji wraz z najważniejszymi tezami i wnioskami. Warto przeczytać w całości, bo w digital marketingu ostatnią rzeczą, na którą można sobie pozwolić, jest stanie w miejscu.

Damian Rams – Optymalizacja konwersji w czasach AI

TL;DR

  • Sklepy przepalają budżety na ruch, który nie konwertuje, bo sama strona jest zepsuta. Większość ruchu pochodzi z mobile (70-95%), a większość sklepów na telefonie działa fatalnie.
  • Zamiast naprawiać stronę, firmy sięgają w kółko po te same lekarstwa: więcej budżetu, zmiana agencji, rabat 20%, redesign. To błąd.
  • Przychód zależy od trzech filarów: marketing (ruch), efektywność strony (CRO) i oferta. Niemal wszyscy inwestują tylko w pierwszy.
  • CRO blokują trzy bariery: trudność w podjęciu decyzji co zmienić, przeciążone działy IT jako wąskie gardło oraz polska kultura lepiej nic nie ruszać.
  • Prototyp zmiany na karcie produktu gotowy do wklejenia w Google Tag Manager. 15 minut w Gemini, bez znajomości programowania.
  • Testy A/B można stawiać samodzielnie przez Google Tag Manager, całkowicie z pominięciem działu IT.
  • Setki odpowiedzi z ankiet lub eksport z analityki wrzucasz do Claude’a i dostajesz wnioski oraz wykresy w kilka minut.
  • AI nie zastąpi danych, trzeba je najpierw zebrać. Zbieraj dużo (eventy, atrybuty produktów, dane jakościowe) i rozumiej, co mierzysz.
  • Wyznacz jedną osobę odpowiedzialną za CRO, zbuduj kulturę eksperymentowania: 12 testów rocznie to realny cel dla większości sklepów.
  • Nie poddawaj się po pierwszych nieudanych próbach. Zwycięski wariant potrafi pojawić się dopiero przy ósmym teście.

Polecane źródła zewnętrzne

Analogia sklepu stacjonarnego

Damian Rams rozpoczął prelekcję od anegdoty: wyobraźmy sobie piękny, majowy dzień, kawka ze znajomymi i przypadkowo dostrzeżona reklama sklepu z winylami. Użytkownik wchodzi – i zamiast przyjemnego doświadczenia zakupowego, napotyka chaos: ciasne wnętrze, irytującą muzykę, zdezorientowanego właściciela. Wychodzi z niczym, bo za drzwiami czeka na niego coś lepszego.

Prelegent wprost powiązał tę sytuację z rzeczywistością e-commerce: użytkownik mediów społecznościowych, przyzwyczajony do natychmiastowych informacji i płynnego UX-u, trafiający na sklep z problemami użytecznościowymi, po prostu wraca do Instagrama.

Realia polskiego e-commerce. Przegląd problemów UX

Prelegent zaprezentował kilka przykładów złych doświadczeń użytkownika, które sam napotkał podczas przeglądania sklepów. Reklama stylizacji prowadziła na stronę, gdzie zamiast gotowych zestawów można było kupić… książkę o modzie.

Reklama czapki na Instagramie skończyła się koniecznością przeklikania wielu filtrów, żeby w ogóle produkt znaleźć. Inny sklep oferował wybór paczkomatu z listy zawierającej wszystkie miejscowości w Polsce, bez możliwości filtrowania.

Damian Rams zwrócił uwagę, że właściciele sklepów zazwyczaj przeglądają własne witryny na desktopie, podczas gdy statystyki pokazują, że 70-80% ruchu pochodzi z urządzeń mobilnych, a przy ruchu z reklam Meta czy Instagrama odsetek ten może sięgać nawet 95%.

Typowe wyzwania e-commerce i błędne strategie reagowania

Prelegent wymienił kluczowe wyzwania, z którymi mierzą się dziś sklepy internetowe: spadający ruch z SEO, drożejące kliknięcia w reklamach oraz nasycający się rynek.

Zamiast jednak szukać rozwiązań w optymalizacji strony, większość firm sięga po te same schematy: zwiększenie lub zmniejszenie budżetu, zmiana agencji, albo kolejna promocja z rabatem. Niemal każdy sklep wita dziś użytkownika pop-upem z zapisem do newslettera w zamian za zniżkę, jakby rabatowanie stało się odruchem, a nie strategią.

Gdy frustracja rośnie, pojawia się myśl o redesignie lub migracji na inną platformę sklepową, co jest procesem kosztownym, stresującym i bez gwarancji lepszych wyników.

Trzy elementy wpływające na przychód. Dlaczego CRO jest pomijane?

Prelegent przedstawił trzy filary przychodu w e-commerce: pozyskiwanie ruchu (marketing), efektywność strony oraz oferta.

Jego obserwacja była jednoznaczna: zdecydowana większość firm skupia się wyłącznie na tym pierwszym elemencie, całkowicie zaniedbując optymalizację konwersji. CRO jest trudniejsze niż kupowanie linków czy zwiększanie budżetu reklamowego. W końcu wymaga podjęcia decyzji, co zmienić, zakodowania tych zmian (a IT zawsze ma za dużo pracy), a do tego wiąże się z ryzykiem porażki.

Damian Rams wskazał, że w Polsce dominuje podejście lepiej nic nie ruszać – w kontrze do kultury ze Stanów Zjednoczonych, gdzie porażka jest po prostu nauką i impulsem do działania.

Inspiracje i filozofia projektowania. Dieter Rams i kultura eksperymentowania

W tym segmencie prelegent podzielił się nieoczywistą inspiracją: polecił książkę będącą jednocześnie albumem prezentującym produkty firmy Braun zaprojektowane przez Dietera Ramsa, legendarnego designera, na którym wzorował się Jony Ive tworząc produkty Apple. Damian Rams przekonywał, że pomimo kilkudziesięcioletniej historii tych projektów, zasady funkcjonalności i prostoty, które sobą reprezentują, nie starzeją się.

Zamiast kopiować case studies (co grozi mechanicznym powielaniem cudzych rozwiązań bez zrozumienia kontekstu), warto czerpać z takich ponadczasowych reguł designu, które pomagają samodzielnie wpadać na trafne rozwiązania konwersyjne. Prelegent zaapelował też o budowanie w organizacji kultury eksperymentowania, z jedną wyznaczoną osobą odpowiedzialną za proces CRO, ale bez obarczania jej pełną odpowiedzialnością za wyniki.

AI i Google Tag Manager jako narzędzia wdrożenia zmian

Damian Rams pokazał, jak dziś można szybko i tanio prototypować zmiany na sklepie bez angażowania działu IT. Korzystając z Gemini, opisał słowami (bez technicznego języka) pożądany wygląd karty produktu przykładowego sklepu z winylami. W odpowiedzi otrzymał gotowy kod, który można wkleić jako custom HTML w Google Tag Managerze. Cały proces zajął mu 15 minut.

Efekt? Belka z informacją o darmowej dostawie, wyrównany tekst, cena promocyjna i regularna w jednej linii, przycisk dodania do koszyka widoczny od razu po wejściu na stronę (bez konieczności przewijania) oraz automatycznie wyliczana przez skrypt oszczędność procentowa.

Prelegent wspomniał również, że przez Google Tag Manager można budować proste, samodzielne setupy do testów A/B – i wskazał na dostępny w sieci artykuł opisujący tę metodę (AB Test for Free with Google Tag Manager).

AI jako narzędzie analizy danych i ankiet

Kolejny segment dotyczył roli AI w analizie danych. Damian przyznał, że kiedyś ręczne czytanie setek odpowiedzi z ankiet, eksportowanie plików CSV i mozolna analiza raportów analitycznych były wąskim gardłem całego procesu CRO.

Dziś wystarczy wgrać dane do Claude’a lub innego narzędzia AI, żeby otrzymać gotowe podsumowania, kategoryzacje i wykresy. To samo dotyczy danych ilościowych z narzędzi analitycznych. Zamiast godzinami przeglądać raporty, można je po prostu załadować i zadać konkretne pytania.

Prelegent podkreślił, że AI nie zastąpi samych danych (trzeba je najpierw zebrać), ale drastycznie skraca czas potrzebny na wyciągnięcie z nich wniosków.

Higiena pracy z danymi i wnioski końcowe

Prelekcję zamknął segment o fundamentach, bez których cały proces CRO traci sens.

Damian Rams mówił o poprawnym zbieraniu danych: eventów w analityce, informacji o kategoriach, brandach, kolorach i rozmiarach produktów. Kiedyś odradzano zbieranie nadmiaru danych, bo i tak trudno było je analizować; dziś prelegent uważa odwrotnie. Warto zbierać jak najwięcej, bo AI potrafi wyciągnąć z nich wartość.

Równie ważna jest tzw. data literacy, czyli rozumienie tego, co oznaczają poszczególne metryki i wymiary, bo to warunkuje jakość zapytań kierowanych do narzędzi AI.

Damian podkreślił też znaczenie dobrej specyfikacji technicznej, zarówno przy przekazywaniu rekomendacji deweloperom, jak i przy generowaniu kodu przez AI.

Na zakończenie prelegent zachęcił do pochylenia się nad tematem optymalizacji konwersji, przypominając, że przy 80% ruchu mobilnego zadbanie o dobry UX na telefonie przestało być opcją, a stało się koniecznością.

Paweł Sokołowski – AI Visibility – jak sobie radzić

TL;DR

  • Strona może rankować na 1. miejscu w Google i jednocześnie nie pojawiać się w odpowiedziach AI – dobre SEO nie przekłada się automatycznie na AI visibility.
  • Rynek AI przypomina wczesne lata wojen wyszukiwarek: brak jednego standardu, każdy LLM działa inaczej, ma inne algorytmy i inaczej interpretuje te same treści.
  • AI może wspominać markę, ale jej nie polecać – dostępne metryki (mentions, citations) nie mierzą kontekstu i sentymentu rekomendacji, przez co są mocno niedoskonałe.
  • To, co marka mówi o sobie, może rozchodzić się z tym, co AI powtarza o marce (Narrative Gap) – LLM interpretuje treści po swojemu i przekazuje tę interpretację dalej.
  • Audyt AI visibility powinien obejmować trzy warstwy: dostępność treści dla botów AI, zrozumienie treści przez model oraz autorytet domeny w oczach LLM-a.
  • Strona może wydawać się technicznie otwarta, a mimo to być blokowana – przez Cloudflare, dostawcę hostingu lub błędne odpowiedzi serwera. Logi serwerowe to najlepsza metoda weryfikacji.
  • Różne silniki AI odpowiadają inaczej na to samo zapytanie – Gemini opisuje cechy produktu, ChatGPT od razu rekomenduje najtańszy sklep. Audyt należy prowadzić osobno dla każdego modelu.
  • ChatGPT różni się odpowiedziami nawet w 80% przy powtórzonych promptach – badanie wymaga większej próbki i uśredniania wyników.
  • Prompty testowe powinny obejmować cztery typy zapytań: brandowe, informacyjne, porównawcze i zakupowe. Prompty brandowe pełnią rolę diagnostyczną.
  • Właściwa kolejność działań: najpierw on-site (struktura, schematy, treści), dopiero potem off-site (dystrybucja informacji na zewnątrz) – nie odwrotnie.
  • Na początku warto skupić się na jednym lub dwóch silnikach – rekomendowany priorytet to Google (AI Overviews + AI Mode) jako platforma o największym wolumenie zapytań.
  • Większość firm nie przeprowadziła audytu i nie ma strategii AI visibility – a bez audytu działania są przypadkowe.

Nowa rzeczywistość AI w SEO

Paweł Sokołowski otworzył prelekcję metaforą branży stojącej w bagnie, w którym pojawiają się i toną nowe silniki AI – podobnie jak to miało miejsce z wyszukiwarkami około 20 lat temu.

Wskazał, że dzisiejsze platformy AI (LLM-y), takie jak OpenAI, Perplexity czy Google, różnią się między sobą tak fundamentalnie, jak dawne wyszukiwarki: mają inne zespoły, inne wartości i inne algorytmy. O ile w polskim SEO dominuje jeden gracz i można mówić o względnej prostocie optymalizacji, o tyle w ekosystemie AI nie istnieje jeden standard ani jeden zwycięzca.

Prelegent zaznaczył, że pojęcie optymalizacji pod AI jest dużym uproszczeniem, bo każda platforma działa inaczej, szczególnie jeśli chodzi o tzw. fine tuning.

Problem transferu informacji i rozbieżności narracyjnej marki

Prelegent opisał zjawisko, które roboczo określił transferem informacji: model AI czyta stronę internetową, interpretuje jej treść po swojemu, a następnie przekazuje tę interpretację dalej, do innych modeli lub użytkowników.

Efektem może być sytuacja, w której to, co marka mówi o sobie, kompletnie rozchodzi się z tym, co AI powtarza o marce. Paweł podkreślił, że pozytywny Brand Sentiment Score (pozytywna ocena marki przez AI) nie jest równoznaczny z pojawianiem się rekomendacji. AI może wspominać markę, ale nie polecać jej produktów.

Zwrócił też uwagę na niedoskonałość obecnych metryk sukcesu: narzędzia mierzą citations i mentions, ale zazwyczaj nie analizują kontekstu. Sztuczna inteligencja może wymienić markę, dodając przy tym sugestię zakupu u konkurencji.

Prelegent porównał LLM-y do automatu dwulatka. Technologia istnieje publicznie od ok. 2,5-3 lat, a tymczasem przez 20 lat optymalizowaliśmy strony pod wyszukiwarki, które nagle przestały być jedynym punktem odniesienia.

Framework audytu AI visibility

Paweł przedstawił autorski framework audytu, który jego zespół stosuje w pracy z klientami. Audyt składa się z kilku warstw analizowanych kaskadowo:

  • Dostępność treści dla AI – czy boty modeli językowych w ogóle docierają do strony i otrzymują poprawną odpowiedź (np. kod 200 z rzeczywistą treścią, a nie pustą stroną);
  • Zrozumienie treści przez AI – czy content jest renderowany i interpretowany poprawnie;
  • Autorytet – czy AI ufa danemu źródłu na tyle, by je cytować lub rekomendować.

Jako kluczowe metryki prelegent wymienił source coverage (jak często strona jest wskazywana jako źródło), merchant coverage (czy marka pojawia się w kontekście zakupowym) oraz zbiorczy wskaźnik ogólnej widoczności w AI.

Podkreślił, że audyt powinien być prowadzony osobno dla każdego silnika, bo te różnią się nie tylko odpowiedziami, ale i zachowaniem w zależności od typu zapytania – niektóre modele doradzają, inne od razu wskazują produkt do kupienia.

Rola promptów w audycie i różnice między silnikami AI

Prelegent omówił, jak dobór promptów testowych wpływa na jakość audytu. Zaprezentował przykład dwóch artykułów z serwisu Decathlon, oba rankujące na pierwszej pozycji w Google, ale zachowujące się zupełnie odmiennie w różnych silnikach AI: jeden był cytowany i widoczny we wszystkich modelach, drugi – tylko w AI Mode. Co istotne, artykuły były do siebie podobne pod względem treści.

Paweł pokazał konkretny przykład różnicy w odpowiedziach: Gemini przy tym samym zapytaniu opisywał cechy produktu i wskazywał Decathlon jako główne źródło informacji, podczas gdy ChatGPT od razu rekomendował konkretny sklep z najniższą ceną. Prelegent wyjaśnił, że Google opiera się na swoim indeksie i historii stron (pamięta cache). Jest najbliżej intencji zakupowej użytkownika i posiada olbrzymią bazę danych produktowych. ChatGPT z kolei czerpie dane bezpośrednio ze strony w czasie rzeczywistym i nie posiada takiej historycznej pamięci, dlatego bieżące aktualizowanie treści na stronie jest szczególnie ważne dla tego modelu.

Prelegent zwrócił też uwagę na zmienność odpowiedzi w ramach tego samego modelu: Perplexity charakteryzuje się relatywnie wysoką spójnością (ok. 5% różnicy przy 10 promptach), natomiast ChatGPT może różnić się odpowiedziami nawet w 80% przypadków. Stąd rekomendacja, by przy audycie ChatGPT każde zapytanie powtarzać wielokrotnie i pracować na średnich.

Budowanie zestawu promptów testowych

Paweł omówił metodę tworzenia promptów do audytu i monitorowania. Wyróżnił cztery typy promptów:

  • brandowe – sprawdzające, jak AI mówi o marce;
  • informacyjne – odpowiadające na pytania co to jest, definicje, wyjaśnienia;
  • porównawcze – np. czym produkt X różni się od produktu Y (typowe dla SaaS, rzadko spotykane w e-commerce);
  • zakupowe / transakcyjne – dotyczące stron produktowych i odpowiedzi na zapytania zakupowe.

Prelegent wskazał, że prompty brandowe pełnią funkcję diagnostyczną: jeśli LLM nie odpowiada na zapytania o nazwę marki, to sygnał problemu technicznego lub bardzo niskiej rozpoznawalności brandu.

Podkreślił też mechanizm query fanout – odpowiednik SEO-wego query expansion – w którym LLM z jednego zapytania rozgałęzia się drzewem decyzyjnym i dobiera najlepszą odpowiedź dla danej intencji. Dobre dopasowanie promptów do stron pozwala skutecznie optymalizować treści pod konkretne ścieżki decyzyjne użytkownika.

Techniczne bariery dostępności. Boty i blokady

Prelegent omówił techniczne przyczyny braku widoczności w AI, które często umykają uwadze. Wskazał, że strona może wydawać się technicznie otwarta (brak jawnych blokad w robots.txt), a mimo to nie być dostępna dla botów AI z powodu:

  • blokad na poziomie Cloudflare,
  • restrykcji po stronie dostawcy hostingu,
  • błędnie zwracanych odpowiedzi HTTP (np. kod 200, ale pusta strona).

Jako ilustrację podał przykład, w którym mimo braku widocznych reguł blokujących, chińskie boty AI były zatrzymywane przez Cloudflare, bo nie identyfikowały się jako znane boty AI. Paweł zaznaczył, że ekosystem botów jest rozległy: część się identyfikuje, część nie, a platformy bezpieczeństwa mogą je blokować grupowo.

Rekomendował regularne sprawdzanie logów serwerowych jako najbardziej wiarygodnej metody weryfikacji, czy boty rzeczywiście docierają do treści i co dokładnie otrzymują.

Pięć scenariuszy widoczności w AI i rekomendowane działania

Paweł zaprezentował pięć typowych scenariuszy, w których może znajdować się strona, oraz wskazał ścieżki wyjścia z każdego z nich:

  • Scenariusz A – brak obecności w LLM-ach: strona nie pojawia się w żadnym modelu. Diagnoza wskazuje na problemy z indeksowaniem lub świeżość domeny. Kluczowe jest zweryfikowanie dostępności technicznej za pomocą promptów brandowych.
  • Scenariusz B – indeksacja w Google, treści obecne, brak rekomendacji w AI: najczęstszy przypadek. Marka jest wymieniana, ale nie polecana. Rekomendacja: najpierw poprawa on-page (struktura artykułów, schematy, dane strukturalne), a dopiero potem dystrybucja informacji na zewnątrz.
  • Scenariusz C – silne SEO, słaba widoczność w AI: dotyczy dużych firm z rozbudowanym profilem linkowym. Problemem jest zazwyczaj struktura serwisu lub kwestie techniczne uniemożliwiające AI prawidłową ekstrakcję informacji. Rozwiązanie: kilka dobrze zoptymalizowanych artykułów, bez konieczności budowania zewnętrznego autorytetu – AI i tak ufa tej domenie.
  • Scenariusz D – dobra struktura treści, słaby autorytet: AI rozumie treść, ale jej nie ufa. Rekomendacja skupia się na technikach budowania zaufania i autorytetu – prelegent zaznaczył, że w zależności od silnika, autorytet autora lub strony ma różne znaczenie (im bliżej Bing-a, tym zaufanie ważniejsze).
  • Scenariusz E – lider w SEO i AI: optymalny stan. Paweł żartobliwie zaznaczył, że nawet liderzy zawsze mają coś do poprawienia, i zalecił monitorowanie ok. 2–3 promptów na stronę (przy tysiącu stron – około trzech tysięcy promptów).

Sekwencja działań i znaczenie audytów

Prelegent podsumował prelekcję, wskazując na właściwą kolejność działań: audyt → optymalizacja on-site → dystrybucja informacji (off-page).

Podkreślił, że propagowanie treści na zewnątrz ma sens dopiero wtedy, gdy wiemy, że LLM-y poprawnie interpretują to, co marka komunikuje na własnej stronie.

Zwrócił uwagę, że większość firm, z którymi pracuje, nie przeprowadziła dotąd żadnego audytu i nie ma strategii AI visibility – mimo że chcą się pojawiać w odpowiedziach modeli językowych.

Zakończył rekomendacją skupienia się na początku na jednym lub dwóch silnikach, ze szczególnym wskazaniem na Google (AI Overviews i AI Mode), jako platformie o największym wolumenie zapytań w Polsce.

Michał Kukliński – To nie przez AI tracisz klientów, a przez brak relacji z nimi

TL;DR

  • AI nie jest zagrożeniem dla agencji. Zagrożeniem jest ignorowanie klienta i zaniedbywanie relacji z nim.
  • Strategiczni klienci oczekują partnera, nie tylko wykonawcy. Samo dowożenie wyników nie wystarczy.
  • Paradoks automatyzacji: im więcej zadań przejmują narzędzia AI, tym mniej punktów styku z klientem.
  • Automatyzuj po to, żeby zyskać czas na rozmowę z klientem, a nie po to, żeby tę rozmowę zastąpić.
  • Trzy filary budowania zaufania: proaktywność (wyprzedzaj klienta), partnerstwo (rozmawiaj o jego biznesie, nie o metrykach), przewidywalność (plany, roadmapy, harmonogramy).
  • Bez klientów nie ma agencji. Sla nas to jeden z wielu projektów, dla klienta często jedyny i najważniejszy.
  • 32% klientów odchodzi już po jednym złym doświadczeniu (nawet nieodpowiedziany e-mail wystarczy).
  • 56% klientów odchodzi po cichu, bez wcześniejszego sygnału, że coś jest nie tak.
  • 72% odchodzących klientów trafia do konkurencji, która po prostu poświęciła im więcej uwagi.
  • Utrzymanie klienta jest tańsze niż pozyskanie nowego. Obecność dla klienta to jeden z najtańszych sposobów budowania lojalności.
  • Na onboardingu zapytaj klienta, czego się obawia w tej współpracy. To gotowa mapa do przepracowania.

Polecane źródła zewnętrzne

  • Narzędzie LittleWarden do śledzenia zmian na stronach internetowych.

Dlaczego relacja, a nie AI?

Michał Kukliński otworzył prelekcję wyraźnym zastrzeżeniem: jego wystąpienie nie było skierowane przeciwko AI ani automatyzacji. Prelegent przedstawił się jako właściciel agencji marketingowej z ośmioletnim stażem, który na co dzień pozostaje blisko klientów i aktywnie słucha tego, co mają do powiedzenia. To właśnie ta bliskość stała się podstawą wszystkich obserwacji, którymi się podzielił.

Michał zwrócił uwagę, że środowisko agencyjne dynamicznie się zmienia. Przybywa narzędzi AI, a ubywa bezpośrednich usług świadczonych wspólnie z klientem. W tym chaosie łatwo się zagubić zarówno specjalistom, jak i całym zespołom. Tymczasem strategiczni klienci, ci, którzy budują stabilność agencji, oczekują czegoś więcej niż tylko dobrych wyników. Wymagają zaangażowania, relacji i partnera, nie tylko wykonawcy.

Historia z własnego doświadczenia. Sygnał, który zmienił podejście

Prelegent przywołał konkretną historię z własnej praktyki. Agencja prowadziła projekt, w którym wyniki były satysfakcjonujące, raportowanie było realizowane. Z perspektywy zespołu wszystko szło dobrze.

Mimo to klientka przesłała feedback, który był dla Michała wyraźnym sygnałem ostrzegawczym: fajnie, panie Michale, ale od trzech tygodni się nie odzywacie, raportu nie rozumiem, nie wiem w którym kierunku to pójdzie i się martwię.

Prelegent podkreślił, że problem nie tkwił w wynikach ani w żadnym błędzie technicznym. Problem leżał w tym, jak agencja była odbierana przez klientkę. Kobieta nie czuła się ważna, nie czuła się poinformowana, nie czuła partnerstwa.

Ta historia stała się dla Michała punktem zwrotnym i podstawą do refleksji, że ocenianie własnej pracy wyłącznie przez pryzmat metryk jest niewystarczające.

Paradoks automatyzacji: więcej narzędzi, mniej kontaktu

Michał Kukliński omówił zjawisko, które nazwał paradoksem automatyzacji. Obserwując branżę, dostrzegł, że coraz więcej zadań jest delegowanych do narzędzi i systemów automatycznych, co skutkuje coraz mniejszą liczbą punktów styku z klientem. Długofalowo, choć pozwala to obsługiwać więcej projektów, nie sprzyja budowaniu wartościowych relacji.

Prelegent zaznaczył, że nie jest wrogiem technologii. Sam automatyzuje wiele procesów i czerpie z tego korzyści. Kluczowa jest jednak zmiana podejścia: automatyzacja powinna służyć temu, by zyskać czas na rozmowę z klientem, a nie po to, by tę rozmowę zastąpić.

Jako przykład podał raportowanie. Klient otrzymujący wyłącznie automatyczny raport najczęściej go nie rozumie, nie zagłębia się w dane i traci zaufanie do agencji. Dopiero rozmowa ze specjalistą, edukacja i wyjaśnienie kontekstu tworzą wartość i budują relację.

Technologia jako samochód, my za kierownicą

Aby zilustrować właściwe podejście do łączenia automatyzacji z relacją, Michał posłużył się metaforą: technologia jest jak samochód, daje możliwości i przyspiesza pracę. Klient najczęściej jest pasażerem, wsiada i oczekuje, że wszystko będzie gotowe. To agencja wybiera narzędzia, nadaje tempo, wyznacza kierunek i decyduje, jak wygląda współpraca.

Prelegent podkreślił, że zaufanie klienta nie jest przypadkiem, a wynikiem świadomych decyzji i działań. To agencja ma pełną kontrolę nad tym, jak klient się czuje w tej relacji, i to ona ponosi odpowiedzialność za jakość tego doświadczenia.

Trzy filary budowania zaufania. Framework Michała

Prelegent przedstawił swój framework budowania zaufania oparty na trzech elementach, zastrzegając, że każdy projekt wymaga indywidualnego dopasowania.

Pierwszy filar to proaktywność. Agencja powinna zawsze wyprzedzać klienta i nie dopuszczać do sytuacji, w której to klient pierwszy zgłasza problem.

Michał zaproponował konkretne narzędzie: cotygodniowe lub dostosowane do projektu krótkie podsumowanie mailowe (np. wysyłane w piątek), zawierające informację o tym, co zostało zrobione, co osiągnięto i czego nie udało się zrealizować. Taki nawyk daje klientowi poczucie, że agencja działa i jest obecna.

Drugi filar to partnerstwo. Prelegent zachęcał do odejścia od raportowania wyłącznie metryk marketingowych na rzecz rozmów o biznesie klienta.

Zaproponował regularne spotkania (raz w miesiącu lub w kwartale), podczas których tematem nie jest marketing, lecz cele i kondycja biznesu klienta. Jak zauważył Michał, klienci chętnie mówią o swoim biznesie i takie rozmowy potrafią otworzyć drzwi, które inaczej pozostają zamknięte.

Trzeci filar to przewidywalność, czyli stosowanie planów, roadmap i jasnych harmonogramów przekazywanych klientowi. Wiedza o tym, co i kiedy się wydarzy, daje klientowi poczucie bezpieczeństwa i eliminuje niepotrzebne zaskoczenia.

Trzy spostrzeżenia właściciela agencji

Michał podzielił się swoimi spostrzeżeniami, które, jak zaznaczył, nie są spektakularne, ale za każdym razem, gdy o nich zapominał, kończyło się to źle.

  1. Bez klientów nie ma agencji. Prelegent podkreślił konieczność patrzenia na biznes przez pryzmat klientocentryczności, niezależnie od posiadanych narzędzi, procesów czy roadmap.
  2. Agencje zbyt często skupiają się na zadaniach zamiast na celach. Samo wykonanie zadań, które zostały zlecone, nie oznacza, że cel klienta został osiągnięty. Warto regularnie weryfikować, czy realizowane działania rzeczywiście odpowiadają na potrzeby i cele biznesowe klienta.
  3. Asymetria zaangażowania. Dla agencji dany projekt to jeden z wielu, a;e dla klienta to często najważniejsza i jedyna inwestycja w marketing, nierzadko podjęta w momencie kryzysu lub intensywnego wzrostu. Michał zachęcał do wchodzenia w perspektywę klienta i zadawania sobie pytania: gdybym był właścicielem tego biznesu, czy byłbym zadowolony z tej współpracy?

Skala problemu odchodzenia klientów

Prelegent przywołał dane statystyczne ilustrujące, jak poważny jest problem utraty klientów z powodów relacyjnych, nie merytorycznych.

Pierwsze dane wskazywały, że około 32% klientów odchodzi już po jednym złym doświadczeniu z agencją. Co ciekawe, nie musi to być poważny błąd. Wystarczy jeden nieodpowiedziany e-mail, jeden moment, w którym klient poczuł się nieważny.

Kolejna statystyka mówiła, że ponad 50% klientów odchodzi po cichu, bez dawania feedbacku, bez sygnalizowania, że coś jest nie tak. Pozornie wszystko wygląda dobrze, a klient już szuka alternatywy.

Na koniec: 72% odchodzących klientów trafia do konkurencji, która poświęciła im więcej uwagi i czasu. Michał podkreślił, że to szczególnie bolesna strata. Projekty te nie są tracone z powodu słabych wyników, lecz dlatego, że ktoś inny po prostu odebrał telefon i zaopiekował się klientem.

Koszt utraty klienta i wartość obecności

Michał Kukliński zwrócił uwagę na ekonomiczny wymiar zaniedbywania relacji. Pozyskanie nowego klienta jest wielokrotnie droższe niż utrzymanie obecnego, dlatego inwestycja czasu i zaangażowania w istniejące relacje jest jednym z najbardziej opłacalnych działań, jakie agencja może podjąć.

Prelegent wskazał, że bycie obecnym dla klienta jest jednym z najtańszych, a zarazem najskuteczniejszych sposobów budowania lojalności. Utrata klienta to nie tylko utracony przychód, to utracona perspektywa długiej, rozwijającej się współpracy, która mogłaby przynosić korzyści obu stronom.

Framework i narzędzia do wdrożenia

Na zakończenie Michał zaproponował prosty framework oparty na segmentacji klientów oraz zestaw konkretnych działań możliwych do wdrożenia niemal od razu.

W kwestii segmentacji prelegent przypomniał, że nie każdy klient oczekuje tego samego. Jedni preferują częsty kontakt telefoniczny, inni wolą korespondencję mailową, jeszcze inni komunikację formalną. Kluczowe jest dopasowanie formy i częstotliwości kontaktu do preferencji danego klienta, pamiętając, że każdy klient chce czuć się ważny.

Wśród działań praktycznych Michał wyróżnił: regularne rozmowy z klientem (nie tylko wysyłanie raportów), edukowanie klienta jako element usługi agencji, a także zadawanie klientowi podczas onboardingu pytania o to, czego się obawia w tej współpracy. Odpowiedź na to pytanie staje się mapą obaw, do której warto wracać i aktywnie zbijać te obawy w toku współpracy.

Prelegent wspomniał również o narzędziu LittleWarden, służącym do monitorowania zmian na stronie klienta, które pozwala wcześniej wykrywać potencjalne problemy, zanim stają się one powodem do niezadowolenia klienta.

Paweł Wróblewski – SEO, GEO, AI… a klient i tak pyta tylko o jedno: zysk

TL;DR

  • Branża SEO żyje we własnej bańce. Nlienci nie rozumieją, co robimy, a my zapominamy, że SEO to tylko jeden z wielu kanałów sprzedaży.
  • AI nie zabiera pracy. Daje narzędzia do działania szybciej, obsługiwania większej liczby klientów i poszerzania oferty.
  • SEO i GEO to naczynia połączone. Dobrze wykonane SEO naturalnie buduje widoczność w wynikach generowanych przez AI (AI Overviews, ChatGPT, Perplexity, Gemini).
  • Tylko 48% cytowań w AI Overviews pochodzi z top 10 wyników. Rok wcześniej było to ~70%. To argument, którym warto rozmawiać z klientem o wartości ruchu organicznego.
  • Efekty SEO są trwałe, przykład psychologa z Warszawy, którego strona utrzymuje widoczność w organicu i w narzędziach AI pomimo dwóch lat bez jakichkolwiek działań.
  • Firma Cwierkaja.pl urosła o 30% w ciągu roku dzięki AI, bez zwalniania ludzi, z nowymi zatrudnieniami.
  • Nowe usługi wprowadzone dzięki AI: tworzenie stron internetowych, obsługa social media, kampanie płatne, produkcja rolek reklamowych.
  • Rolki reklamowe to niskobudżetowa alternatywa dla drogiej produkcji wideo: czas wykonania ~30 minut, cena sprzedaży 200 zł/sztuka, wysoka konwersja.
  • Własna sieć ~50 serwisów do linkowania = rezygnacja z miesięcznych wydatków rzędu 10–15 tys. zł na zewnętrzne linki.
  • Relacje branżowe to zasób. Nieformalne rozmowy w kuluarach konferencji często dają więcej niż samodzielne testowanie narzędzi.
  • AI ma wspierać, nie myśleć za nas. Zaoszczędzony czas warto inwestować zarówno w rozwój firmy, jak i w życie poza pracą.
  • Kto zostanie tylko przy SEO, zostanie w tyle. Rozszerzenie oferty to dziś konieczność, nie opcja.

Branżowa bańka

Paweł Wróblewski rozpoczął prelekcję od przewrotnego stwierdzenia, że środowisko SEO żyje we własnej bańce. Specjaliści przeceniają wiedzę swoich klientów na temat tego, jak i dlaczego wykonywana jest ich praca.

AI to nie zagrożenie egzystencjalne, lecz narzędzie, które pozwala działać szybciej, obsługiwać więcej klientów i poszerzać ofertę o nowe usługi – i właśnie tę perspektywę Paweł stawiał w centrum swojego wystąpienia.

Prelegent przyznał otwarcie, że w przeszłości tracił klientów, bo nie potrafił ich przekonać do wartości SEO ani zaproponować alternatywnych kanałów sprzedaży.

SEO a GEO. Wzajemna zależność i argumenty dla klienta

Prelegent wyjaśnił, czym jest GEO i na czym polega różnica między SEO a GEO w praktyce. SEO, jak podkreślił, to widoczność w tradycyjnych wynikach wyszukiwania (rankingach Google, kliknięciach, odpowiedziach na intencje użytkowników). GEO natomiast to widoczność w wynikach generowanych przez narzędzia AI, gdzie rekomendacje wybiera i sugeruje algorytm, a nie sam użytkownik.

Paweł zwrócił uwagę na niepokojący trend: tylko 48% cytowań w AI Overviews pochodzi z dziesięciu głównych wyników wyszukiwania, podczas gdy rok wcześniej odsetek ten wynosił około 70%. To jego zdaniem dobry argument w rozmowie z klientem. Pokazuje, że inwestycja w ruch organiczny i SEO bezpośrednio przekłada się na obecność w wynikach GEO.

SEO jako fundament widoczności w AI

Paweł Wróblewski zaprezentował kilka konkretnych case studies z własnej praktyki, które posłużyły mu jako narzędzie do przekonywania klientów o wartości SEO w erze AI.

Pierwszym przykładem była firma z branży budowlanej, której pracownicy samodzielnie sprawdzali widoczność w narzędziach AI. Wpisywali zapytania branżowe w różnych systemach i weryfikowali, czy firma się wyświetla. Ten rodzaj weryfikacji ze strony klienta Paweł potraktował jako naturalny punkt wyjścia do rozmowy o zasadności inwestowania w SEO.

Kolejnym przykładem był sklep e-commerce, który pojawiał się w wynikach generowanych przez AI na istotne dla niego zapytania.

Najbardziej rozbudowanym przykładem był przypadek lokalnego psychologa z Warszawy, z którym Paweł współpracował przez pewien czas, a następnie zakończył współpracę. Klient od dwóch lat nie prowadzi żadnych działań SEO. Mimo to strona utrzymuje pozycje w top 10 na frazy takie jak psycholog Warszawa, a gabinet jest wzmiankowany we wszystkich sprawdzanych narzędziach AI: AI Overviews, ChatGPT, Perplexity i Gemini.

Paweł wyjaśnił, że efekt ten wynika z podejścia, jakie stosował podczas współpracy. Tworzył treści pisane pod intencje użytkownika, unikał sztucznego nasycania słowami kluczowymi i dbał o to, żeby content był czytelny zarówno dla człowieka, jak i dla algorytmów. Podkreślił, że trwałość efektów SEO to jeden z kluczowych argumentów w rozmowie z klientem.

Ewolucja algorytmów i co faktycznie działa w SEO i GEO

Prelegent omówił, jak zmieniało się SEO na przestrzeni lat i co pozostało niezmienne. Dwoma filarami, które jego zdaniem zawsze były i nadal są kluczowe, pozostają: content oraz działania on-site i off-site.

Jednocześnie zwrócił uwagę, że algorytmy Google przestały bazować na prostym dopasowywaniu wektorów słów kluczowych. Dziś rozumieją one kontekst strony, jej tematykę i intencję autora. Dlatego treść, która kiedyś polegała na wielokrotnym powtarzaniu frazy kluczowej, dziś musi być pisana naturalnie i z myślą o człowieku.

W kontekście GEO prelegent wskazał, że kluczowe stają się: odpowiednio skonstruowane fragmenty kontekstowe, autorytet i wiarygodność domeny. Zauważył przy tym, że te zasady brzmią znajomo, to były propagowane przez specjalistów SEO już kilka lat temu. Metodologia się nie zmieniła, zmieniły się natomiast oczekiwania algorytmów co do jakości i naturalności treści.

AI jako narzędzie rozwoju firmy. Wzrost Cwierkaja.pl o 30%

Paweł przedstawił wymierne rezultaty wdrożenia AI we własnej firmie. W ciągu roku Cwierkaja.pl urosła o 30%, bez zwalniania pracowników, a wręcz z zatrudnianiem nowych osób do obsługi rosnącej liczby klientów i usług.

Prelegent podkreślił, że AI pozwoliło mu znaleźć oszczędności operacyjne. Między innymi zrezygnował z zewnętrznych zakupów linków i zbudował własną sieć około 50 serwisów, które linkują do stron klientów.

Dzięki temu nie wydaje miesięcznie kilku–kilkunastu tysięcy złotych na linki, a serwisy te może dodatkowo monetyzować poprzez platformy takie jak WhitePress czy współpracę z innymi specjalistami.

Wspomniał również o tworzeniu własnych narzędzi contentowych wspierających pisanie treści dla klientów, co pozwoliło zatrudnić specjalistów SEO do obsługi rosnącego portfela projektów.

Rozszerzenie oferty. Strony internetowe, social media, paid ads i rolki reklamowe

Centralnym punktem prelekcji było omówienie konkretnych usług, które Paweł Wróblewski wprowadził do swojej oferty dzięki możliwościom AI.

Pierwszą z nich jest tworzenie prostych stron internetowych. Prelegent podał przykład strony wykonanej w ciągu godziny przez grafika wspierającego się narzędziami AI. Taka strona może być sprzedana klientowi za 2–3 tysiące złotych. Paweł zaznaczył, że klienci, którzy korzystają z tej usługi, są bardziej skłonni do pozostania i korzystania z kolejnych usług agencji.

Drugą, szeroko omówioną usługą jest produkcja rolek reklamowych. Prelegent zwrócił uwagę, że wielu klientów niskobudżetowych nie stać na profesjonalną produkcję wideo (4–5 tysięcy złotych i więcej), a część z nich boi się lub nie chce pojawiać przed kamerą.

Dzięki narzędziom AI jego grafik jest w stanie przygotować gotową rolkę reklamową w około 30 minut. Jako przykład pokazał materiał przygotowany dla klienta z branży beauty (zabiegi Botox). Prelegent sprzedaje takie rolki za 200 złotych za sztukę i podkreślił, że tego rodzaju materiały wideo konwertują znacznie lepiej niż tradycyjne banery reklamowe, które użytkownicy ignorują.

Paweł wspomniał, że wiedzę na temat produkcji materiałów AI wideo zdobył podczas spotkania i szkolenia zespołowego z innym specjalistą, co podkreśliło jeden z głównych wątków jego wystąpienia: wartość relacji i wymiany wiedzy w branży.

Relacje i sieć kontaktów jako przewaga konkurencyjna

W kilku miejscach prelekcji Paweł powracał do wątku relacji branżowych jako kluczowego zasobu. Przyznał wprost, że nie ma czasu na samodzielne testowanie wszystkich narzędzi i rozwiązań, dlatego najskuteczniejszą metodą pozyskiwania wiedzy jest dla niego nieformalna rozmowa przy kawie lub piwie z osobami, które już coś przetestowały.

Zachęcał uczestników konferencji do korzystania z kuluarów i rozmów z innymi specjalistami, wskazując, że właśnie tam (a nie wyłącznie na scenie) można znaleźć praktyczne odpowiedzi na konkretne problemy biznesowe.

Podsumowanie i filozofia działania z AI

Na zakończenie Paweł przedstawił swoją filozofię wobec AI, która stanowiła klamrę dla całej prelekcji. Podkreślił, że AI ma wspierać ludzi: przyspieszać procesy, oszczędzać czas i dawać nowe możliwości, ale nie zastępować ludzkiego myślenia i decyzji.

Czas zaoszczędzony dzięki automatyzacji zachęcał przeznaczać zarówno na dalszy rozwój zawodowy i poszerzanie oferty, jak i na życie prywatne: powrót do pasji, sport, rodzinę.

Przestrzegł jednocześnie, że agencje i specjaliści, którzy pozostaną wyłącznie przy SEO i nie rozszerzą swojej działalności, będą stopniowo wypychani przez bardziej elastyczną i głodną konkurencję. Zakończył optymistycznie: nie jako wyraz biernej akceptacji zmian, ale jako świadomy wybór adaptacji i wzrostu.

Oscar Rak – Maszyna contentowa na sterydach – jak tworzyć treści wideo i pisane, które realnie wspierają markę osobistą

TL;DR

  • Tworzenie treści jest dziś technicznie prostsze niż kiedykolwiek, ale łatwość produkcji to pułapka – internet zalewa fala słabej jakości contentu generowanego masowo przez AI.
  • Odbiorcy coraz sprawniej rozpoznają i filtrują treści generatywne. Autentyczne treści sprzedają się po prostu znacznie lepiej.
  • Walutą przyszłości w komunikacji są relacje i autentyczność – nie wolumen publikowanych materiałów.
  • Podejście czysto ilościowe do contentu to ślepa uliczka. Powierzchowne, masowe treści nie budują marki osobistej ani eksperckości.
  • Mikrospołeczności konwertują lepiej niż zasięg w otwartym internecie – warto przenosić odbiorców do zamkniętych, zaangażowanych grup.
  • Skuteczna maszyna contentowa wymaga procesowego podejścia – wdrażanego etapami, nie z dnia na dzień.
  • Człowiek musi pozostać realnie obecny w procesie tworzenia treści. Automatyzacja jest narzędziem, nie zastępstwem twórcy.
  • Do wyboru są dwie drogi: inwestycja czasu lub inwestycja pieniędzy – trzeciej opcji nie ma.
  • Perfekcjonizm i podejście wszystko albo nic blokują twórców bardziej niż brak umiejętności. Lepiej zacząć niedoskonale, niż nie zacząć wcale.
  • Każdy ma coś wartościowego do powiedzenia – wiedza i pasje są kapitałem, którym warto się dzielić publicznie.

Kontekst

Oscar Rak rozpoczął od zaznaczenia swojej pozycji jako praktyka z wieloletnią perspektywą w branży produkcji wideo. Wskazał, że jego firma realizuje projekty dla dużych, globalnych klientów, prowadzi badania dotyczące skuteczności treści wideo w Polsce i ma doświadczenie zarówno po stronie produkcji, jak i edukacji.

Prelegent podkreślił, że jego prelekcja będzie zbiorem uproszczeń i konkretnych obserwacji wyniesionych z codziennej pracy, a nie suchą teorią.

Pułapka łatwości. Content jest prosty, ale to nie znaczy, że działa

Prelegent zwrócił uwagę, że tworzenie treści jest dziś technicznie prostsze niż kiedykolwiek – dostępne narzędzia AI, smartfony i platformy dystrybucji sprawiają, że bariera wejścia praktycznie zniknęła.

Jednocześnie Oscar Rak wskazał na poważny haczyk: ta sama łatwość sprawia, że internet zalany jest treściami słabej jakości, generowanymi masowo, bez głębszej eksperckości (AI slop). Prelegent opisał rzeczywistość dużych domów produkcyjnych, w której codziennie trzeba sprawdzać, czy klienci nie zrezygnowali z wideo na rzecz pilniejszych problemów biznesowych – co samo w sobie oddaje klimat niepewności rynkowej.

Zmęczenie generatywnym contentem i fenomen dead internet

Oscar Rak zwrócił uwagę na rosnące znużenie odbiorców treściami generatywnymi. Opisał, jak po pierwszej i drugiej fali popularności AI-contentu nastąpił wyraźny regres zainteresowania. Ludzie zaczęli automatycznie filtrować materiały rozpoznawane jako wygenerowane przez maszyny.

Prelegent przywołał pojęcie dead internet – zjawiska, w którym sieć wypełniona jest sztucznymi treściami, a „prawdziwa” komunikacja staje się rzadkością. Podkreślił, że autentyczne treści sprzedają się po prostu znacznie lepiej i że jest to obserwacja potwierdzona danymi, a nie jedynie intuicja.

Waluta przyszłości – relacje i autentyczność

Prelegent postawił wyraźną tezę: w komunikacji post-wideo, w erze przesycenia contentem, tym, co naprawdę działa, są relacje i autentyczność.

Oscar wskazał na trend zamykania się społeczności, przenoszenia odbiorców z otwartego internetu do mikrospołeczności, które znacznie lepiej konwertują. Wideo komunikacja była przez niego przedstawiona nie jako content terror, lecz jako szerokie narzędzie obejmujące onboarding, komunikację produktową i budowanie więzi z odbiorcami.

Prelegent zaznaczył, że powierzchowne, ilościowe podejście do tworzenia treści jest ślepą uliczką, którą rynek już zaczyna weryfikować.

Procesowe podejście do maszyny contentowej

Oscar Rak przeszedł do meritum swojej prezentacji – opisania, jak w praktyce wygląda dobrze zaprojektowany proces contentowy w dużych markach.

Przedstawił podejście etapowe: zamiast próbować uruchomić kompleksową maszynę z dnia na dzień, prelegent rekomendował dzielenie procesu na kolejne, możliwe do wdrożenia kroki. Wskazał, że pracuje z klientami latami (7, 8, 9, a nawet 10 lat) i dopiero po tym czasie jest w stanie wskazać firmy, w których procesy contentowe działają naprawdę sprawnie i są realnie zautomatyzowane.

Równowaga człowieka i maszyny – białko/krzem

Centralnym punktem prelekcji było podkreślenie, że nawet w pełni zautomatyzowanym procesie tworzenia treści człowiek musi pozostać obecny i mieć w tym procesie realny udział.

Oscar posłużył się obrazowym określeniem uwaga białka jako złotego standardu produkcji contentowej – czyli udziałem człowieka, który nadaje treściom autentyczność, eksperckość i tożsamość. Przestrzegał przed złudzeniem, że po uruchomieniu automatyzacji twórca może całkowicie wypisać się z procesu – takie podejście, jego zdaniem, jest z góry skazane na niepowodzenie.

Podkreślił, że proporcja nie zawsze musi wynosić 50/50, ale obecność człowieka jest warunkiem koniecznym.

Czas lub pieniądze. Realia wdrożenia

Prelegent był szczery w kwestii zasobów potrzebnych do budowania skutecznej maszyny contentowej. Wskazał, że nie istnieje magiczne rozwiązanie. Do dyspozycji są dwie drogi: inwestycja czasu lub inwestycja pieniędzy.

Klientom dysponującym budżetem Oscar oferuje intensywne sesje nagraniowe, po których powstaje content na wiele miesięcy. Tym, którzy nie mają środków finansowych, rekomenduje konsekwentną inwestycję własnego czasu i stopniowe uczenie się procesu przy wsparciu automatyzacji.

Zaznaczył przy tym, że automatyzacje mogą ogromnie ułatwić wiele etapów pracy, ale wymagają wiedzy i zaangażowania, żeby je właściwie wdrożyć.

Trzy postawy blokujące twórców i przełamanie perfekcjonizmu

Prelegent wyróżnił trzy typowe postawy, które blokują ludzi przed regularnym tworzeniem treści.

  1. Pierwsza to ignorowanie własnej odpowiedzialności za przekaz – przekonanie, że można tworzyć bez refleksji nad tym, co się komunikuje.
  2. Druga to skrajna polaryzacja – podejście wszystko albo nic, gdzie twórca albo dąży do perfekcji, albo rezygnuje zupełnie.
  3. Trzecia to perfekcjonizm – ilustrowany przez prelegenta zabawnym przykładem z prasowaniem ubrań, który stał się punktem wyjścia do refleksji o tym, że dążenie do idealnego materiału często paraliżuje i uniemożliwia w ogóle rozpoczęcie.

Oscar przytoczył historię współpracy z twórcą, który dopiero po dziesiątkach prób nagrał materiał, który uznał za satysfakcjonujący – i to był przełom.

Każdy ma coś wartościowego do powiedzenia

Prelekcję zamknął osobisty apel Oscara do uczestników konferencji. Prelegent zachęcał, by nie bać się nagrywania i publicznego dzielenia się wiedzą oraz pasjami – niezależnie od tego, czy chodzi o tematykę zawodową, czy osobiste zainteresowania.

Podkreślił, że obserwuje wśród ludzi, w tym studentów, niezwykłe pasje i wiedzę, którymi rzadko się dzielą. Zakończył prostym przesłaniem: zamiast czekać na idealny moment lub idealną formę, warto zacząć komunikować to, co się naprawdę wie i czym się żyje.

Rekomendacje
Karol Mielczarek
Karol Mielczarek
Specjalista ds. E-commerce, EDAXO
Ze specjalistami z IF.PL pracowaliśmy nad odbudową spadków po migracji sklepu i wróciliśmy na ścieżkę wzrostów ruchu organic. Podczas działań z agencją osiągnęliśmy blisko 60% wzrostów widoczności w Google i przeprowadziliśmy kolejną, tym razem udaną migrację sklepu EDAXO.
Tomasz Machała
Tomasz Machała
CEO Nocowanie.pl - Grupa WP
Z chłopakami z IF zrobiliśmy kilka dużych projektów – zarówno wydawniczych, jak i ecommercowych. Cenię założycieli i ich firmę za komunikatywność, rozumienie potrzeb biznesu, trzeźwe myślenie i wspieranie nas zawsze wtedy, gdy tego potrzebowaliśmy. Mocno rekomenduję.
Tomasz Bienias
Tomasz Bienias
OKR ekspert, właściciel OKRy.pl
Z założycielami agencji IF.PL uruchomiliśmy w Agorze całą gamę projektów i zmian, które trwały w sumie około 18 miesięcy. Wysiłek się opłacił. Dzięki zaangażowaniu i wykorzystaniu ekspertyzy panów, zwiększyliśmy ruch z Google praktycznie dwukrotnie.
Zaufali nam

Lubimy technologię, ale też ciasteczka! Dlatego nasza strona internetowa używa plików cookies (tzw. ciasteczka) w celach statystycznych, reklamowych oraz funkcjonalnych. Dzięki nim możemy indywidualnie dostosować stronę do Twoich potrzeb. Każdy może zaakceptować pliki cookies albo ma możliwość wyłączenia ich w przeglądarce, dzięki czemu nie będą zbierane żadne informacje. Więcej informacji znajdziesz w polityce prywatności dostępnej pod tym linkiem.

W porządku, akceptuję