93% deklaruje, że używa AI. W rekrutacji widzę ~20%

Cześć Piotr!

 

 

Intensywny tydzień za mną - rekrutacja, webinary, budowanie narzędzi AI w zespole. I jedno mocne zderzenie z rzeczywistością, o którym za chwilę.

 

W tym wydaniu dużo o tym, jak wygląda adopcja AI naprawdę - nie w raportach, a w praktyce.

W tym wydaniu

  • Co u mnie - rekrutacja, narzędzia AI w zespole, nowe projekty
  • Quick Win - jak dać zespołowi gotowe AI, zamiast mówić "korzystajcie"
  • Prompt tygodnia - 5 elementów, żeby AI dawał powtarzalne wyniki
  • Business Case - ConvertKit -> Mautic: jak oszczędzamy ~$350/mies na emailach
  • Newsy z rynku - Model Rush (7 modeli w miesiąc), paradoks produktywności, Spotify i Claude, Martin Fowler ostrzega, egzoszkielet vs broń
  • Hot Take - o płytkiej wiedzy i gigantycznej szansie

Co u mnie

Rekrutacja i zderzenie z rzeczywistością

Szukam ludzi do zespołu - developera i asystentkę/PM. 60 zgłoszeń, kilkanaście rozmów. Rynek jest... ciekawy.

Największe zaskoczenie? Luka w AI skills. Nawet wśród deweloperów - ludzi, którzy teoretycznie powinni być najbardziej na bieżąco - może 20% realnie korzysta z narzędzi AI w codziennej pracy. Nie mówię o "znam ChatGPT". Mówię o: używam tego jako codziennego narzędzia, wiem kiedy model halucynuje, potrafię napisać prompt, który daje powtarzalny wynik.

To nie jest krytyka kandydatów. To obserwacja rynku. I jednocześnie - gigantyczna szansa. Bo jeśli zainwestujesz teraz w budowanie AI-first mindset w zespole, będziesz miał przewagę, której większość firm nie ma.

Z kursantami regularnie omawiamy jak to robić lepiej - jakie narzędzia wdrożyć, jak uczyć ludzi myśleć "AI-first", jak mierzyć postęp.

Narzędzia AI w zespole

W wPraktyce.AI wdrażamy coś, co zaczęło się od naszych własnych potrzeb, a teraz trafia do zespołu. Mamy gotowe komendy w Claude Code i automatyzacje n8n - od analizy spotkań, przez generowanie treści, po QA kodu. Cel: zachować jakość i mocno przyspieszyć procesy.

Klucz to nie "dajcie ludziom dostęp do ChatGPT". Klucz to gotowe, przetestowane przepływy pracy, które zespół uruchamia jednym poleceniem. Wtedy adopcja to nie kwestia motywacji - to kwestia infrastruktury.

Przy okazji - budujemy też platformę diagnostyki biznesowej (BizCheck - diagnoza firmy w 5 obszarach, benchmark branżowy, lista priorytetów, 15 minut). A ze spotkań i webinarów zbieramy najczęstsze pytania - powstaje z tego materiał, który powinien rozwiać sporą część wątpliwości. O obu dam znać wkrótce.

Quick Win tygodnia: daj zespołowi gotowe AI, nie "narzędzie"

Największy błąd przy wdrażaniu AI w firmie? "Macie licencję na ChatGPT, korzystajcie."

To nie działa. Ludzie nie wiedzą od czego zacząć, piszą słabe prompty, rozczarowują się wynikami i wracają do starych metod.

Co zrobić zamiast tego:

  1. Wybierz jeden proces który powtarza się w zespole (np. odpowiedź na zapytanie klienta, podsumowanie spotkania, brief projektu)
  2. Napisz gotowy prompt/template który daje dobry wynik za każdym razem
  3. Daj zespołowi - nie "spróbujcie AI", tylko "otwórz ten template, wklej dane, dostaniesz wynik"

My robimy to z gotowymi komendami w Claude Code - jedno polecenie uruchamia cały przepływ. Ale nawet zwykły dokument "Gotowe prompty do [X]" w Google Docs zmieni grę.

Czas: ~30 min na jeden proces

Efekt: adopcja z 20% do 80% - bo usuwasz barierę wejścia

Prompt tygodnia: 5 elementów powtarzalnych wyników

Dostajesz od AI inny wynik za każdym razem? Oto checklista, która to naprawia:

1. Rola + kontekst

"Jesteś analitykiem finansowym. Przygotowujesz raport dla zarządu firmy produkcyjnej."

Nie: "Podsumuj dane."

2. Format wyjścia (structured output)

"Odpowiedz w formacie JSON / tabeli / listy 5 punktów z nagłówkiem i opisem max 2 zdania."

Im precyzyjniej opiszesz strukturę, tym bardziej powtarzalny wynik.

3. Przykład (few-shot)

"Oto przykład dobrego wyniku: [wklej wzór]. Zachowaj ten styl i strukturę."

Jeden przykład = 10x lepsza spójność.

4. Ograniczenia

"Max 200 słów. Nie używaj żargonu. Nie dodawaj wstępu ani podsumowania. Pisz w 2. osobie."

Powiedz czego NIE robić - to równie ważne jak to, co robić.

5. Temperatura - ale uwaga

W standardowych modelach temperatura 0 = maksymalna powtarzalność. 0.7+ = więcej kreatywności.

Ale: modele reasoningowe (Gemini 3 Deep Think, GPT-5.2, Claude z extended thinking) mają temperaturę zablokowaną. Nie da się jej zmienić - model sam kontroluje proces "myślenia". To nie bug, to feature.

Gotowy szablon do skopiowania:

Rola: [kim jesteś, dla kogo pracujesz]
Zadanie: [co konkretnie zrobić]
Kontekst: [dane wejściowe, sytuacja]
Format: [JSON / tabela / lista / tekst max X słów]
Przykład: [wzór dobrego wyniku]
Ograniczenia: [czego NIE robić, styl, długość]

Sprawdza się w: Claude, GPT, Gemini - wszędzie tam, gdzie potrzebujesz spójnych wyników.

Business Case mini: ConvertKit -> Mautic

Klienci coraz częściej pytają o koszty email marketingu na skali. "Płacę $300 miesięcznie za MailChimp, a lista rośnie." Znam ten problem - sam go miałem.

Nasz case:

  • Lista: 40 000 kontaktów
  • ConvertKit: ~$400/mies (i rosło z każdym tysiącem)
  • Mautic (self-hosted): VPS za mniej niż 100 PLN/mies

Oszczędność: ~$350/mies = ~$4 200/rok

Ale to nie tylko pieniądze. Mautic to pełna kontrola - dane u siebie, custom automation flows, zero limitu na kontakty, integracja z czym chcesz.

Był wysiłek na starcie? Tak. Migracja, konfiguracja, nauka nowego narzędzia - to nie jest "kliknij i działa". Ale po 2–3 tygodniach setup jest gotowy, automatyzacja robi swoje, a każdy kolejny miesiąc to czysty zysk.

Lekcja: automatyzacja kosztuje na wejściu. Ale im dłużej działa, tym bardziej się opłaca - i koszty, i efekty, i elastyczność.

Newsy z rynku

Lutowy "Model Rush" - 7 modeli w jednym miesiącu

Luty 2026 przejdzie do historii. Gemini 3, Claude Sonnet 4.6, GPT-5.3, Llama 5, Qwen 3.5, DeepSeek v4, GLM-5 - siedem dużych modeli niemal jednocześnie.

Najważniejsze zmiany:

  • Konteksty 1M–2M tokenów stają się standardem (Llama 5: 2M, Claude/Gemini: 1M)
  • Open-source dogania closed-source - Llama 5 (Apache 2.0) osiąga GPT-5-level wydajność przy 40% mniejszym compute
  • OpenAI wycofuje GPT-4o z ChatGPT - GPT-5.2 staje się domyślny. Jeśli masz integracje - czas na migrację

Co z tego dla nas: Nie gońcie za każdym modelem. Wybierzcie jeden use case i przetestujcie 2–3 modele na SWOIM zadaniu. To jedyny test, który ma sens.

Źródła: Model Rush Analysis | Claude Sonnet 4.6 | Llama 5 | Wycofanie GPT-4o

Paradoks produktywności - 93% adopcji, 10% wzrost

Trzy niezależne źródła (HBR, Fortune, ShiftMag) mówią to samo: masowa adopcja AI nie przekłada się na proporcjonalne wzrosty produktywności.

Dane: 93% deweloperów deklaruje użycie AI, ale realne wzrosty produktywności to ~10% i nie rosną od Q2 2025. HBR wskazuje na trzy mechanizmy: bierzemy więcej zadań ("AI to umożliwia"), zacierają się granice praca–życie, rośnie multitasking.

Europejskie badanie CEPR dodaje klucz: szkolenia pracowników dają 5.9pp dodatkowego efektu - więcej niż sama technologia. Nie narzędzie robi różnicę. Umiejętność korzystania z niego.

Co z tego dla nas: to potwierdza moje obserwacje z rekrutacji. Adopcja nie równa się umiejętność. "Mam ChatGPT" nie równa się "potrafię z niego korzystać". Firmy, które inwestują w szkolenia, wygrywają.

Źródła: HBR | Fortune | ShiftMag | CEPR

Spotify: najlepsi devs nie napisali linii kodu od grudnia

Spotify twierdzi, że ich najlepsi deweloperzy używają Claude do całości kodowania od grudnia 2025. Zero ręcznego kodu.

Co z tego dla nas: To skrajny przypadek, ale kierunek jest jasny - rola programisty przesuwa się z "pisania kodu" na "projektowanie i weryfikowanie tego, co pisze AI". Umiejętność czytania i recenzowania kodu staje się ważniejsza niż pisanie go.

Źródło: Reddit r/ClaudeAI

Martin Fowler: AI to "akcelerator długu" bez dobrych praktyk

Legenda software engineeringu ostrzega: AI bez TDD i dobrych praktyk generuje dług techniczny szybciej niż kiedykolwiek. Zdrowy codebase = 30% mniej AI-generowanych defektów. Ciekawy trend: specjaliści tracą na rzecz generalistów.

Co z tego dla nas: AI nie zastąpi dyscypliny. Jeśli Twój kod nie ma testów - AI tego nie naprawi. Tylko przyspieszy tworzenie bałaganu.

Źródło: martinfowler.com

AI jako egzoszkielet - nie jako autonomiczny agent

Najlepszy artykuł tygodnia w kategorii "jak myśleć o AI". Firmy, które traktują AI jako autonomicznego agenta, rozczarowują się. Te, które traktują go jako wzmacniacz ludzkich możliwości - transformują się.

Analogia: Ford wdrożył fizyczne egzoszkielety (EksoVest) i zanotował 83% spadek urazów. Człowiek wciąż decyduje co podnieść - ale robi to bez niszczenia kręgosłupa.

Recepta: dekomponuj zadania (nie role), buduj mikro-agentów do jednej funkcji, trzymaj człowieka w pętli decyzyjnej.

Co z tego dla nas: Dokładnie tak podchodzimy do automatyzacji. Nie "AI zrobi twoją pracę". Tylko "AI da ci supermoc w tym, co robisz".

Źródło: kasava.dev

Hot Take

93% deweloperów deklaruje, że używa AI. W mojej rekrutacji - realnie ~20%. A ci 20%? Większość wpisuje "napisz mi mail" i uważa, że to adopcja.

Wiedza jest płytka. Dramatycznie płytka. Ludzie "używają AI" jak kalkulator - do prostych rzeczy, bez zrozumienia co to narzędzie naprawdę potrafi.

Ale wiecie co? To jest gigantyczna szansa. Właśnie teraz - kiedy większość stoi w miejscu - inwestycja w głęboką adopcję daje nieproporcjonalną przewagę. Nie "mam dostęp do narzędzia". Ale "wiem jak z nim pracować, mam gotowe procesy i mój zespół korzysta z tego codziennie".

Ten wyścig wygrywa nie ten, kto ma najlepszy model. Tylko ten, kto najlepiej go wykorzystuje.

Mam do ciebie pytanie. I to nie retoryczne.

 

Jedno pytanie o AI lub automatyzacji, które nie daje ci spokoju.

 

Coś, co próbujesz rozwiązać. Coś, co cię blokuje. Coś, o czym myślisz pod prysznicem.

 

Odpowiedz na tego maila jednym zdaniem. Nie musi być mądre ani precyzyjne.

 

Dlaczego pytam? Bo te pytania - wasze, z webinarów, z konsultacji - to najlepsza mapa tego, co naprawdę jest ważne. Małe pytania - odpowiem osobiście. Duże - może zrobię z nich coś, co pomoże większej liczbie osób.

 

Czekam. Dzięki!