Słyszę to codziennie. Ktoś otwiera okienko czatu i wpisuje: „Napisz mi strategię marketingową”. Dostaje trzy akapity generycznego bełkotu, który brzmi jak wyciąg z podręcznika dla pierwszego roku zarządzania, po czym triumfalnie ogłasza: „Próbowałem, to AI jest głupie. Do niczego się nie nadaje”.
Nie, to nie AI jest głupie. To my jesteśmy leniwi.
- wersja audio tego tekstu
Przez ostatnie 20 lat przyzwyczailiśmy się do Google. Nauczyliśmy się rzucać w wyszukiwarkę krótkie, niechlujne hasła, oczekując, że ona odgadnie, o co nam chodziło. I teraz próbujemy robić to samo z modelami językowymi.
To pułapka!
Prompt to nie jest „pytanie”. Prompt to jest instrukcja. To jest specyfikacja techniczna dla zadania, które zlecasz. Wyobraź sobie, że zatrudniasz genialnego, niesamowicie szybkiego stażystę, który przeczytał cały internet, ale nie ma absolutnie żadnego pojęcia o twojej firmie, twoich celach, twoim szefie i projekcie, który właśnie próbujesz dowieźć. Jeśli rzucisz mu na biurko kartkę „zrób strategię”, to on ci zrobi… jakąś strategię.
Musisz przestać go pytać. Musisz zacząć go instruować.
Cztery rzeczy, które zmienią wszystko
Nauczyłem się tego ostatnio na szkoleniu potem Wam się nim pochwale. Jeśli chcesz przestać dostawać śmieciowe odpowiedzi, zacznij od tego.
Po pierwsze: Magia wcielania w rolę
Pierwsze, co robię w 90% przypadków, to nadaję modelowi tożsamość. Przestałem prosić „napisz mi maila do klienta”, a zacząłem pisać:
Jesteś seniorem account managerem z 10-letnim doświadczeniem w branży SaaS B2B. Masz bardzo dobre relacje z klientem, ale musisz mu stanowczo, choć uprzejmie, zakomunikować, że dodatkowa funkcjonalność X wykracza poza zakres umowy i będzie wymagała dodatkowej wyceny. Zachowaj profesjonalny, ale ciepły ton.
Rozumiesz różnicę? To nie jest żadne voodoo. Kiedy mówisz AI, kim jest, tak naprawdę zawężasz mu statystyczną przestrzeń poszukiwań. Zamiast szukać odpowiedzi w „całym internecie”, on zaczyna dobierać słowa i konstrukcje typowe dla „doświadczonego managera”.
Po drugie: Pokaż, zamiast opowiadać
To mój ulubiony nowo nauczony trik, zwłaszcza gdy potrzebuję danych w konkretnym formacie. Ludzie tracą czas na opisywanie: „Poproszę odpowiedź w formacie JSON, gdzie pierwszy klucz to 'name’, drugi to 'status’, a status może być 'active’ lub 'inactive’…”.
Nie rób tego. AI jest mistrzem w rozpoznawaniu wzorców. Po prostu mu pokaż:
„Przekształć poniższe dane w format JSON według wzoru.
Przykład: Wejście: Jan Kowalski (Aktywny) Wyjście: {„user”: „Jan Kowalski”, „status”: „active”}
Twoje zadanie: Wejście: Anna Nowak (Nieaktywny) Wyjście:
On załapie w sekundę. Oszczędzasz czas i dostajesz idealnie to, czego chciałeś. Nazywa się to Few-Shot Prompting i jest absolutnie genialne do parsowania logów, formatowania danych czy generowania kodu.
Po trzecie: AI jako twój osobisty „kreator promptów”
W „po drugie” kłamałem to jest mój najbardziej ulubiony trik i najczęściej go używam. Czasami sam nie wiem, jak najlepiej o coś zapytać. Wtedy używam AI przeciwko niemu samemu. To się nazywa Meta-Prompting.
Chcę napisać prompt, który wygeneruje mi 5 kreatywnych pomysłów na kampanię reklamową nowego napoju energetycznego dla programistów. Mój obecny prompt to: 'Daj mi pomysły na reklamę’. Jest za słaby. Pomóż mi stworzyć prompt, który będzie zawierał instrukcje dotyczące grupy docelowej, pożądanego tonu (lekko ironiczny, branżowy) i kluczowych korzyści (skupienie, brak cukru).
Model sam podpowie ci, jak powinieneś go zapytać, żeby dostać lepsze wyniki. To trochę jakby narzędzie przyszło z własnym instruktorem.
Po czwarte: Super-moc: „Myśl krok po kroku”
To jest najważniejsza technika, jeśli mierzysz się ze złożonym problemem. Modele AI mają tendencję do „strzelania” z odpowiedzią. Jeśli dasz im zadanie matematyczne albo logiczne, często palną głupotę, bo próbują od razu podać wynik końcowy.
Sekret polega na tym, by zmusić je do pokazania procesu myślowego.
Jeśli mam skomplikowany błąd w kodzie, nie pytam „jak to naprawić?”. Pytam: „Przeanalizuj ten błąd. Myśl krok po kroku. Krok 1: Zidentyfikuj, co oznacza ten błąd. Krok 2: Wskaż prawdopodobne linie kodu, które go powodują. Krok 3: Zaproponuj 3 możliwe sposoby naprawy i wyjaśnij ich wady i zalety.”
To, co się wtedy dzieje, jest fascynujące. Model, generując kolejne kroki, sam sobie tworzy nowy kontekst. Każdy kolejny krok bazuje na poprzednim. To radykalnie podnosi jakość odpowiedzi i pozwala wyłapywać błędy w jego własnym „rozumowaniu”.
Dlaczego to w ogóle działa?
Musisz porzucić myślenie, że AI „rozumie” świat. Tak nie jest. To jest, w ogromnym uproszczeniu, najbardziej rozbudowane autouzupełnianie na świecie. To pojazd, który na podstawie miliardów tekstów przewiduje, jakie słowo ma statystycznie największe szanse pojawić się jako następne.
Twój prompt to nic innego jak ustawienie kursu dla tego pojazdu.
- Kiedy dajesz mu rolę („Jesteś prawnikiem”), to tak jakbyś mówił mu: „Od teraz bierz pod uwagę tylko te statystyki, które znalazłeś w tekstach prawniczych”.
- Kiedy dajesz mu przykład (Few-Shot), mówisz: „Nieważne, co jest najbardziej prawdopodobne globalnie. W tej chwili masz się trzymać dokładnie tego wzorca„.
- Kiedy każesz mu myśleć krok po kroku (Chain-of-Thought), nie pozwalasz mu iść na skróty i zgadywać, tylko zmuszasz go do powolnego budowania odpowiedzi, token po tokenie, gdzie każdy nowy token jest ugruntowany w poprzednim.
Zacznij eksperymentować.
W sieci krążą teraz „checklisy idealnego promptu”. Ludzie sprzedają kursy z „50 magicznych formułek”. Prawda jest taka, że nie ma jednej magicznej formułki.
Jedyne, co się liczy, to iteracja.
Moja praca z AI nigdy nie wygląda tak, że piszę jeden idealny prompt i dostaję idealną odpowiedź. Mój proces to:
- Piszę szybki, brudny prompt, żeby zobaczyć, „gdzie w ogóle jest model”.
- Dostaję odpowiedź (zazwyczaj średnią).
- Analizuję: Dlaczego odpowiedział w ten sposób? A, bo nie dałem mu kontekstu.
- Poprawiam prompt: „OK, spróbuj jeszcze raz, ale jesteś analitykiem danych i skup się na trendach z ostatnich 6 miesięcy.”
- Dostaję lepszą odpowiedź, ale format jest do bani.
- Poprawiam prompt: „Dobrze, teraz sformatuj to jako Markdown, w formie tabeli.”
- Dopiero za trzecim, czwartym razem mam to, czego potrzebuję.
To nie jest rzucanie zaklęć. To jest inżynieria. To jest proces kalibracji narzędzia.
Jeśli wciąż jesteś sfrustrowany wynikami, które dostajesz: przestań winić narzędzie. Zacznij pisać lepsze instrukcje.

