Okiem eksperta: Hype się skończył, zaczyna się prawdziwa robota

Siedemdziesięcioletnia kobieta na spotkaniu ornitologicznym ostrzega koleżankę, że ChatGPT halucynuje. Prawnik pisze sobie własną aplikację AI. A ja po trzech latach pracy z niemal setką firm mogę Wam powiedzieć jedno: wreszcie przestaliśmy się zachłystywać i zaczęliśmy pracować.

Bartosz Dobrowolski

Pamiętacie ten okres, kiedy co tydzień ktoś publikował kolejny ranking, który model AI jest lepszy? Kiedy LinkedIn pękał od postów w stylu „AI zastąpi programistów, prawników i marketingowców do końca roku”? Ja jestem pragmatykiem i pisałem na ten temat posty, uczulałem, żeby nie wierzyć we wszystko co deklarują producenci. Wygląda na to, że to się kończy. I bardzo dobrze.

To, co obserwuję teraz w firmach, z którymi pracuję w CampusAI, to przede wszystkim rosnąca świadomość. Ludzie przestali się zachwycać bajerami i gadżetami. Zaczęli za to pytać o rzeczy, które naprawdę mają znaczenie: jak te narzędzia działają pod spodem, co się dzieje z danymi, które im przekazujemy i czy można im ufać.

Co ważne, nie jest to zmiana, którą widzę tylko w korporacjach czy wśród młodych entuzjastów AI. Byłem świadkiem rozmowy na spotkaniu ornitologicznym (tak, ptaki!), gdzie grupa emerytów dyskutowała o gatunku ptaka, którego zobaczyliśmy na pobliskim drzewie. Jedna z pań, około siedemdziesiątki, powiedziała, że opisała go i sprawdziła w ChatGPT. Druga, w podobnym wieku, odpowiedziała natychmiast: „Trzeba uważać, bo ChatGPT halucynuje i trzeba dobrze sprawdzać te informacje.” Nieźle, co? Seniorzy, którzy nie tylko korzystają z generatywnej AI, ale robią to świadomie i krytycznie. To jest prawdziwa zmiana społeczna, dużo głębsza niż cokolwiek, co widziałem na branżowych konferencjach.

Choćby godzina dziennie…

Zostawmy na chwilę wielkie wizje i porozmawiajmy o czymś konkretnym. Jeżeli ktoś posiądzie podstawowe umiejętności korzystania z narzędzi generatywnej AI i to nawet takich ogólnodostępnych jak ChatGPT, Google Gemini czy Anthropic Claude, to jest w stanie zaoszczędzić przynajmniej godzinę dziennie. Czasem dwie. Na pisaniu maili, draftów dokumentów, strukturyzowaniu myśli, przygotowywaniu prezentacji.

Co znaczy jedna marna godzina? Ok, policzmy. 

Jeśli masz w zespole 10 osób i każda zarabia 60PLN za godzinę to jeśli każdego dnia dzięki AI każda osoba oszczędzi tylko jedną godzinę, to właśnie patrzymy na oszczędność rzędu 600PLN dziennie…, a więc tygodniowo to już 4800 PLN. Niewiele?

W takim razie jeśli nie nauczysz ludzi używać skutecznie AI w pracy to kwartalnie tracisz ponad 57 000 PLN na ręczne klikanie, pisanie, research i analizę, czyli zadania, które proste narzędzia AI w rękach wyedukowanych ludzi mogą zrobić znacznie skuteczniej i często lepiej. Ja oszczędzam ponad godzinę dziennie…

Weźmy ten artykuł, który właśnie czytacie. Powstał w dość nietypowy sposób. Przeprowadziłem wywiad sam ze sobą – nagrałem swoje myśli w narzędziu do transkrypcji Fireflies, wrzuciłem tekst do Claude’a, żeby pomógł mi stworzyć pierwszą strukturę. A potem usiadłem i pracowałem nad tekstem sam, dopracowując detale, sprawdzając fakty, dbając o to, żeby brzmiał jak ja. Jeszcze raz, żeby to było jasne. To nie jest artykuł napisany przez AI. Jedno narzędzie zamieniło mój potok słów w tekst. Drugie to uporządkowało, usunęło powtórzenia, posprzątało i stworzyło strukturę. Finalny tekst pisałem ja. 

I to jest dokładnie ten model, który widzę u coraz większej liczby ludzi wokół mnie. AI jako supermoc, nie jako zastępstwo. Narzędzie, które pomaga ruszyć z miejsca, stworzyć strukturę, zebrać informacje, przygotować szkielet – po to, żeby potem człowiek wziął to w swoje ręce i zadbał o jakość. To jest to, co w CampusAI promujemy od początku. Sztuczna inteligencja ma wzmacniać to, co człowiek potrafi zrobić dobrze, a nie go zastępować. Tam gdzie ktoś wchodzi w obszar, na którym się nie zna i algorytm go zastępuje (lenistwo), nie dzieje się nic dobrego. 

Vibe coding, czyli programowanie dla…nieprogramistów

Jest jedna zmiana, która fascynuje mnie szczególnie bo z wykształcenia jestem inżynierem oprogramowania. Dzięki narzędziom do tak zwanego vibe codingu ludzie, którzy nigdy nie napisali linijki kodu, tworzą teraz działające aplikacje. Pomysł staje się prototypem w kilka godzin (a czasem nawet w kwadrans). Prototyp szybko staje się narzędziem, które zespół zaczyna używać następnego dnia.

Znam osobiście prawników, którzy napisali sobie własne narzędzia do analizy umów. Mój znajomy audytor (pozdrawiam Panie Piotrze) zbudował sobie narzędzia do analizy ogromnych zbiorów dokumentów ISO i raportów audytowych, na których spędzał dotąd godziny. Znam ludzi z marketingu, którzy zbudowali aplikacje automatyzujące ich codzienną pracę. Kilka lat temu to było nie do pomyślenia, bo albo trzeba było na to dużo czasu, ludzi, albo dużo pieniędzy. Dziś potrzeba przede wszystkim ciekawości i kilku godzin z odpowiednim narzędziem.

Agenci AI. Obiecujący, ale jeszcze za wcześnie na pełną autonomię

Systemy agentowe rozwijają się w zawrotnym tempie. Coraz więcej firm tworzy rozwiązania integrujące się z aplikacjami, których używamy na co dzień. Narzędzia takie jak Anthropic Claude Code czy n8n pokazują, dokąd to wszystko zmierza. Rok 2025 był zapowiadany jako “rok agentów AI” ale okazało się, że był to był rok przygotowań do prawdziwej rewolucji, która – wszystko na to wskazuje – rozpocznie się w roku 2026!

Ale (i to jest ważne „ale”) jeszcze nie jesteśmy w punkcie, gdzie zawsze można puścić kierownicę. Zaufanie do tych systemów rośnie powoli – i słusznie, bo halucynacje, błędy interpretacji i nieprzewidywalne wyniki to wciąż codzienność. Wiele automatyzacji, które wcześniej opierały się na prostych warunkach „jeśli X to Y”, dziś z powodzeniem realizują systemy agentowe, ale w istotnych obszarach zawsze pod ludzkim nadzorem. Minie jeszcze trochę czasu, zanim będziemy mogli zostawić je działające bez opieki w krytycznych procesach, ale obietnica jest kusząca, bo zwrot z inwestycji będzie ogromny.

Nie mam ulubionego narzędzia. I to jest OK!

Często dostaję na LinkedIn pytania, jakiego narzędzia AI używam. Odpowiedź jest prosta: wielu, w zależności od zadania. Funkcjonalności tych narzędzi zmieniają się z tygodnia na tydzień. Co chwilę któryś producent zaskakuje czymś świetnym albo niestety rozczarowuje (ostatnio nawet częściej), degradując funkcję, z której właśnie korzystałem…a rozwijając inną, która nie ma dla mnie znaczenia…ale ma dla inwestorów. 

Anthropic Claude jest moim pierwszym i bezkonkurencyjnym wyborem do pisania tekstów, bo pisze naturalnie i mniej „plastikowo” niż konkurencja. Google Gemini świetnie integruje się z pakietem biurowym Google i bardzo lubię ich Canvas, które jest świetne do dłuższych form. ChatGPT z kolei jest naprawdę dobry w researchu i syntetyzowaniu informacji i robi to bardzo szczegółowo i porządnie…choć trzeba wiedzieć jak pytać! Nie trzeba płacić za wszystkie na raz, bo przecież można przełączać się między subskrypcjami z miesiąca na miesiąc…, chociaż kosztem tego co zostało w historii czatu, niestety. 

Ciemna strona: “AI Slop” i kryzys wiarygodności

Na początku wspomniałem, że jestem pragmatykiem. Jestem też realistą. Fascynuje mnie technologia i innowacje ale, żeby być fair, muszę powiedzieć też o tym, co mnie martwi. Natura ludzka opiera się na lenistwie… lub – jak ktoś powiedział – na “optymalizacji zużycia energii”. Dostępność narzędzi AI sprawia, że ludzie idą na skróty. Internet zalewa fala treści generowanych od A do Z przez AI – tekstów, grafik, filmów, które wyglądają profesjonalnie, ale nie wnoszą żadnej wartości. Zjawisko ma już swoją nazwę: AI slop. 

Sam stałem się przez to dużo bardziej podejrzliwy i każdy obrazek, tekst, video oglądam z dużą uwagą. Sprawdzam informacje dokładniej niż kiedykolwiek, co zabiera więcej czasu i utrudnia codzienne korzystanie z mediów. Zrezygnowałem z większości mediów społecznościowych (żegnaj bez żalu Instagramie!), bo zmęczył mnie generowany przez AI content, którego jedynym celem jest budowanie zachwytu albo oburzenia czyli silnych emocji, które mają mnie zatrzymać na platformie jak najdłużej.

Narzędzia do generowania wideo jak Google Veo czy Kling tworzą niezwykle realistyczne materiały w kilka minut. Ok to (przerażająco) wspaniałe technologicznie, ale efektem ubocznym jest to, że wielu kreatywnych ludzi traci pracę, bo wymagania konsumentów spadły. Zadowalamy się treściami, które trudno nawet nazwać kreatywnymi, bo jedyne co dają to tanie źródło dopaminy i czas na “niemyślenie”. Może jestem naiwny, ale wierzę w renesans prawdziwej ludzkiej kreacji. Dobry content obroni się, bo będziemy potrzebowali prawdy. Obroni się, chociaż prawdopodobnie będzie kosztował znacznie więcej niż ten wygenerowany przez AI. Tak, to już widać, że media chcą pobierać opłaty za artykuły pisane przez ludzi, a za darmo dają nam AI slop zmieszany z reklamami. Smutne, ale taka jest cena postępu. To też się w pewnym momencie ureguluje.

Jest jeszcze kwestia bezpieczeństwa. AI w rękach niewłaściwych ludzi to potężne narzędzie do phishingu, wyłudzania informacji i manipulacji. To realne zagrożenie, o którym trzeba mówić głośno i to szczególnie w kontekście szkolenia pracowników.

Co bym Wam poradził?

Przede wszystkim: budujcie w sobie ciekawość. Ja, jako praktyk technologiczny z ADHD, mam łatwiej. Rzucam się z ciekawością na wszystkie nowości, badam je, uczę się, sprawdzam możliwości. Wy także testujcie różne narzędzia, eksplorujcie, sprawdzajcie ich granice. To jest naprawdę najlepszy sposób, żeby wiedzieć czego można się po nich spodziewać. Czasami zadania, które wykonujecie codziennie, naprawdę można zrobić szybciej i lepiej z AI, ale trzeba mieć otwartą głowę, żeby wpaść na pomysł jak to zrobić. Nie zawsze jest to oczywiste. Ciekawość!

Szkolcie swoje zespoły. Poważnie. Cały czas obserwuję, że podstawowe umiejętności korzystania z generatywnej AI są na zbyt niskim poziomie. Firmy narażają się na utratę wiarygodności i reputacji, bo pracownicy nie potrafią zadbać o jakość tworzonych materiałów. Pamiętacie przypadek Deloitte w Australii, która wypuściła do klienta dokumenty wyhalucynowane przez AI? To nie powinno mieć miejsca szczególnie w firmie tej klasy. Zabrakło szkoleń, zabrakło zmiany systemu kontroli jakości. Zmiana to proces. Ten proces nazywa się “adopcja innowacji”. 

2026 to będzie rok pragmatyzmu. Mam nadzieję!

Moim zdaniem rok 2026 to rok pragmatycznego podejścia do generatywnej AI. Jesteśmy (wszyscy, my techniczni także) zmęczeni obietnicami szytymi pod inwestorów i kolejnymi wersjami narzędzi mającymi zachwycić media mainstreamowe i mieszać w telewizjach śniadaniowych. Koniec sensacji, koniec zachłystywania się kolejnymi benchmarkami. Staliśmy się bardziej świadomi, bardziej wrażliwi na bezpieczeństwo, bardziej wymagający wobec twórców narzędzi.

Obserwuję jednak, że w wielu firmach brakuje usystematyzowanej edukacji i angażowania pracowników w mądre wykorzystywanie sztucznej inteligencji. A to ogromna rola managementu, który powinien być przykładem. Bo jeśli szef nie używa AI świadomie, codziennie, mądrze, to dlaczego mieliby to robić jego ludzie?

Ekspert transformacji cyfrowej i Head of AI Enablement w CampusAI. Od ponad 20 lat doradza firmom w budowaniu wartości wokół nowych technologii. Konsultant, trener, praktyk i mówca TEDx. Szkoli menedżerów i projektuje oraz wdraża procesy adopcji innowacji i narzędzi opartych o generatywną AI.

Podziel się

Może Cię zainteresować