Twój koszyk jest obecnie pusty!
Raport opublikowany w maju 2026 r. przez Google Threat Intelligence Group (GTIG) definitywnie kończy epokę teoretycznych rozważań o przyszłości bezpieczeństwa w sieci. Badacze po raz pierwszy udokumentowali przypadek, w którym aktywna grupa przestępcza użyła modelu językowego do zaplanowania i przeprowadzenia skutecznego ataku. System stworzył w pełni działający program atakujący, wykorzystujący tzw. lukę zero-day, czyli błąd w oprogramowaniu, o którym nikt wcześniej nie wiedział i na który nie ma jeszcze łatki. Co więcej, celem nie był trywialny błąd w kodzie, ale fundament dzisiejszego zaufania cyfrowego – mechanizm dwuskładnikowego uwierzytelniania (2FA), popularnego systemu, który oprócz hasła wymaga dodatkowego kodu z SMS-a lub aplikacji.
Model wykonał pracę, która dotychczas wymagała tygodni żmudnej analizy ze strony wysoko wykwalifikowanych inżynierów. Jak podsumował John Hultquist, główny analityk GTIG: „To już tu jest. Era odkrywania luk i eksploatacji napędzanej przez sztuczną inteligencję właśnie nadeszła”.
Ten incydent to bezpośredni dowód na to, że AI przestała być tylko asystentem pomagającym pisać wiadomości wyłudzające dane. Przejęła funkcję inżyniera, potrafiącego samodzielnie wykrywać i wykorzystywać skomplikowane błędy logiczne.
Zaledwie kilka tygodni wcześniej branżą technologiczną wstrząsnęła decyzja firmy Anthropic o wstrzymaniu publicznej premiery ich najnowszego modelu o nazwie Claude Mythos . Argumentowano, że narzędzie wykazuje zbyt niebezpieczne zdolności do wyszukiwania luk w systemach. Wielu analityków widziało w tym wyłącznie chwyt marketingowy i próbę zarządzania strachem. 12 maja firma OpenAI oficjalnie uruchomiła nową platformę Daybreak, opartą na dedykowanych modelach GPT-5.5. Pokazało to, że analityczne zdolności AI w obszarze ataków i obrony to nie jest tajemnica jednej korporacji, lecz nowy rynkowy standard. Doniesienia Google udowadniają, że ten standard jest już aktywnie i skutecznie wykorzystywany przez przestępców.
Jak działa maszyna
Aby w pełni pojąć wagę tego odkrycia, trzeba zrozumieć różnicę między tradycyjnymi programami do szukania luk a nowoczesnym modelem generatywnym. Dotychczasowe skanery szukały w kodzie znanych wzorców, literówek czy typowych błędów technicznych, jak źle zabezpieczone pola formularzy. Były jednak ślepe na szerszy kontekst.
System użyty w udokumentowanym ataku zaprezentował zupełnie inny poziom analizy. Nie szukał błędu w samej składni, ale „zrozumiał” architekturę systemu i intencje człowieka, który ten system programował. Przeanalizował zawiłą logikę logowania dwuetapowego i zauważył, że głęboko w kodzie kryją się sprzeczności dotyczące wyjątków, na przykład tego, jak system traktuje zaufane urządzenia. To, co odkrył, eksperci nazywają luką semantyczną: błąd nie polegał na tym, że kod był źle napisany, ale na tym, że sama logika działania systemu miała w sobie wewnętrzną sprzeczność. Model wykorzystał ją, by stworzyć cyfrowy wytrych i całkowicie ominąć autoryzację.
Skąd pewność analityków, że ten atak zaprogramowała maszyna, a nie wybitnie uzdolniony człowiek? Zdradziły go cyfrowe „odciski palców”. Skrypt był napisany jak podręcznikowy przykład: idealnie sformatowany, z rozbudowanymi komentarzami i pomocnym menu nawigacyjnym. Ludzcy autorzy exploitów piszą kod zwięźle i zorientowani są wyłącznie na cel. Ten wyglądał jak fragment materiałów treningowych. Zdradzała go też charakterystyczna dla modeli językowych halucynacja: dokumentacja odwoływała się do nieistniejącej punktacji w systemie oceny zagrożeń CVSS, którą algorytm po prostu wygenerował, by raport sprawiał wrażenie profesjonalnego audytu.
Zagrożenie w skali przemysłowej
Pojedynczy atak na system logowania to zaledwie początek problemu. Z raportu GTIG wynika, że do wyścigu włączyły się zorganizowane, państwowe grupy hakerskie dysponujące potężnymi budżetami . Analitycy wskazują na dwie z nich, które pokazują zupełnie różne, lecz równie niepokojące strategie.
Chińska grupa UNC2814 skupiła się na omijaniu wbudowanych blokad bezpieczeństwa w samych modelach językowych. Hakerzy instruowali system, by przyjął rolę „starszego audytora bezpieczeństwa”. Dzięki temu narzędzie bez oporów analizowało oprogramowanie popularnych ruterów domowych, takich jak TP-Link, szukając nieodkrytych dotąd wektorów ataku. Północnokoreańska APT45 obrała z kolei strategię brutalnej automatyzacji. Zamiast ręcznie szukać nowych błędów, zbudowała zautomatyzowane ramię operacyjne, które wysyła tysiące powtarzalnych zapytań rekurencyjnie analizujących znane już podatności w różnych systemach i weryfikujących, czy można się przez nie włamać. W ten sposób wywiad państwowy buduje gotowy arsenał przy niemal zerowym udziale ludzkich operatorów.
Nowe reguły gry
Przez lata, kiedy odkryto lukę, firmy miały dni lub tygodnie, aby stworzyć i wdrożyć aktualizację, zanim hakerzy nauczyli się tę lukę wykorzystywać. Dziś, dzięki modelom generatywnym, to okno czasowe znika. Jak stwierdził badacz bezpieczeństwa Himanshu Anand w komentarzu opublikowanym równolegle z raportem GTIG: „Kiedy dziesięciu niezwiązanych ze sobą badaczy znajduje ten sam błąd w ciągu sześciu tygodni, a AI potrafi zamienić patch w działający exploit w trzydzieści minut, co właściwie chroni to okno? Nikogo”.
To zjawisko eksperci nazywają Czasem Maszynowym. Algorytmy atakują w ułamkach sekund. Choć dzisiejsze systemy bezpieczeństwa również wykorzystują sztuczną inteligencję do wykrywania zagrożeń, na końcu łańcucha decyzyjnego wciąż najczęściej znajduje się człowiek. Analityk, który musi ręcznie przejrzeć wygenerowany alert i zatwierdzić reakcję, przegrywa wyścig z w pełni autonomicznym algorytmem atakującym, zanim jeszcze zdąży podjąć decyzję. Raport GTIG jest dowodem na to, że cyberobrona nie może już tylko „wspomagać się” sztuczną inteligencją pod nadzorem człowieka – musi stać się równie autonomiczna. Jak zauważył Hultquist: „Zagrożenia operujące w czasie maszynowym wymagają czegoś więcej niż obrony z prędkością ludzkiej reakcji”.





