AI 2025: rok rozliczania obietnic

2025 był rokiem, w którym skończyła się „bajka” o AI. Technologia weszła na stałe do domów i firm, co wywołało zwykłe w takich sytuacjach problemy: wyzwania skali, kosztów, regulacji i użycia w sposób, który jest daleki od intencji twórców.

Krzysztof Mirończuk

Loading the Elevenlabs Text to Speech AudioNative Player…

Rok 2025 nie zapisał się w historii sztucznej inteligencji jednym spektakularnym momentem. Nie było jednej premiery, która na nowo ustawiłaby globalną narrację. Zamiast tego wydarzyło się coś znacznie mniej efektownego, ale fundamentalnego. AI przestała być opowieścią o potencjale, a zaczęła być rozliczana z efektywności.

Wraz z końcem etapu niekończących się testów AI stała się podstawą wielu działań, na równi z infrastrukturą. A infrastruktura musi działać stabilnie, przewidywalnie i w skali.

Od eksperymentów do biznesu

Zmianę tę najlepiej widać w biznesie. AI przestała być ciekawostką działów innowacji, a zaczęła pojawiać się w budżetach operacyjnych.

– Rok 2025 był dla sztucznej inteligencji rokiem przejścia od eksperymentów do rzeczywistości biznesowej. Prawie połowa amerykańskich przedsiębiorstw płaci już za narzędzia AI – wobec zaledwie 5% w 2023 roku. To nie jest już technologia jutra, to infrastruktura dnia dzisiejszego – mówi prof. Dariusz Jemielniak z Akademii Leona Koźmińskiego, członek Rady Programowej CampusAI.

Ten obraz potwierdzają dane ze Stanford AI Index 2025, który pokazuje, że generatywna AI jest najszybciej adoptowaną technologią w historii tego badania, a skala jej wdrożeń produkcyjnych rośnie szybciej niż w przypadku internetu czy smartfonów. Podobne wnioski przynosi raport McKinsey State of AI 2025, wskazujący, że ponad 70% dużych organizacji na świecie wykorzystuje AI w realnych procesach biznesowych.

Partner w nauce

Rok 2025 przyniósł także istotne przesunięcie w tym, gdzie AI jest wykorzystywana. Przestała być wyłącznie narzędziem biurowym.

– Po pierwsze, AI stała się partnerem w badaniach naukowych. Systemy takie jak DeepMind’s Co-Scientist czy Stanford’s Virtual Lab autonomicznie formułują i testują hipotezy. AlphaFold, którego twórcy otrzymali Nagrodę Nobla, przekształca biologię strukturalną – mówi Dariusz Jemielniak. – Po drugie, weszliśmy w erę agentów – systemów AI, które nie tylko odpowiadają na pytania, ale podejmują działania: kupują, negocjują, zarządzają procesami.

Według analiz OECD AI coraz częściej pełni rolę kluczowego elementu procesu badawczego, skracając cykle odkryć i obniżając bariery wejścia do zaawansowanych projektów. Symbolicznym przykładem tej zmiany pozostaje wspomniany AlphaFold z bazą ponad 200 milionów struktur białek udostępnionych naukowcom na całym świecie.

Dojrzałość i konkurencja

Rok 2025 był także rokiem bardzo szybkiego dojrzewania modeli i intensywnej konkurencji między dostawcami.

Jak podkreśla Mikołaj Sznajder, Head of AI Business Advisory w CampusAI:

– Najważniejszym wydarzeniem 2025 roku był niesamowity rozwój modeli przy jednoczesnym wzroście korzystania z AI przez ludzi. Przeszliśmy drogę od systemów, które dużo halucynowały, do narzędzi, które możemy (nadal z ograniczonym zaufaniem, ale jednak) wykorzystywać do codziennej pracy. Zapewne do tego przyczynił się znaczny wzrost konkurencji i ciągłe przetasowania na pozycji lidera – mocny początek roku zapewniła premiera chińskiego DeepSeeka R1 (aż trudno uwierzyć, że minął dopiero rok), który przez chwilę nawet spowodował zwątpienie w gigantyczne inwestycje w AI. Natomiast stały, stabilny wzrost przez cały rok przypadł Google’owi, który ulepsza swoje modele i integruje w dotychczasowy ekosystem, zmuszając konkurencję do wytężonej pracy, wywołując na koniec roku w OpenAI wręcz „CodeRed”.

Ta silna konkurencja spowodowała jeszcze jedną istotną zmianę. Jak pokazuje Stanford AI Index – mimo marketingowych deklaracji nastąpiło jednak spowolnienie tempa poprawy benchmarków jakościowych przy jednoczesnym gwałtownym spadku kosztów. To dzięki temu AI stała się powszechnie dostępna.

Zacieranie granic i powszechność

To, że modele jakościowo rozwijają się wolniej nie znaczy, że stoimy w miejscu. Wręcz przeciwnie. Pod koniec 2025 roku coraz trudniej odróżnić treści tworzone przez ludzi od tych generowanych przez AI – zauważa Mikołaj Sznajder:

– Obecnie ludzie jeszcze wciąż szczycą się tym, że potrafią rozpoznać treści generowane przez AI, jednak widać, że zdarza się to coraz rzadziej, bo sami twórcy modeli starają się dbać, aby wpadek było jak najmniej. Najnowsze modele piszą coraz bardziej naturalnie i omijają charakterystyczne znaki rozpoznawcze.

Jednocześnie AI stała się narzędziem codziennego użytku.

– Rok 2025 to także wprowadzenie AI pod przysłowiowe strzechy. Właściwie trudno już spotkać osobę, niezależnie od wieku, która nie próbowałaby chociaż raz skorzystać z AI i nie sięga co najmniej od czasu do czasu po poradę do chatbota zamiast do wyszukiwarki. – dodaje Sznajder.

Ten trend potwierdzają dane Pew Research Center które pokazują, że w latach 2024–2025 większość użytkowników internetu w USA miała kontakt z AI jako elementem codziennych narzędzi – wyszukiwarek, aplikacji biurowych czy obsługi klienta – często nawet bez pełnej świadomości, że korzysta z systemów opartych o sztuczną inteligencję.

Podobny obraz wyłania się z danych Eurostatu, które pokazują rosnącą obecność AI w życiu codziennym Europejczyków przy jednocześnie wolniejszej, nierównej adopcji po stronie firm. Duże organizacje wdrażają AI szybciej, podczas gdy wiele mniejszych wciąż porusza się między eksperymentem a doraźnym użyciem. To napięcie między powszechnością a dojrzałością dobrze tłumaczy zmęczenie i chaos, które także stały się jednym z motywów przewodnich 2025 roku.

Kryzys jakości

Masowe użycie AI ujawniło też swoje koszty. „AI slop” to termin, który nigdy wcześniej nie był tak często używany.

– Zalew niskiej jakości treści generowanych automatycznie: tekstów, obrazów, wideo, zaczął degradować internet jako środowisko poznawcze – zauważa prof. Aleksandra Przegalińska, prorektorka Akademii Leona Koźmińskiego, członkini Rady Programowej CampusAI. – To już nie jest kwestia estetyki, ale infrastruktury wiedzy: modele coraz częściej trenują się na własnych odpadach, wyszukiwarki tracą sygnał jakości, a użytkownicy uczą się ignorować treści „zbyt gładkie, by były prawdziwe”.

Eksperci zwracają uwagę na spadek jakości danych treningowych w warunkach masowej generacji treści przez AI. Modele coraz częściej uczą się na danych syntetycznych, powtarzalnych i pozbawionych kontekstu, co prowadzi do pogorszenia jakości odpowiedzi, większej podatności na błędy i uśredniania wiedzy. W literaturze akademickiej zjawisko to funkcjonuje jako model collapse czyli stopniowe „zapadanie się” modeli trenowanych na własnych, coraz słabszych wytworach zamiast na świeżych, wysokiej jakości danych.

Rok regulacji

Rok 2025 był także momentem realnego wejścia regulacji prawnych, mających uporządkować rynek AI.

– Zaczął obowiązywać EU AI Act, od lutego zakazane zostały praktyki o niedopuszczalnym ryzyku, od sierpnia obowiązują przepisy dotyczące modeli ogólnego przeznaczenia – wymienia Dariusz Jemielniak. – Europa stawia na regulację opartą na ryzyku, podczas gdy USA pod nową administracją ostrzegają przed „zabiciem transformacyjnej branży” przez nadmierną regulację. Ten transatlantycki spór o filozofię zarządzania AI będzie kształtował globalną politykę technologiczną przez następne lata.

Analizy OECD pokazują, że największą barierą we wdrażaniu regulacji AI nie jest brak dostępu do technologii, lecz niedojrzałość organizacyjna. W wielu firmach brakuje formalnych procesów zarządzania ryzykiem, mapowania systemów AI, dokumentowania źródeł danych oraz jasno przypisanej odpowiedzialności za decyzje podejmowane lub wspierane przez algorytmy. OECD zwraca uwagę, że bez tych fundamentów zgodność z AI Act staje się problemem operacyjnym, a nie prawnym, nawet dla organizacji technologicznie zaawansowanych.

Znów liczą się dane

Rok 2025 to także znaczne urealnienie AI – które jeszcze rok wcześniej było traktowane jak złote jajko i cud technologiczny. W ostatnich miesiącach widoczne było narastające zmęczenie narracją o łatwych automatyzacjach.

– Dobrym symbolem 2025 była dla mnie propaganda, że tworzenie agentów jest łatwe. Że „wystarczy poskładać kilka klocków”, dorzucić workflow i gotowe – organizacja działa sama. A prawda jest mniej widowiskowa i dużo bardziej wymagająca – mówi Natalia Ćwik, Product Team Lead w CampusAI. – Dlatego w CampusAI, kiedy robimy kurs o agentach, staramy się pokazywać rzeczy realne: krok po kroku, z całym ciężarem praktyki, bez udawania, że da się przeskoczyć fundamenty. Bo jeśli ktoś ma się na tym potknąć, to nie na „braku promptu”, tylko na braku procesu. M.in. dlatego jednym z najważniejszych kursów, jakie przygotowaliśmy w 2025, był dla mnie ten o przygotowaniu danych do współpracy z AI. Dobre dane to nie „ładny plik w Excelu”, tylko jasne definicje, spójne kategorie, sensowne źródła, odpowiedzialność za aktualność i jakość. A kiedy to robisz porządnie, nagle okazuje się, że nie tylko AI działa lepiej — ale też wiele procesów w firmie zaczyna się układać: przepływ informacji, raportowanie, współpraca między zespołami, decyzje. 

Czas działania

W ramach podsumowania na pewno można podkreślić, że 2025 nie był rokiem spektakularnych fajerwerków. Był rokiem weryfikacji. AI przestała być traktowana jak obietnica, a zaczęła być rozliczana jak infrastruktura. Taka, która musi działać w realnych warunkach, w realnych organizacjach i na realnych danych.

To był rok, w którym jasne się stało, że masowe wdrożenie AI nie polega na wyborze modelu ani na sprytnym promptowaniu. Polega na jakości danych, na procesach, na kompetencjach ludzi i na odpowiedzialnym zarządzaniu ryzykiem. Polega też na pogodzeniu się z tym, że automatyzacja nie zawsze oznacza uproszczenie, a skala to jednak zupełnie inne wyzwania niż pilotaż.

Jednocześnie 2025 udowodnił, że AI nie jest chwilową modą. Jest już stałym elementem codzienności, pracy, nauki i kultury. Właśnie dlatego pojawiło się zmęczenie, kryzys jakości i potrzeba regulacji. To naturalny etap dojrzewania każdej technologii, która przestaje być nowością.

Ten rok zamknął etap łatwego entuzjazmu. Otworzył etap ciężkiej pracy nad ujarzmieniem technologii, która z samej swojej natury wymyka się prostym regułom i pełnej kontroli. AI nie da się „wdrożyć raz na zawsze”. Wymaga ciągłej korekty, nadzoru i świadomych decyzji o tym, gdzie jej używać, a gdzie celowo zostawić miejsce dla człowieka.

Rok 2025 jasno pokazał, że dalszy rozwój AI będzie w mniejszym stopniu kwestią przełomów technologicznych, a w większym zdolności do odpowiedzialnego, konsekwentnego użycia.

Od lat zajmuję się nowymi technologiami w biznesie, edukacji i codziennym życiu. W centrum mojej uwagi pozostaje człowiek – i to, by technologia wyrównywała szanse, zamiast tworzyć bariery.

Podziel się

Może Cię zainteresować