Twój koszyk jest obecnie pusty!
„Jeżeli na potrzeby dalszej dyskusji po prostu zdefiniujemy inteligencję jako umiejętność dostrzegania analogii…” – to stwierdzenie, na którym stoi cała argumentacja „Quo vAIdis” Andrzeja Dragana. Wydaje się ono uczciwe metodologicznie: autor uprzedza, że przyjmuje roboczą definicję. W praktyce jednak wszystko, co następuje potem, wynika z tego właśnie założenia. Jeśli je przyjmiemy, argumentacja jest spójna. Jeśli je zakwestionujemy, konstrukcja będzie wymagać ponownej oceny.
„Quo vAIdis” – tytuł z wplecionym „AI” – obiecuje książkę o przyszłości ludzkości wobec AI. Dostajemy jednak co innego: solidną popularyzację mechaniki sieci neuronowych. Rozumiemy lepiej, jak działają LLM, dlaczego generują koherentny tekst. Ale finałowy rozdział o przyszłości jest spekulatywny w stopniu, jakiego reszta książki unika. Dysproporcja między ambicją tytułu a tym, co książka dostarcza, jest znaczna.
Definicja i jej konsekwencje
Dragan odwołuje się do Marcusa Huttera, informatyka związanego z DeepMind oraz inicjatywy Hutter Prize – konkursu bezstratnej kompresji korpusu danych opartego na Wikipedii. Przedstawia Huttera jako autorytet wspierający definicję „inteligencji jako dostrzegania analogii”. Ale czy Hutter nie mówi przypadkiem o czymś innym?
W artykule „Universal Intelligence: A Definition of Machine Intelligence”, napisanym wspólnie z Shane’em Leggiem, Hutter definiuje inteligencję jako „zdolność agenta do osiągania celów w szerokiej gamie środowisk”. Na oficjalnej stronie Hutter Prize czytamy, że zdolność do skutecznej kompresja jest „ściśle powiązana” („closely related”) z inteligencją. Nie „tożsama” („equivalent”). Kompresja jest dla Huttera środkiem do przewidywania, a przewidywanie środkiem do działania w świecie. W jego formalnych definicjach inteligencja nie jest definiowana jako „dostrzeganie analogi”, to raczej skuteczność osiągania celów w różnorodnych środowiskach.
Skąd więc ta definicja u Dragana? Być może od Douglasa Hofstadtera, który w eseju „Analogy as the Core of Cognition” argumentuje: „Analogia nie jest bynajmniej drobnym punktem – jest raczej tym błękitem, który wypełnia całe niebo poznani”. Tyle że Hofstadter sam przyznaje, że jest to „nieortodoksyjny punkt widzenia”.
Dragan zdaje się łączyć dwie tradycje (kompresyjną teorię Huttera i analogiczną teorię Hofstadtera) bez wyjaśnienia, jak się do siebie mają. Hutter podkreśla w inteligencji optymalność i uniwersalność, Hofstadter akcentuje kreatywny transfer między domenami. Zrównanie ich pozycji wymaga wyjaśnienia, którego brakuje: w jaki sposób matematyczna optymalizacja kompresji miałaby rodzić to, co Hofstadter nazywa „twórczym skokiem”? Krajobraz definicji inteligencji jest szerszy: Chollet akcentuje efektywność uczenia się, Tegmark – osiąganie złożonych celów, Russell i Norvig – racjonalne działanie. Żadna nie jest tożsama z „dostrzeganiem analogii”.
Dragan nie musi się z nimi zgadzać, ale uważam, że ich pominięcie sprawia, że czytelnik nie wie, w jakim krajobrazie intelektualnym się porusza, ani dlaczego akurat ta definicja, a nie inna. Główne wyjaśnienie jest takie, że definicja autora jest „prosta i klarowna”, a inne są „mętne”.
Podwójny standard redukcjonizmu
Jest w „Quo vAIdis” fragment, który uważam za metodologicznie problematyczny. Dragan odrzuca termin „stochastyczna papuga” wprowadzony przez Emily Bender i współautorów w artykule „On the Dangers of Stochastic Parrots” pisząc: „jedynymi papugami w naszej historii są osoby papugujące to określenie po jego autorce”. Bardzo chwytliwe i trochę złośliwe (zresztą takich drobnych złośliwości jest w książce więcej, zwłaszcza w odniesieniu do Yanna LeCuna).
Dragan w dalszych rozdziałach przeprowadza eksperymenty wykazujące, że modele AI potrafią generalizować, czyli rozwiązywać zadania, których nie widziały w danych treningowych. Problem w tym, że argument Bender dotyczy czegoś innego: nie twierdzi ona, że modele nie generalizują wzorców, lecz że robią to „bez gwarancji semantycznego odniesienia” – sklejają formy językowe według statystyki, bez dostępu do znaczenia, a sama zdolność do generalizacji nie dowodzi jeszcze rozumienia. Co więcej, gdy Dragan konfrontuje się z zarzutem LeCuna – że modele bez dostępu do świata nie mogą go rozumieć – odpowiada kolejnym przykładem generalizacji, zakładając to, co ma udowodnić: że skuteczność operacyjna jest tożsama z rozumieniem.
Tymczasem kilkadziesiąt stron dalej Dragan pisze o ludziach: „nasz mózg «to tylko przepływy elektrochemiczne w papce białkowej, sterujące przyklejonym od spodu mięsem»”. Cudzysłów sugeruje dystans, ale kontekst wskazuje, że autor używa tej formuły jako argumentu przeciwko tym, którzy przyznają ludziom szczególny status poznawczy.
Dostrzegam tu asymetrię. Gdy krytycy AI opisują modele jako „stochastyczne papugi”, to jest to błąd, który trzeba wyśmiać. Gdy Dragan opisuje mózg człowieka jako „przepływy […] w papce białkowej”, to jest to trzeźwa obserwacja. Dlaczego ta sama operacja intelektualna jest wadliwa w jednym kierunku, a uprawniona w drugim?
Inteligentna – i co z tego?
Załóżmy, że Dragan ma rację. Załóżmy, że inteligencja to rzeczywiście dostrzeganie analogii i że AI robi to lepiej niż ludzie. Co z tego wynika?
Zaskakująco mało, i jest to moim zdaniem, najpoważniejsza luka w argumentacji „Quo vAIdis”. Dragan poświęca znaczną część książki na udowodnienie, że AI jest inteligentna według przyjętej definicji. Ale tytuł brzmi „Quo vAIdis” – dokąd zmierzasz. Samo stwierdzenie, że coś jest inteligentne, nie mówi nam, dokąd to coś zmierza ani dlaczego miałoby gdziekolwiek zmierzać.
Inteligencja w rozumieniu Dragana, czyli umiejętność dostrzegania analogii, jest zdolnością pasywną. To narzędzie, nie projekt. Młotek jest doskonały we wbijaniu gwoździ, ale nie ma ambicji budowania domów. Kompas wskazuje północ z niezawodną precyzją, ale nie chce nigdzie dotrzeć. System, który doskonale kompresuje dane i dostrzega wzorce, nie ma powodu, by „pragnąć” czegokolwiek.
Dragan wyraźnie oddziela inteligencję od świadomości (zresztą, to że w książce nie ma rozważań na temat „świadomości” AI jest dla mnie akurat plusem): „inteligencja zdefiniowana jako umiejętność dostrzegania analogii nie ma nic wspólnego ze «świadomością», «emocjami», «uczuciami»”. Ok, ale jeśli tak, to skąd bierze się alarmistyczny ton książki? Skąd wizja konkurencji gatunkowej? Skąd pytanie, czy „przetrwamy”?
Między „AI jest inteligentna” a „AI zagraża ludzkości” zieje luka, której Dragan nie wypełnia argumentacją. Brakuje wyjaśnienia, jak inteligencja (rozumiana jako pasywna zdolność) miałaby przekształcić się w sprawczość (aktywne dążenie do celów). Brakuje mechanizmu, który prowadziłby od „dobrze kompresuje dane” do „konkuruje o zasoby”.
AI w próżni
Jest jeszcze jeden problem, który przenika całą książkę: AI funkcjonuje w niej niemal jak obiekt fizyczny: izolowany, mierzalny, definiowany matematycznie. Ale AI to nie elektron. Istnieje w sieci relacji ekonomicznych, politycznych, społecznych.
Dragan pyta „dokąd zmierza [AI]”, ale to pytanie nie ma sensu bez pytania „kto nią kieruje” i „w czyim interesie to robi”. Wprawdzie Dragan nie twierdzi wprost, że AI jest autonomicznym aktorem, ale jego metafora ewolucyjna – gatunki konkurujące o niszę ekologiczną – sugeruje właśnie to (a przecież AI nie jest gatunkiem, jest technologią). Każdy model językowy ma właścicieli, inwestorów, użytkowników. Każda decyzja o jego architekturze, danych treningowych, dostępności jest decyzją ludzką, podejmowaną w konkretnym kontekście.
Rywalizacja o zasoby, władzę i wpływy toczy się i będzie się toczyć – tyle że nie między ludźmi a maszynami, lecz między ludźmi za pomocą maszyn. Książka pretendująca do odpowiedzi na pytanie „dokąd zmierza AI” powinna konfrontować tę perspektywę, a „Quo vAIdis” tego nie robi. AI zawieszone jest w próżni: bez ekonomii, bez polityki, bez społeczeństwa.
Głosy nieobecne
W bibliografii „Quo vAIdis” znajdziemy Searle’a z argumentem Chińskiego Pokoju. Znajdziemy Bender, potraktowaną ad hominem. Znajdziemy entuzjastów AI. Nie znajdziemy jednak innych głosów, np. Josepha Weizenbauma, twórcy programu ELIZA (1966) i autora „Computer Power and Human Reason”. Weizenbaum, będący pionierem AI, wprowadził rozróżnienie między kalkulacją a osądem, między mechaniczną manipulacją symbolami a ludzką zdolnością wymagającą mądrości. Zdefiniował też „efekt ELIZA”: skłonność ludzi do przypisywania maszynom rozumienia, którego nie posiadają. Po obserwacji, jak użytkownicy zwierzali się jego prymitywnemu chatbotowi, Weizenbaum stwierdza: „Nie zdawałem sobie sprawy, że tak krótki kontakt z relatywnie prostym programem komputerowym może wywołać silne urojenia u całkiem normalnych ludzi”. Czy ChatGPT nie jest współczesną ELIZĄ działającą na większą skalę? Czy „efekt ELIZA” nie wyjaśnia części entuzjazmu wobec LLM? To pytania, które warto zadać.
Nie ma też np. Huberta Dreyfusa, którego fenomenologiczna krytyka zakwestionowała założenie, że inteligencję można sformalizować i oderwać od ciała.
Te nieobecności tworzą obraz debaty, w której poważni krytycy albo nie istnieją, albo można ich zbyć jednym zdaniem.
Co pozostaje
Weizenbaum ostrzegał w wywiadzie z niemieckim dziennikarzem Bernhardem Pörksenem: „W erze nazistowskiej Żydów przedstawiano jako robactwo – metafora, która legitymizowała masowe morderstwa. Dziś idea, że człowiek jest zaledwie maszyną do przetwarzania informacji, którą można zastąpić robotem, nabiera substancji i mocy”.
Ta obawa, że redukcjonistyczny obraz człowieka legitymizuje jego instrumentalizację, wydaje się istotna także dla lektury „Quo vAIdis”. Dragan napisał dobrą książkę o czymś innym niż obiecuje tytuł. Jego popularyzacja mechaniki sieci neuronowych jest pierwszorzędna: klarowna, precyzyjna, wolna od marketingowego entuzjazmu. Kto chce zrozumieć, jak działają LLM, znajdzie tu solidny przewodnik. Ale „Quo vAIdis” obiecuje odpowiedź na pytanie dokąd, a tej odpowiedzi książka nie dostarcza. I nie może dostarczyć, bo pytanie o przyszłość wymaga kontekstu, którego fizyczny redukcjonizm nie oferuje. Inteligencja, jakkolwiek ją zdefiniujemy, nie istnieje w próżni. Jest osadzona w ciałach, kulturach, systemach władzy, relacjach ekonomicznych. Definicja, która od tego abstrahuje, może być matematycznie elegancka. Może nawet być prawdziwa w jakimś formalnym sensie. Ale nie powie nam, dokąd zmierza AI i człowiek, bo „zmierzanie” to kategoria ludzkiego świata, nie świata równań.
Nie twierdzę, że Dragan się myli. Twierdzę, że warto przyjrzeć się temu, co poprzedza jego wnioski. Bo „Quo vAIdis” to książka ciekawa, dobra w warstwie popularyzatorskiej, a przy tym, jak sądzę, słabsza w warstwie argumentacyjnej.
Bibliografia
Bender, E.M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 🦜. Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency,
Chollet, F. (2019). On the Measure of Intelligence. arXiv:1911.01547.
Dragan, A. (2025). Quo vAIdis. Społeczny Instytut Wydawniczy Znak.
Dreyfus, H.L. (1972). What Computers Can’t Do: A Critique of Artificial Reason. Harper & Row. [wyd. rozszerzone: What Computers Still Can’t Do, MIT Press, 1992]
Hofstadter, D.R. (2001). Analogy as the Core of Cognition. W: D. Gentner, K.J. Holyoak, & B.N. Kokinov (red.), The Analogical Mind: Perspectives from Cognitive Science. MIT Press.
Legg, S., & Hutter, M. (2007). Universal Intelligence: A Definition of Machine Intelligence. Minds and Machines.
Pörksen, B. (2023). The Image of Man in Artificial Intelligence: A Conversation with Joseph Weizenbaum. Weizenbaum Journal of the Digital Society,.
Russell, S., & Norvig, P. (2024). Sztuczna inteligencja. Nowe spojrzenie (wyd. IV). Helion. [oryg. Artificial Intelligence: A Modern Approach, 2021]
Tegmark, M. (2019). Życie 3.0. Człowiek w erze sztucznej inteligencji. Przeł. T. Krzysztoń. Prószyński i S-ka. [oryg. Life 3.0: Being Human in the Age of Artificial Intelligence, 2017]
Weizenbaum, J. (1976). Computer Power and Human Reason: From Judgment to Calculation. W.H. Freeman.





