Ostatni wybór, którego dokonasz

Nie ma jednego momentu, w którym oddajemy kontrolę maszynom. Jest raczej seria drobnych decyzji, które z czasem tworzą proces trudny do zatrzymania. I właśnie w takich mikrodecyzjach może kryć się największe ryzyko.

Zbigniew Rzepkowski

I.

Leó Szilárd szedł ulicą Southampton Row w Londynie, gdy przyszło mu do głowy rozwiązanie. Był wrzesień 1933 roku. Węgierski fizyk, uciekinier z Niemiec, właśnie przeczytał w „The Times” wypowiedź Ernesta Rutherforda, który nazwał wizję energii z atomu „bzdurą” (moonshine).

Szilárd zatrzymał się na czerwonym świetle. I wtedy zobaczył całość: reakcję łańcuchową. Jeden neutron uwalnia dwa, dwa uwalniają cztery, cztery – osiem. Eksplozja energii. Albo eksplozja po prostu.

Przywołuję tę historię nie dlatego, że algorytmy są jak bomba atomowa – nie są. Ale jest w niej coś, co wydaje mi się istotne dla naszej sytuacji: moment, w którym seria abstrakcyjnych możliwości zamienia się w trajektorię. Coś, co daje się zrozumieć dopiero wtedy, gdy staje się faktem.

Kenneth Wenger, autor książki o pułapkach sztucznej inteligencji, ujmuje to tak: „Możemy zaakceptować powszechne zastosowanie automatyzacji AI we wszystkich aspektach naszego życia i będzie to nasz wybór, ale będzie to jedyny wybór, którego dokonamy. Jeśli podejmiemy taką decyzję, wybory, które ukształtują naszą przyszłość, nie będą już naszymi wyborami”.

Mamy wybór, ale jest to wybór, który może zlikwidować możliwość dalszych wyborów. Decyzja o delegowaniu decyzji może być naszą ostatnią prawdziwie własną decyzją.

II.

Norbert Wiener, ojciec cybernetyki, ostrzegał przed podobnym mechanizmem już w 1964 roku. W „God and Golem, Inc.” przywołał opowieść W.W. Jacobsa o małpiej łapie – „The Monkey’s Paw”: magicznym przedmiocie, który spełnia życzenia literalnie i niestety katastrofalnie.

„Magia automatyzacji może okazać się równie dosłowna” – pisał Wiener. „Jeśli zaprogramujesz maszynę, by wygrywała według określonych reguł, będzie dążyć do zwycięstwa i nie zwróci najmniejszej uwagi na żadne inne względy”.

Wiener zauważył też, że w ówczesnych dyskusjach wojskowych pojawiały się pomysły wykorzystania maszyn uczących się do wspierania decyzji o użyciu broni jądrowej. Pisał to sześć dekad temu. Dziś spór o „człowieka w pętli decyzyjnej” i wymaganie „istotnej ludzkiej kontroli” wraca w debatach regulacyjnych dotyczących broni autonomicznej.

Ale między bombą a algorytmem istnieje różnica. I to ona czyni sprawę trudniejszą, nie łatwiejszą.

III.

Bomba atomowa istnieje od 1945 roku i po Hiroszimie i Nagasaki nie została ponownie użyta bojowo. Dlaczego? Jednym z wyjaśnień jest logika odstraszania, w tym doktryna wzajemnego zniszczenia (MAD – Mutually Assured Destruction). Ale nie jedynym: historia „nieużycia” to także historia instytucji, norm i politycznej kontroli eskalacji.

Można więc argumentować, i byłby to argument optymistyczny, że ludzkość potrafi budować mechanizmy powściągania wobec niebezpiecznych technologii.

Czy ta analogia działa dla sztucznej inteligencji? Mam poważne wątpliwości.

MAD opiera się na warunkach czytelnych w przypadku broni jądrowej: racjonalni aktorzy, wiarygodny odwet, natychmiastowe konsekwencje, jednoznaczny próg.

W delegowaniu decyzji do AI te warunki są rozmyte. Nie ma jasnego „momentu wybuchu”. Konsekwencje są rozłożone w czasie, trudne do przypisania, często niewidoczne. Przede wszystkim: delegowanie decyzji jest procesem stopniowym, nie binarnym.

Nikt nie ogłosi: „od jutra wszystkie decyzje podejmuje AI”. To będzie seria mikrodelegacji, z których każda z osobna wyda się rozsądna. Delegacja nie oznacza, że AI „rządzi”. Oznacza, że domyślnie akceptujemy jej wybór, a sprzeciw wymaga dodatkowego wysiłku.

Pytanie nie brzmi więc „czy delegujemy”. Pytanie brzmi: czy delegacja jest odwracalna bez kosztu, który okaże się dla większości zaporowy?

Bo odwracalność nie jest kwestią deklaracji („zawsze mogę wyłączyć”). Jest kwestią kosztu przełączenia. Delegacja staje się praktycznie nieodwracalna, gdy koszt powrotu rośnie szybciej niż gotowość do jego poniesienia, gdy otoczenie instytucjonalne zaczyna zakładać algorytm jako standard, a zanik kompetencji sprawia, że użytkownik nie potrafi już ocenić decyzji bez systemu. To nie jest jeden moment, raczej powolne zamykanie drzwi.

IV.

Algorytm Spotify sugeruje playlistę. Netflix podpowiada serial. Nawigacja wybiera trasę. Asystent zamawia produkty. Każda z tych mikrodelegacji jest wygodna, oszczędza czas, redukuje wysiłek poznawczy.

Popularna narracja każe nam się w tym miejscu oburzać: „bańki”, „komory echa”, „manipulacja preferencjami”. Tyle że problem może leżeć gdzie indziej niż w radykalizacji. Rekomendacje mogą w długim okresie trenować coś subtelniejszego: odruch przyjmowania domyślnych wyborów systemu jako własnych. Skłonność do oddawania wyboru.

Nie twierdzę, że mamy na to twardy dowód. Twierdzę, że to prawdopodobny mechanizm. Pojedyncza rekomendacja niewiele zmienia. Tysiąc rekomendacji przez pięć lat – to już coś innego. Może przesuwać horyzont tego, co uznajemy za warte uwagi, i przyzwyczajać do tego, że wybór „przychodzi z zewnątrz”.

Wysokostawkowe delegacje zaczynają się od defaultów: domyślnej kolejności wiadomości, domyślnej sugestii odpowiedzi. Zgoda jest tania, sprzeciw kosztowny.

Gigerenzer zwraca uwagę na jeszcze jeden składnik: skłonność do wiary w zapewnienia, że Google zna swoich użytkowników lepiej, niż oni sami. Ta wiara często wyprzedza realne możliwości technologii. Ale nawet jeśli jest dziś przesadzona, buduje nawyki, które jutro mogą być trudne do odwrócenia.

Nie widzimy krat, które nas ograniczają. Bo to nie jest jeszcze „utrata wolnej woli” – to utrata warunków decyzji: uwagi, momentu zatrzymania i kompetencji. Bez nich delegowanie wyborów staje się odruchem, nie decyzją.

V.

Można w tym miejscu wzruszyć ramionami: „to tylko rekomendacje. Mogę je ignorować. Mogę wyłączyć sugestie”.

Teoretycznie tak. Praktycznie… tu właśnie leży pułapka.

Wenger odwołuje się do analogii historycznej: rewolucji rolniczej. Pierwsi ludzie, którzy zaczęli siać ziarno, nie podejmowali świadomej decyzji: „wybieram bezpieczeństwo kosztem wolności”. Każdy krok był mikrodecyzją: zasadzić trochę ziarna tu, zostać jeszcze jeden sezon tam, zbudować ogrodzenie. Dopiero suma tych decyzji stworzyła rzeczywistość, z której, gdy populacja przekroczyła pojemność ekologicznego modelu łowiectwa-zbieractwa, trudno było się wycofać.

Ekonomiści nazywają ten mechanizm „zależnością od ścieżki” (path dependence), spopularyzowaną m.in. przez Paula Davida w analizie klawiatury QWERTY. Każdy krok wygląda rozsądnie w momencie podejmowania. Ale sekwencja kroków prowadzi do punktu, którego nikt nie wybrał wprost, i który trudno opuścić.

VI.

Zanim pójdę dalej, uczciwie trzeba przedstawić drugą stronę. Steven Pinker w Nowym Oświeceniu przytacza argumenty, które trudno zbagatelizować. Średnia długość życia rośnie. Skrajna bieda maleje. Przemoc – wbrew intuicji karmionej nagłówkami – jest na historycznych minimach.

Delegacja decyzji do systemów automatycznych ma realne zalety i nie chodzi tylko o wygodę. Autonomiczne samochody, systemy diagnostyczne, algorytmy optymalizacyjne – delegacja ma realne korzyści mierzone w życiach ratowanych i emisjach redukowanych.

Systemy AI mogą też poszerzać przestrzeń ludzkich możliwości, oferując opcje, których sami byśmy nie rozważyli – realne poszerzenie autonomii w wymiarze możliwości.

Czy więc obawy o utratę sprawczości są kolejną wersją paniki moralnej? Kolejnym „tym razem jest inaczej”, które okaże się fałszywym alarmem?

Możliwe. Ale jest różnica między pytaniem: „Czy żyjemy lepiej?” a pytaniem: „Kto decyduje, jak żyjemy?”. Pinker ma rację co do wskaźników. Wskaźniki mierzą wyniki, nie procesy. Można żyć dłużej, zdrowiej i wygodniej i jednocześnie mieć coraz mniejszy wpływ na warunki, w których się żyje.

Problem polega na tym, że korzyści krótkoterminowe nie gwarantują korzyści długoterminowych. Każdy pojedynczy akt delegacji może być korzystny. Suma tych aktów może prowadzić do sytuacji, której nie wybralibyśmy, gdybyśmy potrafili zobaczyć ją z góry.

VII.

„Nie wiem” – pisze Wenger – „czy jesteśmy naprawdę niezdolni do zapanowania nad technologiami, które tworzymy, czy też nasze pragnienie zbadania wszystkich aspektów technologii – dobrych i złych – jest po prostu zbyt wielkie, żebyśmy potrafili je kontrolować”.

To zdanie wydaje mi się ważniejsze niż kategoryczne ostrzeżenia. Bo prawda jest taka, że nie wiemy, gdzie leży próg. Nie wiemy, która mikrodelegacja okaże się tą decydującą. Nie wiemy nawet, po czym poznamy, że próg przekroczyliśmy.

Gigerenzer ujmuje to inaczej: „Inteligencja oznacza zdolność rozumienia potencjału i niebezpieczeństw technologii cyfrowych oraz determinację utrzymania kontroli”. Słowo „determinacja” jest tu decydujące. Utrzymanie kontroli wymaga wysiłku i gotowości do powiedzenia „nie” w sytuacjach, gdy „tak” byłoby wygodniejsze.

To nie są rozwiązania systemowe. Ale to początek: przywrócenie oporu tam, gdzie platformy celowo go usunęły.

VIII.

Zostawiam otwarte pytania, bo nie mam odpowiedzi, której byłbym pewien.

Czy jesteśmy jeszcze przed progiem i możemy kształtować warunki delegacji, wyznaczać granice, budować mechanizmy odwracalności?

Czy jesteśmy na progu, w punkcie, w którym decyzja o dalszej delegacji jest jeszcze naszą decyzją, ale może być ostatnią?

Czy może próg już za nami, a to, co wydaje nam się debatą o przyszłości, jest w istocie rekonstrukcją historii, która już się wydarzyła?

Wenger sugeruje, że wciąż mamy wybór. Ale ostrzega, że ten wybór może być „jedynym wyborem, którego dokonamy”.

Szilárd na Southampton Row zobaczył reakcję łańcuchową i resztę życia spędził próbując powstrzymać jej konsekwencje. Przegrał większość bitew. Ale walczył. Wiedział, co zobaczył.

Być może to jest wszystko, co mamy: nie zdolność do zatrzymania fali, ale zdolność do zobaczenia jej. Świadomość jako warunek brzegowy sprawczości.

I może po tym (nie po wielkich deklaracjach ani nie po apokaliptycznych scenariuszach) poznamy, że przeszliśmy na drugą stronę: po tym, że pytanie „czy chcemy?” zostało zastąpione pytaniem „czy jeszcze możemy?”.


Bibliografia

Böttger, T., Rudert, S.C., & Greving, H. (2023). The absent phone still rings: A meta-analytic examination of the „brain drain” effect of smartphones on cognitive capacity. Behavioral Sciences.

Gigerenzer, G. (2023). Zdrowy umysł w sieci algorytmów. Copernicus Center Press. [oryg. Klick: Wie wir in einer digitalen Welt die Kontrolle behalten, 2021]

Liu, N., Hu, X.E., Savas, Y. et al. (2025). Short-term exposure to filter-bubble recommendation systems has limited polarization effects: Naturalistic experiments on YouTube. Proceedings of the National Academy of Sciences.

Pinker, S. (2018). Nowe Oświecenie: Argumenty za rozumem, nauką, humanizmem i postępem. Zysk i S-ka. Tłum. T. Bieroń. [oryg. Enlightenment Now, 2018]

Ruiz Pardo, D., & Minda, J.P. (2022). Replication of 'Brain drain: The mere presence of one’s own smartphone reduces available cognitive capacity’. Acta Psychologica.

Ward, A.F., Duke, K., Gneezy, A., & Bos, M.W. (2017). Brain Drain: The Mere Presence of One’s Own Smartphone Reduces Available Cognitive Capacity. Journal of the Association for Consumer Research.

Wenger, K. (2025). Czy algorytm spiskuje przeciwko nam? Co każdy powinien wiedzieć o koncepcjach i pułapkach sztucznej inteligencji. Helion. Tłum. G. Werner. [oryg. Is the Algorithm Plotting Against Us?: A Layperson’s Guide to the Concepts and Pitfalls of Artificial Intelligence, 2023]

Wiener, N. (1964). God and Golem, Inc.: A Comment on Certain Points Where Cybernetics Impinges on Religion. MIT Press.

Project Manager i AI Manager. Łączy świat biznesu, technologii i humanistyki. Pisze o sztucznej inteligencji z perspektywy praktyka i obserwatora przemian – o etyce, geopolityce i wpływie AI na człowieka. W swoich tekstach szuka równowagi między innowacją a odpowiedzialnością.

Podziel się

Może Cię zainteresować