{"id":18011,"date":"2026-04-02T11:43:00","date_gmt":"2026-04-02T09:43:00","guid":{"rendered":"https:\/\/haimagazine.com\/?p=18011"},"modified":"2026-04-02T12:01:11","modified_gmt":"2026-04-02T10:01:11","slug":"ostatni-wybor-ktorego-dokonasz","status":"publish","type":"post","link":"https:\/\/haimagazine.com\/pl\/ai_branza\/prawo_etyka\/ostatni-wybor-ktorego-dokonasz\/","title":{"rendered":"Ostatni wyb\u00f3r, kt\u00f3rego dokonasz"},"content":{"rendered":"<p><\/p><p><strong>I.<\/strong><\/p><p>Le\u00f3 Szil\u00e1rd szed\u0142 ulic\u0105 Southampton Row w Londynie, gdy przysz\u0142o mu do g\u0142owy rozwi\u0105zanie. By\u0142 wrzesie\u0144 1933 roku. W\u0119gierski fizyk, uciekinier z Niemiec, w\u0142a\u015bnie przeczyta\u0142 w \u201eThe Times\u201d wypowied\u017a Ernesta Rutherforda, kt\u00f3ry nazwa\u0142 wizj\u0119 energii z atomu \u201ebzdur\u0105\u201d (moonshine).<\/p><p>Szil\u00e1rd zatrzyma\u0142 si\u0119 na czerwonym \u015bwietle. I wtedy zobaczy\u0142 ca\u0142o\u015b\u0107: reakcj\u0119 \u0142a\u0144cuchow\u0105. Jeden neutron uwalnia dwa, dwa uwalniaj\u0105 cztery, cztery \u2013 osiem. Eksplozja energii. Albo eksplozja po prostu.<\/p><p>Przywo\u0142uj\u0119 t\u0119 histori\u0119 nie dlatego, \u017ce algorytmy s\u0105 jak bomba atomowa \u2013 nie s\u0105. Ale jest w niej co\u015b, co wydaje mi si\u0119 istotne dla naszej sytuacji: moment, w kt\u00f3rym seria abstrakcyjnych mo\u017cliwo\u015bci zamienia si\u0119 w trajektori\u0119. Co\u015b, co daje si\u0119 zrozumie\u0107 dopiero wtedy, gdy staje si\u0119 faktem.<\/p><p>Kenneth Wenger, autor ksi\u0105\u017cki o pu\u0142apkach sztucznej inteligencji, ujmuje to tak: \u201eMo\u017cemy zaakceptowa\u0107 powszechne zastosowanie automatyzacji AI we wszystkich aspektach naszego \u017cycia i b\u0119dzie to nasz wyb\u00f3r, ale b\u0119dzie to jedyny wyb\u00f3r, kt\u00f3rego dokonamy. Je\u015bli podejmiemy tak\u0105 decyzj\u0119, wybory, kt\u00f3re ukszta\u0142tuj\u0105 nasz\u0105 przysz\u0142o\u015b\u0107, nie b\u0119d\u0105 ju\u017c naszymi wyborami\u201d.<\/p><p>Mamy wyb\u00f3r, ale jest to wyb\u00f3r, kt\u00f3ry mo\u017ce zlikwidowa\u0107 mo\u017cliwo\u015b\u0107 dalszych wybor\u00f3w. Decyzja o delegowaniu decyzji mo\u017ce by\u0107 nasz\u0105 ostatni\u0105 prawdziwie w\u0142asn\u0105 decyzj\u0105.<\/p><p><strong>II.<\/strong><\/p><p>Norbert Wiener, ojciec cybernetyki, ostrzega\u0142 przed podobnym mechanizmem ju\u017c w 1964 roku. W \u201eGod and Golem, Inc.\u201d przywo\u0142a\u0142 opowie\u015b\u0107 W.W. Jacobsa o ma\u0142piej \u0142apie \u2013 \u201eThe Monkey&#8217;s Paw\u201d: magicznym przedmiocie, kt\u00f3ry spe\u0142nia \u017cyczenia literalnie i niestety katastrofalnie.<\/p><p>\u201eMagia automatyzacji mo\u017ce okaza\u0107 si\u0119 r\u00f3wnie dos\u0142owna\u201d \u2013 pisa\u0142 Wiener. \u201eJe\u015bli zaprogramujesz maszyn\u0119, by wygrywa\u0142a wed\u0142ug okre\u015blonych regu\u0142, b\u0119dzie d\u0105\u017cy\u0107 do zwyci\u0119stwa i nie zwr\u00f3ci najmniejszej uwagi na \u017cadne inne wzgl\u0119dy\u201d.<\/p><p>Wiener zauwa\u017cy\u0142 te\u017c, \u017ce w \u00f3wczesnych dyskusjach wojskowych pojawia\u0142y si\u0119 pomys\u0142y wykorzystania maszyn ucz\u0105cych si\u0119 do wspierania decyzji o u\u017cyciu broni j\u0105drowej. Pisa\u0142 to sze\u015b\u0107 dekad temu. Dzi\u015b sp\u00f3r o \u201ecz\u0142owieka w p\u0119tli decyzyjnej\u201d i wymaganie \u201eistotnej ludzkiej kontroli\u201d wraca w debatach regulacyjnych dotycz\u0105cych broni autonomicznej.<\/p><p>Ale mi\u0119dzy bomb\u0105 a algorytmem istnieje r\u00f3\u017cnica. I to ona czyni spraw\u0119 trudniejsz\u0105, nie \u0142atwiejsz\u0105.<\/p><p><strong>III.<\/strong><\/p><p>Bomba atomowa istnieje od 1945 roku i po Hiroszimie i Nagasaki nie zosta\u0142a ponownie u\u017cyta bojowo. Dlaczego? Jednym z wyja\u015bnie\u0144 jest logika odstraszania, w tym doktryna wzajemnego zniszczenia (MAD \u2013 Mutually Assured Destruction). Ale nie jedynym: historia \u201enieu\u017cycia\u201d to tak\u017ce historia instytucji, norm i politycznej kontroli eskalacji.<\/p><p>Mo\u017cna wi\u0119c argumentowa\u0107, i by\u0142by to argument optymistyczny, \u017ce ludzko\u015b\u0107 potrafi budowa\u0107 mechanizmy pow\u015bci\u0105gania wobec niebezpiecznych technologii.<\/p><p>Czy ta analogia dzia\u0142a dla sztucznej inteligencji? Mam powa\u017cne w\u0105tpliwo\u015bci.<\/p><p>MAD opiera si\u0119 na warunkach czytelnych w przypadku broni j\u0105drowej: racjonalni aktorzy, wiarygodny odwet, natychmiastowe konsekwencje, jednoznaczny pr\u00f3g.<\/p><p>W delegowaniu decyzji do AI te warunki s\u0105 rozmyte. Nie ma jasnego \u201emomentu wybuchu\u201d. Konsekwencje s\u0105 roz\u0142o\u017cone w czasie, trudne do przypisania, cz\u0119sto niewidoczne. Przede wszystkim: delegowanie decyzji jest procesem stopniowym, nie binarnym.<\/p><p>Nikt nie og\u0142osi: \u201eod jutra wszystkie decyzje podejmuje AI\u201d. To b\u0119dzie seria mikrodelegacji, z kt\u00f3rych ka\u017cda z osobna wyda si\u0119 rozs\u0105dna. Delegacja nie oznacza, \u017ce AI \u201erz\u0105dzi\u201d. Oznacza, \u017ce domy\u015blnie akceptujemy jej wyb\u00f3r, a sprzeciw wymaga dodatkowego wysi\u0142ku.<\/p><p>Pytanie nie brzmi wi\u0119c \u201eczy delegujemy\u201d. Pytanie brzmi: czy delegacja jest odwracalna bez kosztu, kt\u00f3ry oka\u017ce si\u0119 dla wi\u0119kszo\u015bci zaporowy?<\/p><p>Bo odwracalno\u015b\u0107 nie jest kwesti\u0105 deklaracji (\u201ezawsze mog\u0119 wy\u0142\u0105czy\u0107\u201d). Jest kwesti\u0105 kosztu prze\u0142\u0105czenia. Delegacja staje si\u0119 praktycznie nieodwracalna, gdy koszt powrotu ro\u015bnie szybciej ni\u017c gotowo\u015b\u0107 do jego poniesienia, gdy otoczenie instytucjonalne zaczyna zak\u0142ada\u0107 algorytm jako standard, a zanik kompetencji sprawia, \u017ce u\u017cytkownik nie potrafi ju\u017c oceni\u0107 decyzji bez systemu. To nie jest jeden moment, raczej powolne zamykanie drzwi.<\/p><p><strong>IV.<\/strong><\/p><p>Algorytm Spotify sugeruje playlist\u0119. Netflix podpowiada serial. Nawigacja wybiera tras\u0119. Asystent zamawia produkty. Ka\u017cda z tych mikrodelegacji jest wygodna, oszcz\u0119dza czas, redukuje wysi\u0142ek poznawczy.<\/p><p>Popularna narracja ka\u017ce nam si\u0119 w tym miejscu oburza\u0107: \u201eba\u0144ki\u201d, \u201ekomory echa\u201d, \u201emanipulacja preferencjami\u201d. Tyle \u017ce problem mo\u017ce le\u017ce\u0107 gdzie indziej ni\u017c w radykalizacji. Rekomendacje mog\u0105 w d\u0142ugim okresie trenowa\u0107 co\u015b subtelniejszego: odruch przyjmowania domy\u015blnych wybor\u00f3w systemu jako w\u0142asnych. Sk\u0142onno\u015b\u0107 do oddawania wyboru.<\/p><p>Nie twierdz\u0119, \u017ce mamy na to twardy dow\u00f3d. Twierdz\u0119, \u017ce to prawdopodobny mechanizm. Pojedyncza rekomendacja niewiele zmienia. Tysi\u0105c rekomendacji przez pi\u0119\u0107 lat \u2013 to ju\u017c co\u015b innego. Mo\u017ce przesuwa\u0107 horyzont tego, co uznajemy za warte uwagi, i przyzwyczaja\u0107 do tego, \u017ce wyb\u00f3r \u201eprzychodzi z zewn\u0105trz\u201d.<\/p><p>Wysokostawkowe delegacje zaczynaj\u0105 si\u0119 od default\u00f3w: domy\u015blnej kolejno\u015bci wiadomo\u015bci, domy\u015blnej sugestii odpowiedzi. Zgoda jest tania, sprzeciw kosztowny.<\/p><p>Gigerenzer zwraca uwag\u0119 na jeszcze jeden sk\u0142adnik: sk\u0142onno\u015b\u0107 do wiary w zapewnienia, \u017ce Google zna swoich u\u017cytkownik\u00f3w lepiej, ni\u017c oni sami. Ta wiara cz\u0119sto wyprzedza realne mo\u017cliwo\u015bci technologii. Ale nawet je\u015bli jest dzi\u015b przesadzona, buduje nawyki, kt\u00f3re jutro mog\u0105 by\u0107 trudne do odwr\u00f3cenia.<\/p><p>Nie widzimy krat, kt\u00f3re nas ograniczaj\u0105. Bo to nie jest jeszcze \u201eutrata wolnej woli\u201d \u2013 to utrata warunk\u00f3w decyzji: uwagi, momentu zatrzymania i kompetencji. Bez nich delegowanie wybor\u00f3w staje si\u0119 odruchem, nie decyzj\u0105.<\/p><p><strong>V.<\/strong><\/p><p>Mo\u017cna w tym miejscu wzruszy\u0107 ramionami: \u201eto tylko rekomendacje. Mog\u0119 je ignorowa\u0107. Mog\u0119 wy\u0142\u0105czy\u0107 sugestie\u201d.<\/p><p>Teoretycznie tak. Praktycznie\u2026 tu w\u0142a\u015bnie le\u017cy pu\u0142apka.<\/p><p>Wenger odwo\u0142uje si\u0119 do analogii historycznej: rewolucji rolniczej. Pierwsi ludzie, kt\u00f3rzy zacz\u0119li sia\u0107 ziarno, nie podejmowali \u015bwiadomej decyzji: \u201ewybieram bezpiecze\u0144stwo kosztem wolno\u015bci\u201d. Ka\u017cdy krok by\u0142 mikrodecyzj\u0105: zasadzi\u0107 troch\u0119 ziarna tu, zosta\u0107 jeszcze jeden sezon tam, zbudowa\u0107 ogrodzenie. Dopiero suma tych decyzji stworzy\u0142a rzeczywisto\u015b\u0107, z kt\u00f3rej, gdy populacja przekroczy\u0142a pojemno\u015b\u0107 ekologicznego modelu \u0142owiectwa-zbieractwa, trudno by\u0142o si\u0119 wycofa\u0107.<\/p><p>Ekonomi\u015bci nazywaj\u0105 ten mechanizm \u201ezale\u017cno\u015bci\u0105 od \u015bcie\u017cki\u201d (path dependence), spopularyzowan\u0105 m.in. przez Paula Davida w analizie klawiatury QWERTY. Ka\u017cdy krok wygl\u0105da rozs\u0105dnie w momencie podejmowania. Ale sekwencja krok\u00f3w prowadzi do punktu, kt\u00f3rego nikt nie wybra\u0142 wprost, i kt\u00f3ry trudno opu\u015bci\u0107.<\/p><p><strong>VI.<\/strong><\/p><p>Zanim p\u00f3jd\u0119 dalej, uczciwie trzeba przedstawi\u0107 drug\u0105 stron\u0119. Steven Pinker w Nowym O\u015bwieceniu przytacza argumenty, kt\u00f3re trudno zbagatelizowa\u0107. \u015arednia d\u0142ugo\u015b\u0107 \u017cycia ro\u015bnie. Skrajna bieda maleje. Przemoc \u2013 wbrew intuicji karmionej nag\u0142\u00f3wkami \u2013 jest na historycznych minimach.<\/p><p>Delegacja decyzji do system\u00f3w automatycznych ma realne zalety i nie chodzi tylko o wygod\u0119. Autonomiczne samochody, systemy diagnostyczne, algorytmy optymalizacyjne \u2013 delegacja ma realne korzy\u015bci mierzone w \u017cyciach ratowanych i emisjach redukowanych.<\/p><p>Systemy AI mog\u0105 te\u017c poszerza\u0107 przestrze\u0144 ludzkich mo\u017cliwo\u015bci, oferuj\u0105c opcje, kt\u00f3rych sami by\u015bmy nie rozwa\u017cyli \u2013 realne poszerzenie autonomii w wymiarze mo\u017cliwo\u015bci.<\/p><p>Czy wi\u0119c obawy o utrat\u0119 sprawczo\u015bci s\u0105 kolejn\u0105 wersj\u0105 paniki moralnej? Kolejnym \u201etym razem jest inaczej\u201d, kt\u00f3re oka\u017ce si\u0119 fa\u0142szywym alarmem?<\/p><p>Mo\u017cliwe. Ale jest r\u00f3\u017cnica mi\u0119dzy pytaniem: \u201eCzy \u017cyjemy lepiej?\u201d a pytaniem: \u201eKto decyduje, jak \u017cyjemy?\u201d. Pinker ma racj\u0119 co do wska\u017anik\u00f3w. Wska\u017aniki mierz\u0105 wyniki, nie procesy. Mo\u017cna \u017cy\u0107 d\u0142u\u017cej, zdrowiej i wygodniej i jednocze\u015bnie mie\u0107 coraz mniejszy wp\u0142yw na warunki, w kt\u00f3rych si\u0119 \u017cyje.<\/p><p>Problem polega na tym, \u017ce korzy\u015bci kr\u00f3tkoterminowe nie gwarantuj\u0105 korzy\u015bci d\u0142ugoterminowych. Ka\u017cdy pojedynczy akt delegacji mo\u017ce by\u0107 korzystny. Suma tych akt\u00f3w mo\u017ce prowadzi\u0107 do sytuacji, kt\u00f3rej nie wybraliby\u015bmy, gdyby\u015bmy potrafili zobaczy\u0107 j\u0105 z g\u00f3ry.<\/p><p><strong>VII.<\/strong><\/p><p>\u201eNie wiem\u201d \u2013 pisze Wenger \u2013 \u201eczy jeste\u015bmy naprawd\u0119 niezdolni do zapanowania nad technologiami, kt\u00f3re tworzymy, czy te\u017c nasze pragnienie zbadania wszystkich aspekt\u00f3w technologii \u2013 dobrych i z\u0142ych \u2013 jest po prostu zbyt wielkie, \u017ceby\u015bmy potrafili je kontrolowa\u0107\u201d.<\/p><p>To zdanie wydaje mi si\u0119 wa\u017cniejsze ni\u017c kategoryczne ostrze\u017cenia. Bo prawda jest taka, \u017ce nie wiemy, gdzie le\u017cy pr\u00f3g. Nie wiemy, kt\u00f3ra mikrodelegacja oka\u017ce si\u0119 t\u0105 decyduj\u0105c\u0105. Nie wiemy nawet, po czym poznamy, \u017ce pr\u00f3g przekroczyli\u015bmy.<\/p><p>Gigerenzer ujmuje to inaczej: \u201eInteligencja oznacza zdolno\u015b\u0107 rozumienia potencja\u0142u i niebezpiecze\u0144stw technologii cyfrowych oraz determinacj\u0119 utrzymania kontroli\u201d. S\u0142owo \u201edeterminacja\u201d jest tu decyduj\u0105ce. Utrzymanie kontroli wymaga wysi\u0142ku i gotowo\u015bci do powiedzenia \u201enie\u201d w sytuacjach, gdy \u201etak\u201d by\u0142oby wygodniejsze.<\/p><p>To nie s\u0105 rozwi\u0105zania systemowe. Ale to pocz\u0105tek: przywr\u00f3cenie oporu tam, gdzie platformy celowo go usun\u0119\u0142y.<\/p><p><strong>VIII.<\/strong><\/p><p>Zostawiam otwarte pytania, bo nie mam odpowiedzi, kt\u00f3rej by\u0142bym pewien.<\/p><p>Czy jeste\u015bmy jeszcze przed progiem i mo\u017cemy kszta\u0142towa\u0107 warunki delegacji, wyznacza\u0107 granice, budowa\u0107 mechanizmy odwracalno\u015bci?<\/p><p>Czy jeste\u015bmy na progu, w punkcie, w kt\u00f3rym decyzja o dalszej delegacji jest jeszcze nasz\u0105 decyzj\u0105, ale mo\u017ce by\u0107 ostatni\u0105?<\/p><p>Czy mo\u017ce pr\u00f3g ju\u017c za nami, a to, co wydaje nam si\u0119 debat\u0105 o przysz\u0142o\u015bci, jest w istocie rekonstrukcj\u0105 historii, kt\u00f3ra ju\u017c si\u0119 wydarzy\u0142a?<\/p><p>Wenger sugeruje, \u017ce wci\u0105\u017c mamy wyb\u00f3r. Ale ostrzega, \u017ce ten wyb\u00f3r mo\u017ce by\u0107 \u201ejedynym wyborem, kt\u00f3rego dokonamy\u201d.<\/p><p>Szil\u00e1rd na Southampton Row zobaczy\u0142 reakcj\u0119 \u0142a\u0144cuchow\u0105 i reszt\u0119 \u017cycia sp\u0119dzi\u0142 pr\u00f3buj\u0105c powstrzyma\u0107 jej konsekwencje. Przegra\u0142 wi\u0119kszo\u015b\u0107 bitew. Ale walczy\u0142. Wiedzia\u0142, co zobaczy\u0142.<\/p><p>By\u0107 mo\u017ce to jest wszystko, co mamy: nie zdolno\u015b\u0107 do zatrzymania fali, ale zdolno\u015b\u0107 do zobaczenia jej. \u015awiadomo\u015b\u0107 jako warunek brzegowy sprawczo\u015bci.<\/p><p>I mo\u017ce po tym (nie po wielkich deklaracjach ani nie po apokaliptycznych scenariuszach) poznamy, \u017ce przeszli\u015bmy na drug\u0105 stron\u0119: po tym, \u017ce pytanie \u201eczy chcemy?\u201d zosta\u0142o zast\u0105pione pytaniem \u201eczy jeszcze mo\u017cemy?\u201d.<\/p><hr class=\"wp-block-separator has-alpha-channel-opacity\"\/><p><strong>Bibliografia<\/strong><\/p><p>B\u00f6ttger, T., Rudert, S.C., &amp; Greving, H. (2023). The absent phone still rings: A meta-analytic examination of the \u201ebrain drain\u201d effect of smartphones on cognitive capacity. Behavioral Sciences.<\/p><p>Gigerenzer, G. (2023). Zdrowy umys\u0142 w sieci algorytm\u00f3w. Copernicus Center Press. [oryg. Klick: Wie wir in einer digitalen Welt die Kontrolle behalten, 2021]<\/p><p>Liu, N., Hu, X.E., Savas, Y. et al. (2025). Short-term exposure to filter-bubble recommendation systems has limited polarization effects: Naturalistic experiments on YouTube. Proceedings of the National Academy of Sciences.<\/p><p>Pinker, S. (2018). Nowe O\u015bwiecenie: Argumenty za rozumem, nauk\u0105, humanizmem i post\u0119pem. Zysk i S-ka. T\u0142um. T. Biero\u0144. [oryg. Enlightenment Now, 2018]<\/p><p>Ruiz Pardo, D., &amp; Minda, J.P. (2022). Replication of 'Brain drain: The mere presence of one&#8217;s own smartphone reduces available cognitive capacity&#8217;. Acta Psychologica.<\/p><p>Ward, A.F., Duke, K., Gneezy, A., &amp; Bos, M.W. (2017). Brain Drain: The Mere Presence of One&#8217;s Own Smartphone Reduces Available Cognitive Capacity. Journal of the Association for Consumer Research.<\/p><p>Wenger, K. (2025). Czy algorytm spiskuje przeciwko nam? Co ka\u017cdy powinien wiedzie\u0107 o koncepcjach i pu\u0142apkach sztucznej inteligencji. Helion. T\u0142um. G. Werner. [oryg. Is the Algorithm Plotting Against Us?: A Layperson&#8217;s Guide to the Concepts and Pitfalls of Artificial Intelligence, 2023]<\/p><p>Wiener, N. (1964). God and Golem, Inc.: A Comment on Certain Points Where Cybernetics Impinges on Religion. MIT Press.<\/p>","protected":false},"excerpt":{"rendered":"<p>Nie ma jednego momentu, w kt\u00f3rym oddajemy kontrol\u0119 maszynom. Jest raczej seria drobnych decyzji, kt\u00f3re z czasem tworz\u0105 proces trudny do zatrzymania. I w\u0142a\u015bnie w takich mikrodecyzjach mo\u017ce kry\u0107 si\u0119 najwi\u0119ksze ryzyko.<\/p>\n","protected":false},"author":568,"featured_media":18013,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_lock_modified_date":false,"footnotes":""},"categories":[761,780],"tags":[],"popular":[],"difficulty-level":[],"ppma_author":[974],"class_list":["post-18011","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-prawo_etyka","category-redakcja-poleca"],"acf":[],"authors":[{"term_id":974,"user_id":568,"is_guest":0,"slug":"zbigniew-rzepkowski","display_name":"Zbigniew Rzepkowski","avatar_url":{"url":"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/10\/zbigniew-rzepkowski-scaled.jpg","url2x":"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/10\/zbigniew-rzepkowski-scaled.jpg"},"first_name":"","last_name":"","user_url":"","job_title":"","description":"Project Manager i  AI Manager. \u0141\u0105czy \u015bwiat biznesu, technologii i humanistyki. Pisze o sztucznej inteligencji z perspektywy praktyka i obserwatora przemian \u2013 o etyce, geopolityce i wp\u0142ywie AI na cz\u0142owieka. W swoich tekstach szuka r\u00f3wnowagi mi\u0119dzy innowacj\u0105 a odpowiedzialno\u015bci\u0105.  "}],"_links":{"self":[{"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/posts\/18011","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/users\/568"}],"replies":[{"embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/comments?post=18011"}],"version-history":[{"count":2,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/posts\/18011\/revisions"}],"predecessor-version":[{"id":18017,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/posts\/18011\/revisions\/18017"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/media\/18013"}],"wp:attachment":[{"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/media?parent=18011"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/categories?post=18011"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/tags?post=18011"},{"taxonomy":"popular","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/popular?post=18011"},{"taxonomy":"difficulty-level","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/difficulty-level?post=18011"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/ppma_author?post=18011"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}