Kiedy człowiek spotyka maszynę

Czy nasza gotowość do współpracy z maszynami zależy od kultury, w której dorastamy?

Kultura Japonii a AI
Loading the Elevenlabs Text to Speech AudioNative Player…

Wydawałoby się, że współpraca z AI zależy głównie od funkcjonalności systemu, interfejsu czy poziomu edukacji użytkownika. Tymczasem naukowcy z Uniwersytetów Ludwika Maksymiliana w Monachium oraz Waseda w Tokio odkryli, że kluczowe może być coś bardziej subtelnego: kultura.

AI w Japonii i USA – dwa sposoby współpracy

Aby lepiej zrozumieć, jak kultura wpływa na gotowość do współpracy z maszynami, zespół badaczy z Monachium i Tokio przeprowadził serię eksperymentów opartych na klasycznych grach ekonomicznych – Dylemacie więźnia i Zaufaniu. W badaniu uczestnicy z Japonii i Stanów Zjednoczonych wchodzili w interakcje zarówno z innymi ludźmi, jak i z agentami sztucznej inteligencji, wybierając między zachowaniem egoistycznym a decyzją o współpracy. Wyniki okazały się wymowne: Amerykanie częściej wykorzystywali kooperacyjne zachowania AI, starając się „ograbić” maszyny z bonusów za uczciwą grę. Dla wielu z nich agent AI nie był partnerem, lecz przeciwnikiem. Tymczasem uczestnicy z Japonii traktowali maszyny z podobnym poziomem szacunku i zaufania jak ludzi, co sugeruje, że ich społeczne odruchy empatii obejmują również technologie.

Jak zauważa dr Jurgis Karpus z Uniwersytetu Ludwika Maksymiliana w Monachium: „Jeśli ludzie w Japonii traktują roboty z takim samym szacunkiem jak ludzi, w pełni autonomiczne taksówki mogą pojawić się w Tokio znacznie wcześniej niż w Berlinie, Londynie czy Nowym Jorku” („Scientific Reports”, 2024).

Wnioski te doskonale wpisują się w szersze obserwacje dotyczące relacji człowieka z technologią. Już w eksperymencie Moral Machine z 2016 r., który analizował moralne decyzje wobec autonomicznych pojazdów, różnice kulturowe okazały się kluczowe. Ponad 2 mln osób z ponad 200 krajów decydowało, jak powinny zachowywać się autonomiczne auta w sytuacjach moralnych dylematów – rodem z trolley problem: kogo ratować, kogo poświęcić. Analiza danych ujawniła trzy główne klastry kulturowe, różniące się preferencjami etycznymi dotyczącymi takich czynników jak wiek, status społeczny czy przestrzeganie prawa. Na przykład uczestnicy z krajów wschodnich, takich jak Japonia czy Korea Południowa, częściej faworyzowali pieszych przestrzegających przepisów, podczas gdy uczestnicy z krajów zachodnich, takich jak USA czy Niemcy, częściej wybierali opcję minimalizującą liczbę ofiar, niezależnie od statusu czy zachowania osób.

W jednym z nowszych badań testowano inny scenariusz: dwa pojazdy zbliżają się do wąskiego mostu – czy któryś z nich ustąpi, czy obaj kierowcy będą forsować pierwszeństwo, ryzykując kolizję? Amerykanie częściej zakładali, że to maszyna powinna ustąpić, podejmując bardziej egoistyczne decyzje. Japończycy natomiast zachowywali wobec autonomicznych systemów wysoki poziom współpracy i społecznego zaufania.

Wnioski? Różnice kulturowe: 1. mają istotne implikacje dla projektowania etycznych algorytmów w autonomicznych pojazdach; 2. mogą znacząco wpływać na szybkość wdrażania nowych technologii i poziom bezpieczeństwa w przyszłych systemach autonomicznych. 

Duch w maszynie, czyli co religia ma wspólnego z Alexą

U podstaw tych różnych reakcji leży fundamentalne pytanie: kim – albo czym – dla nas jest maszyna?

W zachodnim kręgu kulturowym to po prostu narzędzie. W Japonii – potencjalny partner. Dlaczego? Tu do gry wchodzi religia. W szintoizmie i buddyzmie nawet przedmioty nieożywione mogą być zamieszkiwane przez duchy (kami). W takim świecie robot czy asystent głosowy nie jest zimnym kodem, ale kimś, z kim można zbudować relację.

W artykule Does Siri Have a Soul? William Seymour i Max Van Kleek opisują świat, w którym AI funkcjonuje jak kami: kiedy jest traktowana z szacunkiem, odwdzięcza się opieką (może np. odmówić zamówienia fast foodu i zasugerować zdrowszą opcję „dla twojego dobra”). Gdy zostaje zlekceważona – kaprysi, błądzi, mści się, może nawet źle interpretować komendy. Absurd? Raczej metafora, która trafnie pokazuje, że nasze relacje z AI są znacznie bardziej emocjonalne i „ludzkie”, niż chcielibyśmy przyznać.

A co, jeśli Siri jednak ma osobowość?

Nadanie AI głosu to nie tylko zabieg UX-owy. To decyzja kulturowa. Dlaczego Siri brzmi jak miła kobieta? Dlaczego Alexa zawsze mówi łagodnym, uspokajającym tonem? Bo wcielają zakorzenione stereotypy. Twórcy – głównie z Zachodu – projektują AI, które mają wydawać się znajome, przewidywalne, pomocne i… kobiece. Krytycy wskazują, że to powielenie obrazu kobiety-służki: zawsze miłej, posłusznej i dostępnej. Technologie takie jak Siri czy Alexa nie są neutralne. Ktoś zdecydował, jak będą mówić, jakie będą miały imiona, żarty, osobowości. To sprawia, że każda z nich staje się nośnikiem określonej wizji świata – odbiciem wartości, ideologii i lęków swoich twórców.

Badacze podkreślają, że technologie AI to nie tylko algorytmy. To byty społeczne, z którymi wchodzimy w relacje – często nieświadomie. Zaprojektowane „człowieczeństwo” tych urządzeń – ich głos, płeć, styl bycia – ma jeden cel: budować zaufanie i bliskość.

Społeczne lęki kontra społeczne potrzeby

Stephen Hawking przestrzegał, że AI może być największym błogosławieństwem albo przekleństwem ludzkości. Zachód wciąż balansuje między podziwem a lękiem. AI fascynuje, ale i niepokoi – trochę jak nowa forma życia, której jeszcze nie rozumiemy. W Japonii podejście jest inne. Kraj zmagający się ze starzeniem społeczeństwa traktuje technologię jak sprzymierzeńca. Roboty nie zabierają miejsc pracy, tylko wypełniają luki – pomagają tam, gdzie brakuje ludzi.

Te różnice w postrzeganiu AI mają także poważne konsekwencje w medycynie. W Japonii technologie diagnostyczne oparte na AI są wdrażane płynnie dzięki wysokiemu poziomowi akceptacji społecznej. W USA i Europie budowanie zaufania do medycznych algorytmów wymaga większej edukacji i transparentności.

Nie pytaj, co człowiek zrobi z AI. Zapytaj, czy AI rozumie człowieka

Nasza gotowość do współpracy z maszynami to nie tylko kwestia technologii. Każda sztuczna inteligencja rodzi się w konkretnym miejscu – i nosi w sobie ślady wartości, lęków oraz marzeń tych, którzy ją stworzyli.

Nie istnieje jedna, uniwersalna AI. Istnieją AI amerykańskie, chińskie, japońskie, europejskie, afrykańskie – każda mówi innym językiem i opowiada inną historię. Globalne wdrażanie sztucznej inteligencji wymaga zrozumienia różnic kulturowych i adaptacji technologii do lokalnych uwarunkowań. Projektanci systemów AI powinni te subtelności uwzględniać.

Ostatecznie to, czy uznamy maszynę za sojusznika, narzędzie czy zagrożenie, nie zależy od tego, ile ma parametrów. Chodzi o to, czy oprócz danych widzi też konteksty – kulturowy, społeczny, ludzki.
 

Z wykształcenia polonistka, graficzka, marketingowiec i wdrożeniowiec rozwiązań AI. Prezeska Fundacji Fabryka Dobrych Projektów, propagatorka inkluzywności. Entuzjastka AI i VR, szczególnie w obszarze medycyny i healthcare.

Podziel się

Może Cię zainteresować