Recenzje książek AI (4)

Loading the Elevenlabs Text to Speech AudioNative Player…Szanse i zagrożenia 22 lutego 1946 r. George Kennan, amerykański dyplo- mata stacjonujący w Moskwie, wysłał do Waszyngtonu telegram składający się z 5 tys. słów. Kennan ostrzegał w nim, że Związek Radziecki ze względu na same zało- żenia komunizmu jest ekspansywny, i wezwał rząd USA do oporu przeciwko…

Loading the Elevenlabs Text to Speech AudioNative Player…

22 lutego 1946 r. George Kennan, amerykański dyplo- mata stacjonujący w Moskwie, wysłał do Waszyngtonu telegram składający się z 5 tys. słów. Kennan ostrzegał w nim, że Związek Radziecki ze względu na same zało- żenia komunizmu jest ekspansywny, i wezwał rząd USA do oporu przeciwko wszelkim próbom zwiększenia wpły- wów przez Sowietów. Ta strategia szybko stała się zna- na jako „doktryna powstrzymywania” (u nas nazywano ją „doktryną Trumana”) – i przez następne 40 lat definiowała amerykańską politykę zagraniczną.

Ta doktryna ma zastosowanie nie tylko w polityce. Mustafa Suleyman, autor Nadchodzącej fali, a jednocześnie jeden z najbardziej doświadczonych i zasłużonych praktyków sztucznej inteligencji (obecnie szef AI w Microsofcie, wcześniej współzałożyciel DeepMind, spółki przejętej przez Google) oraz Michael Bhaskar, pisarz i wydawca, sugerują, by zastosować ją także do AI.

Autorzy wskazują, że ludzkość już wielokrotnie stawała w obliczu wynalazków, które mogły przekreślić całą jej przyszłość: ogień, koło, języki, pismo, elektryczność – te rozwiązania zmieniały losy naszego gatunku. A teraz, wg badaczy, stoimy u progu kolejnego przełomu, tym razem związanego ze sztuczną inteligencją i biotechnologią. Suleyman i Bhaskar podkreślają jednocześnie, że mogą one silniej zmienić świat niż wszystkie poprzednie – i to zarówno negatywnie, jak i pozytywnie.

Autorzy porównują rewolucję AI do pojawiających się w wielu mitologiach opowieści o wielkich potopach, które niszczyły całe cywilizacje i dawały początek nowym. Z jednej strony dostrzegają oczywiście atrakcyjność technologicznych zmian, a z drugiej – piszą wprost, że przyniosą ludzkości „nowy początek”. I stwierdzają, że „z czasem skutki tych technologii popchną ludzkość w stan zawieszenia pomiędzy biegunami katastrofy i dystopii”.

Dlatego Nadchodząca fala to jedna z książek, które kompleksowo wskazują, jak AI może zmienić nasz świat – na lepsze i na gorsze. Suleyman i Bhaskar przewidują, że wkrótce sztuczna inteligencja będzie umiała odkrywać cudowne leki, diagnozować rzadkie choroby, będzie zarządzać magazynami, optymalizować ruch drogowy i projektować zrównoważone miasta. Ale jednocześnie można ją będzie wykorzystać do wywoływania nowych, potężnych chorób. Autorzy zauważają, że cena sekwencjonowania genetycznego drastycznie spadła, a możliwości edycji DNA za pomocą technologii takich jak CRISPR znacznie się poprawiły. Wkrótce każdy będzie mógł stworzyć w swoim garażu laboratorium genetyczne. I produkować w nim albo nowy lek na raka, albo patogeny.

Pomimo tych  zagrożeń Suleyman i Bhaskar wątpią, czy jakikolwiek kraj podejmie wysiłek, by powstrzymać rozwój tego typu technologii. Państwom zbyt zależy na osiąganiu korzyści ekonomicznych. To podstawowy paradoks: nie możemy sobie pozwolić na niewykorzystanie technologii, a jednocześnie może ona doprowadzić do naszego wyginięcia. Jak piszą autorzy książki: „Współczesna cywilizacja wypisuje czeki dające się realizować wyłącznie za sprawą nieustannego rozwoju technologicznego”.

Nadchodząca fala nie tylko opisuje stan badań nad AI i jej najbliższe możliwe zastosowania. Wskazuje też, jakie środki można (i powinno się!) podjąć, żeby rozwój tej technologii nie wymknął się spod kontroli. Suleyman i Bhaskar wyraźnie opowiadają się za silną regulacją AI i współpracą międzynarodową, choć obawiają się, że krótkowzroczna natura współczesnych rządów, uzależniona od krótkiego cyklu wyborczego, może takie regulacje opóźnić.

Autorzy wskazują konkretne kroki, jakie powinny podjąć państwa, podmioty gospodarcze i firmy rozwijające AI, by powstające produkty były bezpieczne zarówno dla nas, jak i przyszłych pokoleń.

Książka jest jedną z pozycji obowiązkowych dla osób, które chcą lepiej zrozumieć, jak sztuczna inteligencja może zmienić nasze życie (pracę, zdrowie, transport), ale także cenne wartości społeczne, jak związki między- ludzkie i samą demokrację.

W medialnym dyskursie AI przypomina genetykę: postęp w ostatnich latach jest tak ogromny, że budzi lęk. A lęk – nawet ten irracjonalny – zawsze ma jakieś podstawy, nierzadko podsycane popkulturą. W przypadku genetyki – obawa przed armią gotowych do zastąpienia nas klonów czy doppelgängerów. W przypadku AI – strach przed potwornymi maszynami rodem z Łowcy androidów (1982).

Według badania CBOS z września 2024 r., 38% respondentów w rozwoju AI dostrzegało więcej zagrożeń niż korzyści, a 29% badanych miało wobec niej ambiwalentny stosunek. Podobne obawy widać także w biznesie – według międzynarodowego badania Arize AI ponad połowa firm z prestiżowej listy Fortune 500 wskazywała sztuczną inteligencję właśnie jako czynnik ryzyka.

Książka Moralna AI. Czy bać się sztucznej inteligencji, autorstwa trzech wykładowców z Duke University, łączy trzy perspektywy: psychologiczną, etyczną oraz informatyczną. To przystępny wykład o tym, czym właściwie jest AI i jak powinniśmy ją rozumieć. Co ważne, to nie zbiór ciekawostek, lecz uporządkowane wprowadzenie w świat AI. Podręcznik, ale napisany tak, że chce się go czytać. I jak każdy sensowny podręcznik koncentruje się przede wszystkim na praktyce. Autorzy podzielili go na rozdziały, które dotyczą najbardziej niepokojących aspektów rozwoju AI:

  • bezpieczeństwa,
  • prywatności,
  • sprawiedliwości,
  • odpowiedzialności
  • kwestii etycznych.

W każdej z tych dziedzin wskazują też możliwe rozwiązania – bo według nich nie ma się czego bać, o ile oczywiście podejdziemy do tematu świadomie i odpowiedzialnie.

Weźmy choćby dziedzinę prawa i normatywności. Jednym z najczęściej podnoszonych problemów, zarówno w dyskusjach akademickich, jak i w mediach, jest kwestia dyskryminacji, której może dopuszczać się AI. Autorzy wskazują konkretne przykłady „jawnej stronniczości” algorytmów, ale przypominają, że sędziowie – a więc ludzie – też nie są przecież wolni od uprzedzeń. Zauważają: „Możliwość wykorzystania AI do zmniejszenia uprzedzeń w decyzjach podejmowanych przez ludzi sugeruje, że właściwie wdrożone systemy mogą przynieść społeczeństwu znaczący zysk, mimo że ich użycie wiąże się z istotnym, ale na szczęście możliwym do opanowania ryzykiem wzrostu niesprawiedliwości”. Słowem, AI nie jest doskonała, ale jeśli dobrze się ją zaprogramuje, być może okaże się bardziej sprawiedliwa niż człowiek.

Podobno król Prus, Fryderyk Wilhelm, zwrócił się do swoich filozofów z pytaniem o to, jak rządzić ludem. Podczas gdy inni filozofowie zabrali się za pisanie wielostronicowych traktatów, Hegel miał odpowiedzieć, że lud można zwodzić w sprawach błahych – nawet jeśli się zorientuje, nie wywoła to większych konsekwencji. Ale w sprawach istotnych oszukiwać go nie wolno, bo gdy to zrozumie, zacznie nienawidzić tego, kto nim rządzi. Autorzy książki zdają sobie z tego sprawę i w tak ważnych kwestiach jak aspekty etyczne AI mimo wszystko wolą nie mówić niczego na wyrost.

Moralna AI jest ważnym punktem wyjścia do refleksji nad sztuczną inteligencją oraz próbą odpowiedzi, na ile może być ona „sprawiedliwa”. To jednak, wciąż, opowieść o ulepszaniu tego, co już mamy. Pytanie, na ile taka strategia w ogóle jest skuteczna. Pytanie, na ile AI może być tylko „ulepszeniem”, a na ile wymusza w ogóle zmianę naszej perspektywy.

Dziennikarka i redaktorka związana z „Gazetą Wyborczą” i Wyborcza.pl. Współprowadząca podcast Techstorie w Radiu Tok FM. Była redaktor naczelną serwisów technologicznych i gamingowych Wirtualnej Polski, pracowała też w start-upie, który chciał rozwiązać problem bezsenności i koszmarów.

Socjolog, tłumacz, dziennikarz, poeta. Absolwent Universitat Pompeu Fabra w Barcelonie i UW. Współpracownik mediów katalońsko- i hiszpańskojęzycznych, OKO.press i „Dziennika Gazety Prawnej”.

Podziel się

Może Cię zainteresować