Twój koszyk jest obecnie pusty!
Jak ugryźć etykę AI?
Prowadziłam ostatnio warsztaty dla organizacji pozarządowych z całego świata, które chcą rozwijać swoje własne rozwiązania wykorzystujące sztuczną inteligencję. Długo zastanawiałam się, jak ugryźć temat etyki AI, aby nie popaść w zbędne moralizowanie ani przesadny pesymizm. Z pomocą przyszła mi książka Powell i Kleinera Dylemat sztucznej inteligencji.
Mapa dylematów
Pierwsze zaskoczenie to jej objętość – to raczej kieszonkowy przewodnik niż tomiszcze Lonely Planet. Nie znajdziemy tu szczegółowej listy zaleceń, a raczej mapę drogową, która pomaga w refleksji nad najważniejszymi obszarami problemowymi związanymi z rozwojem technologii. Najciekawsze wydają się tutaj nie tyle szczegóły rozwiązań, które proponują autorzy, ile struktura określająca sposób myślenia o dylematach i zagrożeniach związanych z rozwojem sztucznej inteligencji. Żeby zrozumieć sposób myślenia autorów, wyobraź sobie nakładające się na siebie dwie siatki: logiki oraz problemy.
Logiki, czyli spojrzenia na technologię
Pierwsza siatka, w którą Powell i Kleiner próbują złapać rozwój sztucznej inteligencji, składa się z czterech rodzajów logiki. Każda logika to odmienny punkt widzenia, z którego warto spojrzeć na tworzoną technologię. Są to:
- Logika inżynierska – czyli taka, według której najważniejsze jest skuteczne rozwiązanie jasno postawionego problemu,
- Logika sprawiedliwości społecznej – tutaj najbardziej liczy się wpływ, jaki technologia wywrze na ludzi,
- Logika korporacyjna – gdzie najistotniejsza jest możliwość rozwijania produktów i czerpania z nich zysków, oraz
- Logika rządowa – która koncentruje się na kontrolowaniu i regulowaniu technologii.
Według każdej z nich rozwijanie technologii jawi się radykalnie inaczej. Jest to szczególnie ważne, jeśli tworzymy rozwiązania służące dobremu celowi. Łatwo wtedy zapomnieć o „logice korporacyjnej”, czyli skalowaniu. Jednak czy zastanawiałeś się kiedyś, czy moralnym obowiązkiem organizacji pozarządowej nie jest skalowanie dobra, które udało jej się wytworzyć lokalnie?
Problemy z AI
Druga siatka mapująca 7 dylematów związanych z rozwijaniem sztucznej inteligencji to główna część książki. Jakie jednak obserwacje doprowadziły autorów do sformułowania takich, a nie innych problemów? W książce znajdziemy zarówno przykłady całkiem współczesne, jak i historyczne, jak ten:
„26 września 1983 podpułkownik Stanisław Petrov NIE uruchomił sowieckiego systemu nuklearnego, choć zgodnie z zasadami i wskazaniami radarów powinien był to zrobić. Uznał jednak, że atak ze strony USA jest mało prawdopodobny – i miał rację. Dzięki jego decyzji, którą mógł podjąć, bo nie było jeszcze automatyzacji, nie wybuchła wojna atomowa.”
Jeden z dylematów omówionych przez Powell i Kleinera dotyczy ryzyka i równowagi między działaniem systemu a rolą człowieka. To pytanie o potencjalne zagrożenia stwarzane przez technologię i błędy, jakie mogą pojawić się podczas jej działania.
Dylemat sztucznej inteligencji to przewodnik, który nie obiecuje gotowych odpowiedzi, ale daje dobry punkt wyjścia, aby do listy dylematów na bieżąco dopisywać kolejne. W tym tkwi jego siła: nie uspokaja, lecz zmusza do spojrzenia na AI z dystansu i do wyobrażenia sobie konsekwencji, których nie można przewidzieć żadnym algorytmem. Pytanie nie brzmi więc tylko, jak ugryźć etykę AI, ale też: czy mamy odwagę – jak Petrov – powstrzymać się, gdyby kiedyś wymagały tego nasze wartości.
Osobliwy optymizm
Już sam optymizm Raya Kurzweila może wydawać się osobliwy. Ze świecą szukać pozytywnych wiadomości na pierwszych stronach gazet. AI? Zabierze wszystkim pracę – to przez automatyzację. Uniemożliwi odróżnienie prawdy od fałszu – to znowu przez deepfake. A tak w ogóle zniszczy świat. Dlaczego takie nagłówki przyciągają naszą uwagę? Ray Kurzweil pisze, że dzieje się tak, ponieważ w ten sposób ukształtowała nas ewolucja. Od czasów jaskiniowych musieliśmy szybko orientować się, gdy nadciąga niebezpieczeństwo. A wtedy w mgnieniu oka ocenić, czy bezpośrednio nam zagraża. Jeśli tak – uciekać!
Potęga małych kroków
W przeciwieństwie do katastrof pozytywne zmiany zachodzą powolutku. Tak wolno jak ewolucja. Tak wolno, że często trudno je zauważyć. Jak na przykład to, że jesteśmy jako kraje i społeczeństwa coraz bogatsi – w perspektywie lat i dekad. Że pracujemy coraz mniej (kto pamięta jeszcze, że kiedyś ludzie masowo chodzili do pracy w soboty?). I że sztuczna inteligencja, z jaką mamy do czynienia dziś, to najgorsza AI, z jaką kiedykolwiek będziemy pracować. Ale optymizm Kurzweila nie jest, na szczęście, wyssany z palca. Książka pełna jest czytelnie zaprezentowanych danych, informacji i statystyk. A do tego jest to lektura ogromnie satysfakcjonująca intelektualnie. Na mojej półce z książkami o AI zajęła miejsce tuż obok ulubionej Co-intelligence. Living and Working with AI Ethana Mollicka. To zdecydowanie pozycja, do której będę wracać. Jak zatem wygląda optymistyczny scenariusz rozwoju sztucznej inteligencji?
Ewolucja mózgów
Kurzweil przygląda się uważnie ewolucji wszechświata. Tak szeroka perspektywa sprawia, że moment 200 milionów lat temu, kiedy to w mózgach zwierząt pojawiła się kora nowa, wydaje się niemal współczesny. Korze nowej zawdzięczamy umysłową elastyczność oraz zdolność szybkiego uczenia się. To był naprawdę przełomowy wynalazek! Problem w tym, że nasze umysły (i ciała) niewiele zmieniły się nawet od czasów jaskiniowych.
Ewolucja maszyn
Natomiast świat technologii, które tworzymy, zmienił się ogromnie. Zaś tempo zmian nieustannie się zwiększa i jeszcze przyspieszy. Zawdzięczamy to przeniesieniu ewolucji ze strefy biologicznej do technologicznej. Zaś technologia informacyjna tworzy pętlę sprzężenia zwrotnego. Oznacza to, że jej rozwój pozwala na wykorzystanie jej do… przyspieszenia jej rozwoju. Jednak chodzi nie tylko o tempo, lecz także o dostęp do informacji.
Potrafimy tworzyć zewnętrzne magazyny informacji – od papirusów po dyski twarde. A ostatnio wykonaliśmy pierwszy krok w stronę połączenia biologicznych zdolności poznawczych z technologią cyfrową: zaczęliśmy tworzyć interfejsy mózg–komputer. Czy doprowadzi to do pełnego zespolenia ludzi ze sztuczną inteligencją? Zdaniem Kurzweila taki właśnie jest kierunek tej biologiczno-technologicznej ewolucji. Zaś jego momentum nastąpi nie za kolejne 200 milionów lat, ale w latach trzydziestych XXI wieku.
O co chodzi z tą osobliwością?
Tytułowa osobliwość to punkt radykalnej zmiany. Wyobraź sobie moment, kiedy kończysz szkołę. I nagle wydaje ci się zupełnie nieprawdopodobne, że nauczenie się tego, co teraz wiesz, zajęło aż tyle lat. Teraz zdobyta wiedza jest użyteczna, a podstawowe rzeczy – banalnie proste. A teraz wyobraź sobie moment, kiedy nanotechnologia umożliwia podłączenie naszych mózgów do wirtualnych neuronów w chmurze zawierającej całą dostępną wiedzę…