Jaka jest wizja świata, w którym AI będzie wszędzie? Szanse czy zagrożenia?

Fragmenty podcastu „99 twarzy AI” Karola Stryi, odc. 32/99 – Rozmawiają Karol Stryja i Michał Stanisławek

Karol: Rozwój wielkich modeli generatywnych jest bardzo dynamiczny. Dużo mówi się o kolejnych modelach i ostatnio padło takie twierdzenie, że GPT-5 będzie na poziomie intelektualnym i poziomie logicznego myślenia odpowiadało doktorowi. A co będzie następne?

prof Aleksander Mądry*: Naszą ambicją jest zbudować modele, które są lepsze niż ludzie, przynajmniej w kwestii niektórych zadań, szczególnie tych ekonomicznie ważnych. Jak będzie taka sztuczna inteligencja wyglądała? To jest dobre pytanie. Ale równie ważne jest pytanie o możliwość kontroli. W jaki sposób upewnimy się, że AI robi coś pozytywnego, a nie negatywnego? Nie jestem pewien, czy i jak szybko to nastąpi, ale możemy znaleźć się w sytuacji, kiedy będzie ona dużo lepsza niż jakikolwiek człowiek w większości dziedzin. W jaki sposób nadzorować technologię, która ma swoistą autonomię i jest w dodatku inteligentniejsza niż my? Czy powinniśmy do takiej inteligencji w ogóle dążyć? To są pytania, o których dużo myślimy w OpenAI. Na razie wciąż teoretycznie, ale to jest zdecydowanie coś, o czym trzeba będzie myśleć. Ważne są na pewno edukacja, zrozumienie, szeroko rozumiane przygotowanie – i tym m.in. zajmujemy się w moim dziale Preparedness (z ang. gotowość).

Michał: Tu dotykamy tematu umiejętności funkcjonowania w świecie cyfrowym – digital literacy, a nawet więcej, w świecie sztucznej inteligencji, czyli AI literacy. Jaką rolę odgrywa edukacja w kontekście AI literacy?

AM: Musimy zacząć zrozumieć wystarczająco dobrze AI, żeby sobie konceptualizować, jak ona działa, co może, a czego na pewno nie. Bez tego podstawowego rozumienia trudno wyrażać swoją opinię. A jednocześnie smuci mnie to, kiedy ludzie mają bierny stosunek do rozwoju technologii, w tym wypadku sztucznej inteligencji. Kiedy podchodzą do tego na zasadzie „AI się dzieje” i już. Bo każdy może i powinien mieć głos w tej debacie, powiedzieć, czego chce, a czego nie. Na przykład że chciałbym takie AI, które pomoże mi pisać książki, ale na pewno nie chciałbym AI, które śledzi moje życie. Więc ważne jest, żeby taka dyskusja wybrzmiewała w dyskursie publicznym. Żeby przynajmniej część opinii publicznej zaczęła sobie, ale także politykom, zadawać pytania o to, co to znaczy, że część zadań w mojej pracy, a także życiu będę mógł delegować sztucznej inteligencji. Dobrze by było, jakby powstały zasoby pomocne w takiej edukacji. Chciałbym, żeby dzieci – bo one już zawsze będą żyć w świecie współtworzonym przez sztuczną inteligencję – już w szkole uczyły się, co to znaczy pracować z AI, jak to może działać, ale też jak nie, bo na pewno powinno się mówić również o zagrożeniach. Social media pokazały nam wiele ciemnych stron systemów informacyjnych, które są używane na wielką skalę i sterowane algorytmami uczenia maszynowego. Problem polega na tym, że czasami technologia stara się optymalizować coś, co teoretycznie ma nam się podobać, ale tak naprawdę jest czymś, czego bardziej długofalowych konsekwencji w ogóle nie chcemy, np. lajki na Facebooku. Chciałbym, żeby to wszystko było częścią dyskusji społecznej o AI. Czym jest AI, co nam się w niej podoba, co nie – chciałbym, żeby różne strony mogły się na ten temat wypowiadać.

Michał: A Ty jako człowiek, jako profesor, człowiek z akademii, jak myślisz o tych modelach, które powstaną w przyszłości i będą mogły rzeczywiście zaoferować wiedzę na wyższych poziomach? Co w takiej sytuacji akademia będzie miała do zaoferowania studentom, jeśli te modele się pojawią i będą w stanie w dosyć personalny sposób przygotować ścieżkę edukacji?

AM: To jest świetne pytanie i też o tym dość dużo myślę. Na początku to będzie wciąż tylko wsparcie edukacji, a nie jej zastąpienie. Wydaje mi się, że wciąż ważną rolą uniwersytetów jest nie tylko wtłaczanie wiedzy w umysły, lecz także kwestia socjalizacji, wyrobienie sobie ścieżki w życiu, znalezienie i ukształtowanie tego, co nas naprawdę ekscytuje i napędza. Ale też budowanie relacji, networking, kontakt z innymi ludźmi. Uczelnie przynajmniej w tej roli nadal przetrwają. Czy może być coś więcej? To ciekawe. Wszyscy będziemy współpracować z AI, ale nauczenie się, jak współpracować z nią w sposób produktywny, nie jest takie proste. Więc oprócz wspomnianej socjalizacji, zajrzenia w głąb siebie i odkrycia tego, co naprawdę sprawia nam radość, co jest naszą pasją, również naukową, trzeba będzie się uczyć, jak korzystać z AI, by te pasje realizować. Może teraz, żeby zostać pisarzem, nie trzeba będzie mieć daru pisania porywającej prozy, „wystarczy”, że będziemy mieli swoją kreatywną wizję, zarys opowieści, poczucie tego, co się powinno w niej znaleźć. Pamiętam, że kiedy zaczynałem karierę w akademii, przysiągłem sobie, że nigdy nie napiszę książki, bo umiem pisać, ale nie cierpię tego robić. A teraz to już sam nie wiem, może jednak się skuszę. Rozmawiałem z Reidem Hoffmanem, który napisał książkę wspólnie z GPT-4 w ciągu tygodnia. To jednak otwiera nowe możliwości.

Karol: Dążymy do tego, żeby ludzie mieli swoich agentów dzięki ChatGPT. Może będziesz miał swojego ghostwritera, z którym stworzysz książkę szybciej, niż sam byś pisał. Co będzie z nami? Czym będziemy się zajmować, kiedy będziemy mieli tych agentów od wszystkiego?

AM: No właśnie, bo teraz mogę napisać książkę, ale pytanie, kto będzie ją czytał. Może czytelnicy użyją swojego agenta, żeby im tę moją książkę streścił, więc w sumie równie dobrze mogę wysłać wszystkim sam konspekt, oszczędzając najpierw pisania, a potem streszczania. Nasze społeczeństwo jest tak skonstruowane, że rzuca pewne wyzwanie – otóż spora część naszej tożsamości i poczucia własnej wartości są połączone z naszym zawodem. I dlatego często zdarza się, że gdy ludzie przestają wykonywać swój zawód – na przykład idą na emeryturę, to nagle podupadają na zdrowiu, na duchu. Więc pytanie, czy jesteśmy w stanie określić się jako ludzie szczęśliwi, nie definiując się przez pryzmat pracy? Patrząc na możliwości AI, na to, że będzie można się bogacić, mając dochód pasywny, opcja niepracowania może stać się realna. Ale czy nas naprawdę uszczęśliwi? Albo w skali mikro, każda praca ma takie aspekty, których nie lubimy, ale czy jeśli zaczną je zastępować modele, coraz szerzej i szerzej, to nie będziemy mieli poczucia, że wraz z zadaniami ubywa też kawałek nas samych?

Karol: A co z relacjami międzyludzkimi? Też zacznie ich ubywać?

AM: Na pewno jest taka trajektoria, w której w modelu AI mamy świetnego przyjaciela, takiego, który dokładnie mnie rozumie, mówi to, co chcę usłyszeć, któremu mogę się zwierzyć, który nigdy się nie obraża, jest nieskończenie cierpliwy, więc po co mi przyjaźń z ludźmi? Jak w filmie Ona (ang. Her), gdzie widzimy taki dystopijny obraz. I to może być przerażające. Z drugiej strony rozmawiałem z Reidem Hoffmanem z Inflection AI i oni wprawdzie budują osobistego asystenta, ale projektują go tak, żeby nie pozwalał się użytkownikowi zbytnio do siebie przywiązać. Na przykład jak zaczynasz z nim za dużo rozmawiać, to co jakiś czas dopytuje, czy rozmawiałeś też ostatnio z jakimś ludzkim kolegą, koleżanką, sugeruje, że może trzeba by zadzwonić, napisać. Może powinny powstać nawet konkretne regulacje, które wyznaczałyby pewne konkretne limity użytkowania, żeby nie doprowadzać do uzależnienia od rozmów z AI. We wszystkich tych przypadkach niezwykle istotne są edukacja i szerzenie świadomości właśnie na temat możliwych ciemnych stron i zagrożeń. Ale nie po to, by nimi straszyć, tylko po to, by być na nie odpowiednio przygotowanym.

prof. Aleksander Mądry
Profesor informatyki w Massachusetts Institute of Technology (MIT), szef Działu Gotowości w OpenAI, dyrektor Centrum Wdrożeniowego Uczenia Maszynowego MIT, współprzewodniczący MIT AI Policy Forum

Pełny podkast do posłuchania tutaj: „99 twarzy AI”

Karol Stryja

Podziel się

Może Cię zainteresować