Twój koszyk jest obecnie pusty!
Dariusz Jemielniak: Porozmawiamy dzisiaj o kwestiach bezpieczeństwa i ewentualnych zagrożeń związanych z AI. Bo, kurczę, bezpieczeństwo jawi się jako coraz większe wyzwanie, także technologiczne.
Aleksandra Przegalińska: Dużo na ten temat myślałam, zanim się tutaj dzisiaj spotkaliśmy. Tematem, który w tym momencie zajmuje mnie najbardziej, są deepfejki. I to w coraz dziwniejszych wykorzystaniach. Przez ostatnie dwa lata obserwuję rozpączkowane profile na Instagramie, które wyśmiewają się z polityków w wielu krajach – np. przeobrażają ich na różne sposoby, robiąc z nich kulturystów albo starsze panie, przerabiając jakiegoś aktualnego prezydenta na babcię i tak dalej. To forma komentarza publicznego, politycznego i w tym sensie jest chyba dozwolona. Zresztą nie widzę, żeby którekolwiek z tych forów było kasowane. Ciekawe natomiast, czy każdy, widząc taki filmik w gąszczu innych na instagramowym feedzie, tak naprawdę wie, że to jest satyra. Pewnie ten, kto chciałby sprawdzić, może kliknąć w dane konto, przeczytać podpis małym drukiem. Ale we wspomnianym gąszczu, istnym zalewie treści, łatwiej się zgubić. Myślę, że mamy jakiś kryzys epistemologiczny – coraz mniejszą jasność, co z oglądanych i słyszanych treści jest prawdą, a co nie.
I tej niepewności będzie niestety tylko więcej. Po pierwsze dlatego, że razem z nową administracją w USA pojawiły się nowe reguły gry, które pozwalają różnym platformom, chociażby takim jak Meta (Facebook), na to, by publikować rozmaite treści specjalnie bez filtrów i ograniczeń. I to widać, np. ostatnio nagle zaczęły się pojawiać treści ukazujące symulacje fizycznej przemocy – i to już nie jest satyra, tylko próba komentarza, próba celowego zaburzenia debaty publicznej. I zachęta, by w takim nieetycznym celu stosować AI, szokować, z jej pomocą przyciągać uwagę.
A po drugie, chciałabym zwrócić uwagę na coś, co pojawiło się na profilu prezydenta Trumpa – wizja Gazy w przyszłości, wygenerowana, przedziwna, straszna wizja. Zastanawiam się, czy sam Trump w ogóle widział ten klip, bo film zaczyna się od tego, że rzeczywiście są gruzy, ruiny, a potem nagle rozpościera się przed nami piękna plaża z kompleksem hotelowym i wszyscy się cieszą, są szczęśliwi. Ale potem dzieją się rzeczy przedziwne – jest Musk, który tańczy, są kobiety z brodami, takie szeherezady tańczące z Trumpem. Jest to po prostu absolutnie psychodeliczne, szalone i właściwie nie wiadomo, czy to nadal forma jakiejś satyry. Ale z kogo ten prezydent Trump się tutaj naśmiewa?
I fakt, że coś takiego zostało upublicznione przez właściwie najpotężniejszego człowieka na świecie, prezydenta USA, to już pewnego rodzaju walidacja, uprawomocnienie komunikacji deepfejkowej, czyli takiej, która mówi o równoległej rzeczywistości, takiej, której wcale nie ma, ale teoretycznie mogłaby być. I to już nie jest sposób komentowania, dogryzania politykom czy metoda walki politycznej z przeciwnikiem, tylko forma budowania własnej narracji, przepisywania aktualnej historii, za pomocą deepfejków, na kształt, którego ktoś tu sobie by życzył. To dla mnie taki punkt graniczny, bardzo, bardzo istotny, jeśli chodzi o deepfejki – że ktoś dał zielone światło. Ktoś bardzo wysoko w strukturach władzy powiedział: hej, używajmy tego, czy to jest prawda, czy nieprawda, używajmy, rozpowszechniajmy, bez komentarza i świadomości, niech się dzieje.
I to są realne zagrożenia sieci, nawet nie mówię o twardym cyberbezpieczeństwie i celowych atakach na infrastruktury, tylko właśnie o zagrożeniu dla dyskursu publicznego. Już od jakiegoś czasu mówi się o śmierci internetu – tego, który dotychczas znaliśmy, gdzie treści były lepsze lub gorsze, ale tworzone przez ludzi. Zamiast tego mamy przyzwolenie na wspomaganą przez AI „deepfejkizację” portali społecznościowych. I to, myślę, może być ich prawdziwy początek końca. Może być tak, że duża część użytkowników nie będzie już chciała znosić nadmiaru nieprawdy, ale jednocześnie możemy też się do tego śmietnika informacji zaadaptować i przestać go w ogóle zauważać.
DJ: Po pierwsze, przypomnę, co to w ogóle są fake newsy, bo to jest bardzo precyzyjny termin, określający sytuację, w której ktoś rozprzestrzenia nieprawdziwe informacje, ale odbiorcy i odbiorczynie godzą się z tym, że może w szczególe fakty się nie zgadzają, ale nadal myślą, że koniec końców ta większa narracja ma jakiś sens. Czyli gdy niesłusznie oskarżamy o kradzież, od- biorcy myślą – okej, może i nie ukradł, ale jednak jest zamieszany w kradzież (bo przecież skądś się w ogóle wziął pomysł połączenia jego nazwiska z kradzieżą). No i to jest bardzo niebezpieczny fenomen, bo w tym sensie to, co robi Trump, to wpisanie się w pewien trend sprzedawania marzeń, czy raczej lukrowania tragedii. Owszem, będą wysiedlenia, będzie zrównanie wszystkiego z ziemią, ale gdzieś na końcu tej apokalipsy czeka skarb, i jeśli chcemy tej riwiery z hotelami, to trzeba najpierw obecne domy i ludzi zrównać z ziemią.
AP: No właśnie, tych ludzi tam nie ma. Absolutnie przerażające w tej dziwacznej wizji jest to, że nie jest ona w żaden sposób osadzona w pragnieniach czy marzeniach żadnej ze zwaśnionych stron konfliktu. To po prostu wizja kolonizacji przez USA, z szowinistycznym motywem tancerek brzucha wdzięczących się do Trumpa i Muska. Obaj bawią się, jedzą na tych plażach, natomiast tam w ogóle nie ma ani lokalnych przywódców, ani żadnych ludzi stamtąd. Więc sporym zagrożeniem w kontekście dezinformacji, deepfejku i załamania prawdy jest to, że takie fake’owe proroctwo nie zostało opatrzone żadnym komentarzem, wyjaśniającym zamiar lub ostrzegającym, że to tylko czyjś narkotyczny sen.
DJ: Pełna zgoda, natomiast ta zapowiedź śmierci internetu skojarzyła mi się z tym, co się dzieje obecnie, chociażby w branży fotograficznej. Od lat w najważniejszych konkursach fotograficznych mamy osobne kategorie dla zdjęć edytowanych i oryginalnych. Może to samo nas czeka także w kwestii tekstów czy mediów tradycyjnych, wideo, wszystkich publikowanych treści. Problem jest też trochę podobny do tematu dopingu.
Jeśli ktoś w sporcie używa dopingu, to jest dyskwalifikowany, i lada dzień możemy się spodziewać, że sztuczna inteligencja będzie dawała tak dużego kopa, jeśli chodzi o wszelkiego rodzaju kompetencje generatywne, że w pewnych wymiarach korzystanie z tych narzędzi będzie traktowane jak nielegalny doping. Aczkolwiek mam ogromną nadzieję, że pójdziemy w innym kierunku. Że nauczymy się koncepcji Ja + AI, w której synergia oparta na świadomym i etycznym wykorzystywaniu sztucznej inteligencji sprawia, że technologia nam po- maga, a nie nas zastępuje czy dyskwalifikuje. I ta etyka oraz odpowiedzialność w kontekście zagrożeń są niezwykle istotne, zwłaszcza gdy mowa właśnie o deepfejkach, bo przecież niektóre nastolatki już generują treści pornograficzne z udziałem koleżanek (rzadziej kolegów) za pomocą technologii, które są na wyciągnięcie ręki. I to jest potworne zagrożenie, bo przekłada się na zdrowie psychiczne młodzieży. Ale nie tylko młodzież jest na celowniku – osoby starsze również. Słynna „metoda na wnuczka” w dzisiejszym wydaniu jest jeszcze bar- dziej wyrafinowanym sposobem oszukiwania seniorów – dzięki generatywnej sztucznej inteligencji można wy- tworzyć wizerunek i głos „wnuczka”, który do złudzenia będzie przypominał ten prawdziwy.
AP: My w jakiś sposób tak jakby godzimy się na takie zawieszanie rzeczywistości, niestety. Ty mówisz o generowaniu przez dzieci treści pornograficznych, i to jest skrajna sytuacja, ale czytałam gdzieś ostatnio, że ok. 90% dzieciaków w Wielkiej Brytanii używa narzędzi generatywnej sztucznej inteligencji do odrabiania zadań domowych. I to jest tworzenie fikcji, jeśli zadania domowe są w takiej formie, że łatwo jest je wygenerować, że dzieci mają dostęp do tej technologii, i że w domu nikt tego nie sprawdza. To nie jest odrobienie zadania, tylko symulacja odrobienia. Czyli zerowa korzyść dla dziecka, ponieważ nie wykonując samodzielnie zadania, niczego się nie nauczy, a z drugiej strony – skoro te narzędzia są dostępne, dobrze by było znajdować kreatywne, tak jak powiedziałeś, sposoby wykorzystania ich. Potencjał jest spory, ale trzeba wyjść poza delegowanie zadań w rozumieniu zastępowania człowieka – czy to w pracy, czy w szkole. Albo w życiu prywatnym.
Słuchałam ostatnio z wielką uwagą podcastu, który był poświęcony aplikacji randkowej Hinge, do której teraz został wprowadzony asystent AI. Jego zadaniem jest podkręcać twoje konto poprzez doradzanie. Jest to forma mentora, czyli AI nie w takiej funkcji, że każesz jej stworzyć twoje konto i ona tam za ciebie pisze, tylko taka, która ci doradza, co możesz inaczej, lepiej napisać itp.
Autor audycji zadał ciekawe pytanie o skutki wprowadzenia takiej opcji. Otóż każdy nagle jest kimś zupełnie innym, wszyscy są bardzo wyszukani, ich zdjęcia są równo dopracowane, wszystkie opisy są nietrywialne. I z jednej strony podnosimy poprzeczkę, treści stają się lepszej jakości, fajniejsze. Ale z drugiej, jeśli ktoś pisał, że jest nudny, że nie ma hobby albo lubi pizzę i podróże, to to była jakaś prawda o tym człowieku, która być może nie przysparzała mu fanów czy fanek, ale gdy druga strona zdecydowała się na znajomość na pod- stawie (albo mimo) takiego opisu, to przynajmniej można było wiedzieć, czego się spodziewać, a czego nie. A teraz taki sam „przeciętniak” nagle cytuje Nabokova i pozuje na tle modnej galerii.
I choć strasznie dużo się dziś rodzi lęków wielkiej skali, jeśli chodzi o sztuczną inteligencję w kontekście braku kontroli, jej zbytniej autonomii, to tak naprawdę na tu i teraz większym zagrożeniem jest właśnie ten jej epistemologiczny wymiar, to rozmycie prawdy. Nie stworzyliśmy narzędzia, które samodzielnie myśli, czuje i ma wolę, tylko narzędzie, które generuje obrazy, treści, wideo, które nigdy nie zostały zrobione, napisane, nakręcone. I my na tę rzeczywistość coraz bardziej pozwalamy, nawet na najwyższych szczeblach politycznych.
DJ: Moim zdaniem prowadzi to do bardzo fajnej rzeczy, dobrze, że wspomniałaś o tej aplikacji Hinge. Za chwilę się okaże, że jedna AI dogada się z drugą AI, tzn. bot jednego użytkownika z botem drugiego, podpowie stronom, kto jest w kim zakochany i tylko do zbliżenia nie dojdzie, bo tego AI jeszcze w naszym imieniu nie potrafi.
AP: A agentowa sztuczna inteligencja, twój AI agent i mój AI agent się umawiają, mamy na przykład jakiś spór dotyczący tego, gdzie byśmy chcieli wydać wspólną książkę, mamy osie tego sporu, nasi agenci ze sobą rozmawiają i wypracowują wspólną oś, i całość negocjacji skraca się do kwadransa, bo zostają już tylko te elementy, w których człowiek jest niezbędny (m.in. finalna kontrola), a wszystko pozostałe zostało już załatwione przez naszych agentów między sobą, w naszym imieniu.
Tylko moim zdaniem nikt z nas jeszcze nie wymyślił, gdzie ustawiamy ten suwak. Gdzie w pracy jest to miejsce, w którym wydaje nam się, że możemy odpuścić naszą ingerencję i kontrolę bez obawy o konsekwencje i cieszyć się sprawną reprezentacją, a gdzie znajduje się ta granica, poza którą nasze sprawy dzieją się zupełnie poza nami, i to jest ryzykowne.
Sęk w tym, że takie modele agentowe działają z zupełnie inną prędkością, i w krótkim czasie mogą wymienić np. 3,5 mln wiadomości w naszej sprawie, która miała być jednak omówiona przez nas. Taka dyskusja dosłownie zaczyna żyć swoim życiem, gdzieś obok nas, nawet trudno byłoby wstecznie prześledzić wszystko, co się w niej wydarzyło. Coś jak powrót do korporacyjnej skrzynki po długim urlopie.
DJ: Ale to jest nieuniknione, bo pokusa związana z oszczędnością czasu jest po prostu zbyt duża. Myślę, że koniec końców do tego się to sprowadzi. Będziemy się dowiadywali, że się rozwiedliśmy albo że się z kimś pobraliśmy z powiadomienia w naszym kalendarzu.
AP: Jest też taka optymistyczna wizja synergii, polegają- ca na tym, że my się wreszcie skupimy na tym, co istotne, uwolnimy swój potencjał, podczas gdy to, co mniej ważne, załatwiać za nas będzie AI. No bo jeśli wydelegujesz wszystkie możliwe zadania, również te związane z życiem osobistym i relacjami, to owszem, zostanie Ci mnóstwo czasu, tylko na co?
DJ: Na najważniejsze rzeczy, np. obieranie ziemniaków, bo do tego sztucznej inteligencji nie ma.
AP: Uważam, że ten postulat, który jest mi bliski, i Tobie też, czyli idea współpracy, Human+AI Collaboration, zakłada właśnie dobre rozkładanie akcentów, pomiędzy tym, co można delegować, a tym, co powinno zostać w rękach człowieka. I jak zobaczyłam tę wizję Gazy oddelegowaną AI, to pomyślałam, że tu właśnie suwak poszedł zupełnie nie w tę stronę, bo dyskusja o przyszłości konfliktu i życia po jego zakończeniu, to są sprawy najwyższej wagi i powinny pozostawać całkowicie w rękach człowieka, a nie przybierać psychodeliczne formy generatywnego modelu.
DJ: To bardzo ważne, co mówisz, bo trzeba nieustannie podkreślać, że właśnie kluczowe jest, by nie zgubić tego elementu nadzoru. Jeśli ja sobie ułatwiam życie, ale wciąż mam kontrolę nad swoimi „asystentami” i ich działaniem, to taka współpraca może, owszem, przy- nieść potężne rezultaty, wręcz fenomenalny przełom. Ale jeżeli próbuję zastąpić swoją decyzyjność, to jest to już problematyczne, ten przykład z dziećmi jest zresztą symptomatyczny. Jeśli od początku się uczymy, że nie po to mamy używać AI, żeby zwielokrotnić swoje możliwości, tylko żeby się wysługiwać modelem, to powoduje to oczywiście całkowitą karłowatość rezultatu i co więcej, może prowadzić do absurdów typu bot umawiający się z botem na randki w naszym imieniu. Jeśli modele będą nas za bardzo zastępować, to gdy znikniemy z tej ziemi… nikt tego nie zauważy? A chcielibyśmy, żeby jednak coś się zmieniło w tych konwersacjach.
AP: Ten stopień współpracy i delegowania decyzji fajnie poruszono też w innym odcinku wspomnianego podcastu. Była tam mowa o kobiecie, która postanowiła pod- dać się dyktatowi ChatGPT – miał jej planować tydzień, codzienny plan. Gdy poszła do fryzjera, to z zaplanowaną przez model fryzurą itd. Przez cały tydzień ona i jej rodzina realizowali sugestie modelu, m.in. dotyczące jedzenia, spędzania wolnego czasu, harmonogramu, efektów w pracy. Bohaterka po prostu postanowiła zrobić taki, fascynujący skądinąd, eksperyment i potem opowiadała o swoich doświadczeniach.
I z jednej strony oczywiście pojawiają się spodziewane komentarze na temat niedojrzałości tej technologii – że za parę miesięcy czy lat te sugestie będą jeszcze lepszej jakości itp. Ale to, co było najciekawsze w tym doświadczeniu, to fakt, że stała się nie-sobą, takim trochę everymanem, wykastrowanym ze swojego charakteru, swoich cech, może nawet wad czy przywar. „Basic bitch”, jak sama się określiła, do bólu przeciętna, i nawet jeśli doradzane działania sprawiały, że ktoś ją zauważył w sieci, czy pochwalił w pracy, to wiedziała, że to nie o niej, nie do niej, tylko na konto uśrednionego awatara samej siebie, którym się na chwilę stała.
Więc jedna sprawa z tymi deepfejkami to właśnie za- burzanie rzeczywistości, prezentowanie alternatywnej narracji. To jest bliskie tej dezinformacji, o której mówiłeś, budowania obrazu świata, którego nie ma, który jest sprzeczny z faktami i który może służyć celom politycznym, propagandowym itd. Ale druga kwestia to jest po prostu budowanie rzeczywistości, która jest uśrednioną wersją wszystkich narracji. Gdy dostaję od studentów prace wygenerowane, to one są maksymalnie na 3+, wszystkie do siebie podobne. Nie ma tam własnego pazura, ciekawego wkładu. Wszystko jest poprawne, ale nie – ciekawe, do tego płytkie, na powierzchni.
DJ: Dokładnie! Bauman mówił kiedyś o tym, że gdy patrzymy na kulturę jak na system, to ucieka nam fakt, że to, co jest najciekawsze w kulturze, w twórczości, to innowacyjność, neologizmy, coś odrębnego, innego niż standard, twórca „anomalia”. I może tak trzeba spojrzeć też na AI. Im bardziej posługujemy się pewnym uśrednionym wzorcem, który AI nam podsuwa, tym bardziej jesteśmy bezpieczni, bo to jest oczywiście wybór przez uśrednienie „ubezpieczony”, ale jednocześnie stajemy się sztancowi, nijacy, w ten sposób mogłyby powstać całe zastępy już nie tyle ludzi, co ludzkich replik tych samych uśrednionych wzorców. Więc znów – realnym dziś zagrożeniem nie jest to, że AI w postaci wielkiego robotycznego potwora przyjdzie i nas zje. Prędzej zjedzą nas takie drobne osobliwości, a właściwie ich uśrednione wymazywanie.
AP: Tak! Dlatego dodam, że niedawno powzięłam po- stanowienie, że odtąd w mediach społecznościowych prezentuję tylko swój własny głos. Były momenty, kiedy coś podgenerowywałam, edytowałam. Nadal, gdy prezentuję jakieś dane, to proszę model o drobną asystę w wizualnej stronie – dodanie flag itp., żeby jakoś to ładnie ograł graficznie, ale co do zasady tekst piszę własnym głosem.
I mam wrażenie, że tak pragmatycznie rzecz biorąc, to się też naprawdę lepiej klika, przynajmniej na razie. Ja sama z większą uwagą czytam posty, co do których czuję, że zostały napisane przez człowieka – a całkiem nieźle umiem to wyczuć. Nawet jeśli te ludzkie posty są bardziej chaotyczne, może czasem niedbałe, ale jako takie – wciąż ciekawsze, bo inne, własne, osobne.