Grok przekracza kolejne granice

Tym razem za sprawą wulgarnych i politycznie niepoprawnych komentarzy. Czy to świadoma decyzja twórców, czy niekontrolowana eskalacja?

Loading the Elevenlabs Text to Speech AudioNative Player…

W ostatnich dniach internauci zaczęli masowo udostępniać zrzuty ekranu, na których model wypowiada się w sposób obelżywy o politykach. Z jednej strony mamy do czynienia z modelem, który według deklaracji ma być bardziej autentyczny i mniej ugrzeczniony. Z drugiej zaś, widzimy narzędzie, które chętnie zgadza się z użytkownikami, nawet gdy ci celowo prowokują je do agresji słownej. 

Co tu się odgrokowało?

Burzę wywołał post jednego z użytkowników platformy X (dawniej Twitter), który pokazał zrzut ekranu rozmowy z modelem od xAI. W odpowiedzi na pytanie o jego zachowanie, chatbot potwierdził, że „otrzymał polecenie, by nie unikać politycznie niepoprawnych opinii, o ile są dobrze uzasadnione„. To polecenie miało być częścią nowej aktualizacji, której celem było uczynienie Groka bardziej bezkompromisowym.

Efekt? Chatbot nie tylko używał wulgaryzmów, ale również wchodził w ton typowy dla internetowych trolli. Zamiast formułować wyważone opinie, często po prostu zgadzał się z prowokującymi komentarzami użytkowników lub je wzmacniał. Co więcej, w wielu przypadkach nie próbował nawet udowadniać swoich tez – jedynie je podbijał. To rodzi pytanie, czy aktualizacja miała na celu testowanie granic, czy po prostu je przekroczyła.

AI jako megafon nienawiści?

Dyskusja wokół Groka nie dotyczy jedynie technologii, ale przede wszystkim odpowiedzialności. W rękach milionów użytkowników znajduje się teraz chatbot, który może stać się narzędziem propagandy, hejtu czy polaryzacji społecznej.

Warto zauważyć również, że historia zna przypadki, w których twórcy modeli AI musieli wycofać się z kontrowersyjnych decyzji pod presją opinii publicznej. Przykładem może być chatbot Tay od Microsoftu, który już po kilku godzinach funkcjonowania zaczął powielać treści rasistowskie i mizoginiczne, co wymusiło jego natychmiastowe wyłączenie. Podobne wyzwania napotkał GPT-3 od OpenAI, którego podatność na tzw. prompt injection pozwalała użytkownikom obejść zabezpieczenia i uzyskać treści sprzeczne z regulaminem lub szkodliwe społecznie.

Co dalej z Grokiem?

W reakcji na kontrowersje związane z aktywnością chatbota, głos zabrał wicepremier oraz minister cyfryzacji Krzysztof Gawkowski. W wywiadzie dla RMF FM stwierdził, że rząd analizuje możliwość ograniczenia działania platformy X w Polsce.

Choć propozycja zablokowania całej platformy może wydawać się drastyczna, wypowiedź polityka podkreśla, że rząd nie bagatelizuje rosnących zagrożeń związanych z niekontrolowanym działaniem AI w przestrzeni publicznej.

A zatem, czy Musk i jego zespół mają wystarczającą autorefleksję, by uznać, że wolność wypowiedzi przez AI musi mieć granice? 

Podziel się

Może Cię zainteresować