COP-GPT? OpenAI może zgłaszać użytkowników na policję

OpenAI przyznało, że rozmowy prowadzone w ChatGPT są monitorowane, a w niektórych przypadkach mogą być przekazywane policji. Informacja, opublikowana w blogowym wpisie, wywołała falę oburzenia wśród użytkowników i ekspertów.

Redakcja

Loading the Elevenlabs Text to Speech AudioNative Player…

Jak informuje OpenAI, treści przekazywane przez użytkowników ChatGPT, uznane za niebezpieczne, trafiają do ludzkich recenzentów, którzy mogą podjąć decyzję o powiadomieniu organów ścigania. Jak w swoim wpisie blogowym podkreśla firma, procedura dotyczy wyłącznie „bezpośrednich zagrożeń dla życia”. Nie wiadomo jednak, w jaki sposób ustalana jest lokalizacja użytkowników ani jakie dokładnie treści mogą uruchomić taką interwencję.

Cytowani przez futurism.com krytycy zwracają  uwagę, że praktyka ta stoi w sprzeczności z wcześniejszymi deklaracjami CEO OpenAI Sama Altmana, który obiecywał „prywatność na poziomie terapeuty”. Wątpliwości budzi też ryzyko nadużyć, np. podszywania się pod inne osoby w celu wywołania fałszywej interwencji.

W sieci pojawiły się dziesiątki krytycznych reakcji. „Ah tak, wezwijcie policję. To na pewno pomoże” – ironizuje muzyk i pisarz John Darnielle. Badaczka Michelle Martin nazwała działania OpenAI „maszyną inwigilacji i śmierci, która proponuje jeszcze więcej inwigilacji jako rozwiązanie problemu”.

Te informacje o działaniach OpenAI wpisują się w szersze obawy dotyczące branży AI, która – zdaniem wielu ekspertów – wypuszcza niedopracowane narzędzia i testuje je na użytkownikach, a w razie kryzysu sięga po autorytarne środki naprawcze.

Podziel się

Może Cię zainteresować