Twój koszyk jest obecnie pusty!
Jak informuje OpenAI, treści przekazywane przez użytkowników ChatGPT, uznane za niebezpieczne, trafiają do ludzkich recenzentów, którzy mogą podjąć decyzję o powiadomieniu organów ścigania. Jak w swoim wpisie blogowym podkreśla firma, procedura dotyczy wyłącznie „bezpośrednich zagrożeń dla życia”. Nie wiadomo jednak, w jaki sposób ustalana jest lokalizacja użytkowników ani jakie dokładnie treści mogą uruchomić taką interwencję.
Cytowani przez futurism.com krytycy zwracają uwagę, że praktyka ta stoi w sprzeczności z wcześniejszymi deklaracjami CEO OpenAI Sama Altmana, który obiecywał „prywatność na poziomie terapeuty”. Wątpliwości budzi też ryzyko nadużyć, np. podszywania się pod inne osoby w celu wywołania fałszywej interwencji.
W sieci pojawiły się dziesiątki krytycznych reakcji. „Ah tak, wezwijcie policję. To na pewno pomoże” – ironizuje muzyk i pisarz John Darnielle. Badaczka Michelle Martin nazwała działania OpenAI „maszyną inwigilacji i śmierci, która proponuje jeszcze więcej inwigilacji jako rozwiązanie problemu”.
Te informacje o działaniach OpenAI wpisują się w szersze obawy dotyczące branży AI, która – zdaniem wielu ekspertów – wypuszcza niedopracowane narzędzia i testuje je na użytkownikach, a w razie kryzysu sięga po autorytarne środki naprawcze.