🔒 Jak sprawdzać, czy model halucynuje?

Czym są halucynacje, czyli tak zwane błędne odpowiedzi lub predykcje modelu, jakie są rodzaje tych błędów, i przede wszystkim, jak sobie z nimi radzić?

Kiedy pojawił się ChatGPT oparty o model GPT-3.5, wiele osób na X (dawnym Twitterze) czy innych portalach społecznościowych zaczęło publikować przykłady wpadek tego modelu, tzn. konwersacji, gdzie w odpowiedzi otrzymywali totalny nonsens, błędne fakty czy absurdalne (czasem wręcz niebezpieczne) porady.

Jak każdy chatbot, ten też przeszedł próbę ognia, czyli wszelkie jailbreaki (specjalnie zmodyfikowane instrukcje, więcej na ten temat można przeczytać w artykule Mikołaja Kowalczyka), które miały go „sprowadzić na złą drogę” i dostarczyć powodów do obśmiania. Mając miliony testerów, OpenAI starało się na bieżąco reagować na te problemy, inni dostawcy modeli generatywnych, ucząc się na błędach konkurencji, starali się ulepszać swoje modele jeszcze przed ich upublicznieniem – ale przy takiej skali potencjalnych zapytań to wciąż walka z wiatrakami. Kiedy udało się im opanować jeden temat, to inny nadal radośnie mijał się z prawdą. Te czasem zabawne wpadki dostały oficjalną nazwę „halucynacji”, mimo że moglibyśmy je nazywać dosłownie „błędnymi odpowiedziami lub predykcjami modelu”, ale to oczywiście mało nośna, szczególnie dziennikarsko, nazwa. Na Wikipedii artykuł opisujący to zjawisko w świecie AI pojawił się pod koniec 2022 roku, czyli dokładnie wtedy, gdy upubliczniony został dostęp do ChatGPT.

Ten artykuł jest częścią drukowanej edycji hAI Magazine. Aby go przeczytać w całości, wykup dostęp on-line

25 zł miesięcznie

Wykup dostęp

Michal Dulemba

Doświadczony inżynier ML, youtuber i autor, znany ze swojego interdyscyplinarnego podejścia do technologii i mediów

Podziel się

Może Cię zainteresować