Twój koszyk jest obecnie pusty!
Kiedy pojawił się ChatGPT oparty o model GPT-3.5, wiele osób na X (dawnym Twitterze) czy innych portalach społecznościowych zaczęło publikować przykłady wpadek tego modelu, tzn. konwersacji, gdzie w odpowiedzi otrzymywali totalny nonsens, błędne fakty czy absurdalne (czasem wręcz niebezpieczne) porady.
Jak każdy chatbot, ten też przeszedł próbę ognia, czyli wszelkie jailbreaki (specjalnie zmodyfikowane instrukcje, więcej na ten temat można przeczytać w artykule Mikołaja Kowalczyka), które miały go „sprowadzić na złą drogę” i dostarczyć powodów do obśmiania. Mając miliony testerów, OpenAI starało się na bieżąco reagować na te problemy, inni dostawcy modeli generatywnych, ucząc się na błędach konkurencji, starali się ulepszać swoje modele jeszcze przed ich upublicznieniem – ale przy takiej skali potencjalnych zapytań to wciąż walka z wiatrakami. Kiedy udało się im opanować jeden temat, to inny nadal radośnie mijał się z prawdą. Te czasem zabawne wpadki dostały oficjalną nazwę „halucynacji”, mimo że moglibyśmy je nazywać dosłownie „błędnymi odpowiedziami lub predykcjami modelu”, ale to oczywiście mało nośna, szczególnie dziennikarsko, nazwa. Na Wikipedii artykuł opisujący to zjawisko w świecie AI pojawił się pod koniec 2022 roku, czyli dokładnie wtedy, gdy upubliczniony został dostęp do ChatGPT.