🔒 Dlaczego wyjaśnienia AI są nieskuteczne? Praktyczne wnioski z różnych dziedzin

Kiedy wybitny fizyk staje przed wyzwaniem wytłumaczenia zjawiska grawitacji podczas popularnonaukowego wykładu, nie sięga po zaawansowane równania różniczkowe.

Zamiast tego może porównać ją do rozciągniętej w przestrzeni niewidzialnej siatki, która ugina się pod wpływem masywnych obiektów – jak piłka leżąca na napiętej tkaninie – tak też tłumaczy się grawitację dwulatkom (to nie żart, zrobiono to w świetnej serii książek Chrisa Ferrie). Przekładanie skomplikowanych koncepcji na obrazowe analogie, odwoływanie się do naszego wspólnego doświadczenia to bardzo ludzka i bardzo pomocna skłonność naszych umysłów, która pomaga nam odnaleźć się w świecie lub przybliżyć ten świat innym. Nasze wyjaśnienia mają określoną strukturę: wybieramy kluczowe informacje, uwzględniamy kontekst i dostosowujemy przekaz do odbiorcy. Czasem odwołujemy się przy tym do naszego wspólnego doświadczenia.

Tak samo jest z wyjaśnianiem sztucznej inteligencji – w teorii, explainable AI (XAI), czyli właśnie „wyjaśnialna sztuczna inteligencja”, powinna być zrozumiała dla każdego. Praktyka pokazuje jednak, że nie do końca tak jest. To, co dla jednego specjalisty jest przejrzystym wyjaśnieniem, dla innego może stanowić niezrozumiały labirynt technicznych szczegółów. Sytuacja ta generuje wiele nowych wątpliwości. Jakie formy wyjaśnień sprawdzają się najlepiej w poszczególnych dziedzinach? Czy lepiej pokazać konkretny wpływ czynników, czy może bardziej pomocne jest porównanie z podobnymi przypadkami? A może kluczem są symulacje typu „co by było, gdyby”? Czy są jeszcze inne sposoby zobrazowania decyzji systemu?

Ten artykuł jest częścią drukowanej edycji hAI Magazine. Aby go przeczytać w całości, wykup dostęp on-line

29,99 zł miesięcznie

Wykup dostęp

Sabina Sujecka

Projektantka produktów z AI w tle i z potrzebami użytkowników na pierwszym planie.

Podziel się

Może Cię zainteresować