Twój koszyk jest obecnie pusty!
Oprócz dobrze znanych wyzwań, takich jak ryzyko dyskryminacji czy potencjalne ujawnienie niebezpiecznych informacji, naukowcy z Oksfordu zwrócili uwagę na dwa inne kluczowe zagrożenia: nadmierne poleganie na modelach AI oraz ich zdolność do perswazji. Te ryzyka są szczególnie duże, ponieważ eksperymenty pokazują, że ludzkie zaufanie do modeli jest większe niż ich rzeczywista dokładność. Sprawę komplikuje fakt, że modele – pomimo niewiedzy – wypowiadają się jak eksperci: szczegółowo wyjaśniają złożone zagadnienia i używają przy tym skomplikowanych słów. A ludzie ufają im bardziej niż ludzkim ekspertom.
Badacze z Massachusetts Institute of Technology (MIT) udowodnili to w eksperymencie, w którym uczestnicy rozpoznawali emocje i oceniali ich intensywność. W jednym z etapów mogli zmienić swoją decyzję, kierując się sugestią, która pochodziła od sztucznej inteligencji lub od innego człowieka. Informację o źródle wskazówki przekazywali im badacze. Uczestnicy częściej zmieniali zdanie na sugerowane, gdy myśleli, że pochodzi ono od AI – nawet jeśli tak naprawdę autorem był człowiek. Okazało się też, że uczestnicy zmieniali zdanie tak samo rzadko, gdy doradzał im człowiek i gdy myśleli, że doradza im człowiek, podczas gdy doradzała im AI.