Twój koszyk jest obecnie pusty!
Artykuł 5 Aktu o Sztucznej Inteligencji (AI Act) dotyczący zakazanych praktyk w zakresie AI zaczął obowiązywać 2 lutego 2025 r. Wymienione w nim praktyki obejmują manipulowanie ludźmi, wykorzystywanie ich słabości, scoring społeczny [system oceny obywateli – przyp. red.], przewidywanie przestępstw na podstawie profilowania, tworzenie baz danych biometrycznych, analizę emocji w miejscach pracy i szkołach, kategoryzację według cech wrażliwych oraz zdalną identyfikację biometryczną w czasie rzeczywistym w przestrzeni publicznej, poza ściśle określonymi wyjątkami. Czy to wystarczające rozwiązanie w kontekście praw człowieka, w tym prawa do godności, równego traktowania, prywatności, wolności, sprawiedliwego procesu oraz prawa do ochrony osób szczególnie wrażliwych?
Techniki podprogowe lub manipulacyjne
Badania pokazują, że treści generowane przez duże modele językowe (LLM) są równie perswazyjne jak te tworzone przez ludzi. Generatywnej AI często używa się do wpływania na opinię publiczną poprzez zniekształcanie faktów, podszywanie się pod osoby czy wzbudzanie negatywnych emocji, takich jak strach czy złość. W internecie pojawia się wiele fake newsów, np. na temat wyborów prezydenckich, skuteczności szczepionek lub działań podejmowanych przez rządy. Twórcy modeli i systemów AI skutecznie wykorzystują sprawdzone, tradycyjne elementy perswazji. Na dodatek systemy często mają uprzedzenia poznawcze podobne do ludzkich, co może prowadzić do dyskryminacji i powielać krzywdzące stereotypy.