🔒 Nie takie AI straszne, jak je malują

Chociaż korzystanie z narzędzi AI może stanowić dla nas pewne zagrożenia. Moim zdaniem najważniejsze z nich to…

Nieumyślna utrata prywatności

Od lat żartujemy, że największym kłamstwem internetu jest „przeczytałem regulamin serwisu i zgadzam się z nim”. Efekt? Pracownicy, którzy wklejają poufne dane klientów w różne narzędzia, nie zdając sobie sprawy, że te dane w rzeczywistości wysyłane są przez API (interfejs programistyczny) do dużych modeli językowych (LLM). Ryzyko? Dane mogą zostać zwrócone innemu użytkownikowi. I to nie tylko na skutek wykorzystania ich do szkolenia modelu, lecz także w wyniku typowych błędów w aplikacjach przeglądarkowych (ChatGPT miał już taki problem).

Automatyzacja dezinformacji

Platformy społecznościowe są pełne tzw. użytecznych idiotów, czyli prawdziwych ludzi, którzy amplifikują treści zmanipulowane, bo te w negatywnym świetle stawiają znienawidzonych przez nich polityków. Dzięki dużym modelom językowym, które potrafią szybko tworzyć treści na zawołanie, i to w kilkunastu językach, łatwiej można budować siatki botów, które w czasie rzeczywistym – i co ważne, zupełnie bez udziału człowieka – potrafią prowadzić dyskusję, zachowując konkretną narrację. Czasem tylko, na skutek błędu lub braku ochrony przed atakami wstrzykiwania poleceń (prompt injection), zamiast oczerniać jakąś grupę społeczną, podadzą przepis na sernik.

Ten artykuł jest częścią drukowanej edycji hAI Magazine. Aby go przeczytać w całości, wykup dostęp on-line

25 zł miesięcznie

Wykup dostęp

Piotr Konieczny

Podziel się

Może Cię zainteresować