🔒 Deepfake na wojnie. Kiedy prezenter wiadomości nie istnieje

Wojna na Bliskim Wschodzie od początku toczy się na dwóch frontach – tradycyjnym i informacyjnym. A ten drugi okazuje się być najintensywniejszym testem zdolności deepfake’owych, jaki dotąd widzieliśmy.

W grudniu 2023 roku mieszkańcy Dubaju włączyli telewizory i zobaczyli wiadomości. Prezenter mówił spokojnie, profesjonalnie, z odpowiednią dawką powagi. Tyle, że tego prezentera nigdy nie było. Nie istniał. Był w całości wygenerowany przez sztuczną inteligencję, a sam przekaz – spreparowany przez grupę Cotton Sandstorm, powiązaną z irańskim Korpusem Strażników Rewolucji Islamskiej (IRGC). Hakerzy przejęli sygnał IPTV i podmienili program na propagandę dotyczącą konfliktu w Strefie Gazy. Widzowie w ZEA, Kanadzie i Wielkiej Brytanii zobaczyli coś, co Microsoft Threat Analysis Center (MTAC) określiło później jako pierwszą irańską operację wpływu, w której AI stanowiła kluczowy komponent przekazu (Microsoft Threat Analysis Center, 2024).

Ten incydent warto potraktować jako punkt zwrotny – nie dlatego, że deepfake’i są czymś nowym, ale dlatego, że po raz pierwszy państwowy aktor połączył cyberatak (przejęcie infrastruktury nadawczej) z generatywną AI w jednej spójnej operacji. To coś jakościowo innego niż trolling w mediach społecznościowych.

Ten artykuł jest częścią płatnej edycji hAI Magazine.

Miesiąc za darmo dla nowych czytelników

Aktywuj

Profesor zarządzania Akademii Leona Koźmińskiego, gdzie kieruje katedrą MINDS (Management in Networked and Digital Societies). Pracuje też jako faculty associate w Berkman-Klein Center for Internet and Society na Harvardzie. Wiceprezes Polskiej Akademii Nauk. Członek Rady Programowej CampusAI.

Share

You might be interested in