Twój koszyk jest obecnie pusty!
W grudniu 2023 roku mieszkańcy Dubaju włączyli telewizory i zobaczyli wiadomości. Prezenter mówił spokojnie, profesjonalnie, z odpowiednią dawką powagi. Tyle, że tego prezentera nigdy nie było. Nie istniał. Był w całości wygenerowany przez sztuczną inteligencję, a sam przekaz – spreparowany przez grupę Cotton Sandstorm, powiązaną z irańskim Korpusem Strażników Rewolucji Islamskiej (IRGC). Hakerzy przejęli sygnał IPTV i podmienili program na propagandę dotyczącą konfliktu w Strefie Gazy. Widzowie w ZEA, Kanadzie i Wielkiej Brytanii zobaczyli coś, co Microsoft Threat Analysis Center (MTAC) określiło później jako pierwszą irańską operację wpływu, w której AI stanowiła kluczowy komponent przekazu (Microsoft Threat Analysis Center, 2024).
Ten incydent warto potraktować jako punkt zwrotny – nie dlatego, że deepfake’i są czymś nowym, ale dlatego, że po raz pierwszy państwowy aktor połączył cyberatak (przejęcie infrastruktury nadawczej) z generatywną AI w jednej spójnej operacji. To coś jakościowo innego niż trolling w mediach społecznościowych.





