Twój koszyk jest obecnie pusty!
Odpowiedź nie jest prosta i raczej trudno ją jednoznacznie sformułować, ale fundamentalne dla zrozumienia AI Act jest uchwycenie, jakie kategorie systemów AI pojawiają się w całym dokumencie. Zasadniczo podział jest następujący:
- Systemy (praktyki) zakazane – np. manipulujące człowiekiem, rozpoznawanie emocji w miejscu pracy;
- Systemy o wysokim ryzyku (de facto dla człowieka) – np. kategoryzacja biometryczna, profilowanie, scoring kredytowy;
- Systemy o zwiększonym zakresie obowiązków informacyjnych – deepfake, asystenci głosowi;
- Modele ogólnego przeznaczenia (do nich jeszcze wrócimy) – w tym te generujące ryzyko systemowe – duże modele językowe czy modele dyfuzyjne.
W pozostałym zakresie nie mamy ingerencji prawnej, choć oczywiście to, że system lub model nie jest kwalifikowany „pod” AI Act, nie zwalnia z obowiązku dokonania oceny jego zgodności z innymi aktami czy regulacjami. Ot, zrzucamy z siebie jedynie te obowiązki, które unijny prawodawca postanowił nałożyć na konkretne podmioty – rola będzie uzależniona od tego, co robimy w kontekście danego systemu lub modelu (tu sprawa jest łatwiejsza, bowiem bezpośrednio nie zdecydowano się na uregulowanie odpowiedzialności podmiotów stosujących modele ogólnego przeznaczenia). O rolach za chwilę.