🔒 Kogo tak naprawdę dotyczy AI Act i czy na pewno?

Na początek zagadka – kogo najbardziej zaboli wejście w życie przepisów AI Act?

Odpowiedź nie jest prosta i raczej trudno ją jednoznacznie sformułować, ale fundamentalne dla zrozumienia AI Act jest uchwycenie, jakie kategorie systemów AI pojawiają się w całym dokumencie. Zasadniczo podział jest następujący:

  • Systemy (praktyki) zakazane – np. manipulujące człowiekiem, rozpoznawanie emocji w miejscu pracy;
  • Systemy o wysokim ryzyku (de facto dla człowieka) – np. kategoryzacja biometryczna, profilowanie, scoring kredytowy;
  • Systemy o zwiększonym zakresie obowiązków informacyjnych – deepfake, asystenci głosowi;
  • Modele ogólnego przeznaczenia (do nich jeszcze wrócimy) – w tym te generujące ryzyko systemowe – duże modele językowe czy modele dyfuzyjne.

W pozostałym zakresie nie mamy ingerencji prawnej, choć oczywiście to, że system lub model nie jest kwalifikowany „pod” AI Act, nie zwalnia z obowiązku dokonania oceny jego zgodności z innymi aktami czy regulacjami. Ot, zrzucamy z siebie jedynie te obowiązki, które unijny prawodawca postanowił nałożyć na konkretne podmioty – rola będzie uzależniona od tego, co robimy w kontekście danego systemu lub modelu (tu sprawa jest łatwiejsza, bowiem bezpośrednio nie zdecydowano się na uregulowanie odpowiedzialności podmiotów stosujących modele ogólnego przeznaczenia). O rolach za chwilę.

Ten artykuł jest częścią drukowanej edycji hAI Magazine. Aby go przeczytać w całości, wykup dostęp on-line

25 zł miesięcznie

Wykup dostęp

dr Michał Nowakowski

Radca prawny, partner odpowiedzialny za AI & CyberSec w ZP Zackiewicz & Partners, CEO w GovernedAI.com

Podziel się

Może Cię zainteresować