AI #2: jak to robi Australia?

Australia, znana z unikatowego ekosystemu, przyjmuje jednak zaskakująco wyważone podejście do regulacji sztucznej inteligencji.

W przeciwieństwie do Unii Europejskiej czy Stanów Zjednoczonych, które podejmują gwałtowne ruchy regulacyjne, Australia obrała ścieżkę stopniowej ewolucji – od dobrych praktyk do planowanych obowiązkowych wymogów.

Rok (r)ewolucji 

Wszystko zaczęło się od wprowadzenia dobrowolnych Zasad Etyki AI w 2019 roku. Osiem podstawowych zasad, wzorowanych na wytycznych OECD, stworzyło pierwszy szkielet odpowiedzialnego rozwoju AI w Australii. Szkielet, na którym opiera się kompleksowe podejście do rozwoju sztucznej inteligencji, obejmuje dbałość o dobro człowieka, społeczeństwa i środowiska. Szczególny nacisk położono na sprawiedliwość i przeciwdziałanie dyskryminacji, a także ochronę prywatności i bezpieczeństwo danych. Nie zapomniano również o kwestiach niezawodności systemów AI oraz ich transparentności m.in. poprzez wprowadzenie możliwości kwestionowania decyzji AI.

W sierpniu 2024 wprowadzono Dobrowolny Standard Bezpieczeństwa AI, który znacząco rozszerzył pierwotne zasady. Wprowadził konkretne wytyczne, które dotyczą ustanawiania procesów odpowiedzialności i zarządzania ryzykiem. Szczególną uwagę poświęcono kwestiom nadzoru nad danymi oraz testowania modeli AI, nie zapomniano przy tym o kwestii absolutnie kluczowej, tj.  ludzkim nadzorze nad systemami. Standard wymaga również transparentnego informowania użytkowników o zmianach oraz wprowadzenia skutecznych mechanizmów składania skarg.

Dwa podejścia do definicji wysokiego ryzyka

We wrześniu 2024 roku, gdy rząd przedstawił propozycję wprowadzenia obowiązkowych zabezpieczeń dla systemów AI wysokiego ryzyka. Australia rozważa dwa podejścia do definicji wysokiego ryzyka: pierwsze oparte na elastycznych zasadach, drugie na konkretnej liście zastosowań, podobne do rozwiązań przyjętych w UE i Kanadzie.

  • Podejście 1: Ocena ryzyka dla konkretnych, zdefiniowanych zastosowań AI. Analiza koncentruje się na znanych lub możliwych do przewidzenia skutkach w ramach określonego zastosowania systemu.
  • Podejście 2: Dotyczy systemów AI o wysokim poziomie zaawansowania, których potencjalne zastosowania i ryzyka wykraczają poza obecne przewidywania. Kluczowa jest tu ocena zagrożeń emergentnych – czyli takich, które mogą pojawić się w sposób nieoczekiwany i potencjalnie prowadzić do szkód o szerokim zasięgu społecznym.

Choć w Australii obecnie nie istnieje specjalny regulator AI, nadzór nad różnymi aspektami wykorzystania AI sprawują organy państwowe; Australijska Komisja ds. Konkurencji i Konsumentów współpracuje z ACMA oraz Biurem Australijskiego Komisarza ds. Informacji, a także z Komisarzem ds. e-Bezpieczeństwa.

A co ze współpracą międzynarodową?

Dla firm działających w Australii nowe regulacje oznaczają konieczność gruntownego przemyślenia  podejścia do AI. Przedsiębiorstwa muszą stworzyć jasne zasady przestrzegania wymogów bezpieczeństwa i prowadzić dokładne zapisy swoich działań, które pozwolą na kontrolę przez zewnętrzne podmioty. Niezwykle istotne stało się również przeprowadzanie regularnych ocen zgodności w celu certyfikacji zgodności z zabezpieczeniami.

Australia zmierza w kierunku modelu regulacyjnego, który zręcznie łączy elastyczność z konkretnymi wymogami bezpieczeństwa. Preferuje podejście oparte na ryzyku oraz zachowanie równowagi między prewencją a środkami naprawczymi. Ważne jest, aby różni regulatorzy z różnych sektorów współpracowali ze sobą, a prawo było na tyle elastyczne, by nadążać za szybkim rozwojem technologii.

Studentka Global Business, Finance and Governance zafascynowana innowacjami finansowymi – DeFi, NFT, ICO oraz robo-advisory.

Podziel się

Może Cię zainteresować