Twój koszyk jest obecnie pusty!
Czy możemy zaufać urzędnikom, którzy podejmują decyzje administracyjne przy pomocy sztucznej inteligencji? Doktor Aleksander Kwaśniak, prawnik z zakresu prawa administracyjnego i Dyrektor Instytutu Nauk Prawnych Akademii Humanitas dzieli się następującym przemyśleniem:
– Wydaje się, że urzędnikom należałoby polecić stosowanie zasady ograniczonego zaufania, ponieważ w razie popełnienia błędów przez AI to i tak urzędnik, który podpisał decyzję, będzie ponosił prawne konsekwencje jej ewentualnej wadliwości.
Obecne przepisy prawa, co zapewne nie jest niespodzianką, nie nadążają za postępem technologicznym. W regulacjach brakuje wyraźnych wytycznych, które dotyczyłyby stosowania AI w urzędach. Jak podkreśla doktor Kwaśniak:
– W aktualnie obowiązujących przepisach regulujących procedurę administracyjną, czy też szerzej – funkcjonowanie administracji publicznej – nie ma nawet wzmianki o udziale sztucznej inteligencji w tym procesie. AI jest używana w charakterze narzędzia, podobnie jak dziurkacz czy kserokopiarka.
Nie oznacza to jednak, że nad normalizacjami prawnymi nie toczą się żadne, a urzędnicy zawsze będą mogli korzystać z AI w pracy bez żadnych ograniczeń i obostrzeń prawnych .
– Sam brałem udział w konferencjach poświęconych prawnym aspektom funkcjonowania AI. Aby określić ramy prawne stosowania AI i odpowiedzialności za błędy sztucznej inteligencji nie wystarczy jedno spotkanie. To temat złożony, w którym musimy uwzględnić wiele czynników, w tym czynnik interesu publicznego i zaufania obywateli do urzędów – dodaje prawnik.
Za decyzje wspierane AI też ktoś poniesie odpowiedzialność
Jednym z głównych problemów związanych z wykorzystaniem AI w administracji jest kwestia odpowiedzialności.
– Błędem jest używanie zwrotu „decyzja podjęta przez AI”, ponieważ AI jest, wysoce zaawansowanym technicznie, ale ciągle jednak tylko narzędziem w rękach człowieka – podkreśla Dyrektor Instytutu Nauk Prawnych AH. – Z kolei rezultatem błędnej decyzji może być jej uchylenie w postępowaniu odwoławczym, stwierdzenie jej nieważności, jeśli będzie obarczona kwalifikowanymi wadami prawnymi, a nawet odpowiedzialność odszkodowawcza, gdyby wskutek wadliwie wydanej decyzji strona postępowania poniosła szkodę.
Co za tym idzie, nie da się wykluczyć, że w niedalekiej przyszłości w treści umów, które zawierane są między dostawcą oprogramowania a urzędem, pojawią się zapisy o karach umownych, czy też innym rodzaju odpowiedzialności odszkodowawczej od twórcy oprogramowania AI.
– Pamiętajmy, że jedną z cech AI jest to, że potrafi się – mówiąc kolokwialnie – „zerwać z łańcucha” i rozumować w sposób niezależny od obsługującego urządzenie człowieka – dodaje ekspert.
Czy zatem – aby można było lepiej zabezpieczyć interesy obywateli – zmian w przepisach, potrzebujemy już dziś ? Ekspert wyraża jasne zdanie na ten temat. Interesy stron w postępowaniu administracyjnym nie potrzebują dodatkowej ochrony, ponieważ są zabezpieczone tak samo, jak w przypadku tradycyjnych metod pracy, bez stosowania nowoczesnych technologii. Jednak warto zwrócić uwagę na przepisy, które chronią urzędników.
– Zastanowiłbym się nad tym, czy odpowiedzialnością za potencjalne błędy urzędnicy powinni podzielić się z twórcami oprogramowania AI, czy może z samą sztuczną inteligencją? W najnowszych badaniach naukowych rozważa się AI jako potencjalny podmiot praw i obowiązków, w formule zbliżonej do istoty ludzkiej.
Gdyby sztuczna inteligencja była uznana za podmiot praw i obowiązków, nadal pozostawałby problem, jak praktycznie miałaby wypełniać te obowiązki, w tym wypłacać zadośćuczynienie. Prawdopodobnie wymagałoby to stworzenia specjalnych funduszy lub mechanizmów zarządzanych przez twórców, lub operatorów AI, z których AI „oficjalnie” wypłacałaby zadośćuczynienia. Nadal jednak kluczowe decyzje dotyczące tych płatności musiałyby być podejmowane przez ludzi, co prowadzi do pytania o faktyczną autonomię i odpowiedzialność AI.
Obowiązkiem urzędnika nadzorować AI?
Można by w tym miejscu zadać sobie pytanie, czy nasi biurokratyczni strażnicy prawa i terminów wkrótce będą musieli przeistoczyć się w cyber-kowbojów, próbujących okiełznać dzikie AI w imię dobra publicznego? A może w cyfrowych detektywów, którzy tropią każdy podejrzany ruch maszyny?
Z dużą dozą prawdopodobieństwa założyć możemy, że urzędnik jutra nie będzie ograniczał się do stempla i paragrafu, lecz będzie musiał nauczyć się współpracy z maszyną. Jak zauważa ekspert z zakresu prawa administracyjnego to będzie specyficzna współpraca:
– W tym aspekcie na pewno przydatnym będzie ewidencjonowanie najczęściej występujących błędów i problemów, by sygnalizować je twórcy oprogramowania. Tak, aby on zajmował się usuwaniem usterki w sposób systemowy.
Sztuczna inteligencja niekoniecznie czyni działania władzy bardziej przejrzystymi. Może jednak sprawić, że ludzie, a szczególnie funkcjonariusze publiczni będą mniej uważni, co zwiększa szansę na popełnienie błędów. Jak tego uniknąć? Odpowiedź wydaje się banalna:
– Dokumenty powinny być bardzo dokładnie weryfikowane przed podpisaniem i wprowadzeniem do obiegu prawnego, bardziej niż to zazwyczaj bywa. Zarówno ludzie, jak i systemy sztucznej inteligencji mogą popełniać błędy – podkreśla Aleksander Kwaśniak.
Obywatelu – w decyzji mogło pomóc AI
Gdy do bazy orzeczeń sądów administracyjnych wpiszemy frazę „sztuczna inteligencja”, zobaczymy w wynikach wyszukiwania 80 orzeczeń. Z tym zastrzeżeniem, że dotyczą one głównie badań naukowych, albo interpretacji indywidualnych prawa podatkowego. Zdaniem eksperta:
– Nie znajdziemy orzeczeń, gdzie ktoś zaskarżył decyzję wydaną z zastosowaniem AI, najpewniej dlatego, że strona postępowania z reguły nawet nie wie, że takie narzędzie zostało zastosowane.
Czy zatem, jeżeli nie wiemy, czy urzędnik pracował samodzielnie, czy też wsparł się sztuczną inteligencją, nie mamy prawa do odwołania się od decyzji?
– Każda decyzja może być zaskarżona do organu wyższej instancji. Jeśli postępowanie prowadzone było w trybie przepisów kodeksu postępowania administracyjnego, nie trzeba w takim odwołaniu pisać niczego, poza wyrażeniem swojego niezadowolenia. W trybie Ordynacji podatkowej trzeba już sformułować jakiś zarzut naruszenia prawa przez organ I instancji. W jednym i w drugim przypadku wniesienie odwołania wywołuje ten skutek, że organ II instancji będzie musiał jeszcze raz, od początku do końca rozpoznać daną sprawę. Nie możemy jednak wykluczyć, że i w II instancji pomocą urzędnikom będzie służyła AI.
Ochrona danych wrażliwych
Dla administracji publicznej, która zdecydowała się na wdrażanie systemów AI, RODO pozostaje kluczowym aktem prawnym.
Urzędy, muszą ponownie, ze szczególną uwagą, podejść do kwestii ochrony prywatności. Szczególny nacisk położyć powinny na przeprowadzeniu dokładnej analizy ryzyka, nawet dla systemów AI sklasyfikowanych jako niskiego ryzyka. Powinny też zwrócić uwagę na cel przetwarzania danych i to, czy jest on zgodny z zadaniami administracji publicznej. Istotne będzie też zaktualizowanie obowiązków informacyjnych dla obywateli oraz zagwarantowanie, że dane nie będą wykorzystywane do celów innych niż pierwotnie zakładane.
– Myślę, że wdrożenie AI w urzędach może wymagać rewizji dotychczasowych procedur ochrony danych osobowych i dostosowania ich do nowych wyzwań technologicznych – podkreśla doktor Aleksander Kwaśniak.
Stosowanie sztucznej inteligencji w administracji publicznej rodzi wiele pytań prawnych i etycznych. Jestem zdania, że to bardzo ważne, aby urzędnicy i decydenci na bieżąco dostosowywali przepisy. Dzięki temu AI będzie stosowane w sposób, który zapewni odpowiedzialność i przejrzystość decyzji. Warto zadbać o to, aby technologia służyła nam wszystkim dobrze. Wkrótce konieczne będzie ustalenie klarownych wytycznych określających rolę sztucznej inteligencji w administracji. Dzięki temu będziemy mogli uniknąć lub przynajmniej zminimalizować liczbę błędów, które mogłyby negatywnie wpłynąć zarówno na obywateli, jak i na urzędników.