Minister bez twarzy. Polityczna fikcja z AI w roli głównej

Czy jeśli algorytm złoży Ci obietnicę działania w sposób przejrzysty, zgodny z prawem i pozbawiony uprzedzeń, to w nią uwierzysz? Albania właśnie przekonała się, że minister bez twarzy nie rozwiąże problemu korupcji.

Ewa Siciak

Loading the Elevenlabs Text to Speech AudioNative Player…

Diella  była już znana obywatelom Albanii jako wirtualna asystentka na platformie e-Albania. Odpowiadała na pytania o dokumenty, terminy i formularze – cierpliwie, bez emocji i bez przerw na kawę. Stała się symbolem cyfrowej modernizacji administracji.

11 września 2025 roku premier Edi Rama ogłosił, że Diella, obejmie stanowisko Ministra Stanu ds. Sztucznej Inteligencji. Jego decyzja była o tyle bezprecedensowa, że po raz pierwszy w historii system sztucznej inteligencji zyskał rangę członka rządu.  Sztuczna inteligencja miała być symbolem uczciwości, której brakowało politykom. Premier Rama przekonywał, że Diella położy kres łapówkom i nieformalnym układom w przetargach publicznych. 

Dzień później prezydent Bajram Begaj podpisał jednak dekret, który nie przyznał Dielli żadnych realnych kompetencji. Cała władza i odpowiedzialność pozostały w rękach premiera. Algorytm miał więc tytuł, ale nie teczkę z uprawnieniami.

Warto tu dodać, że miesiąc później premier Albanii ogłosił, że Diella jest „w ciąży” – jej „dziećmi” ma być 83 asystentów AI, którzy będą uczestniczyć w posiedzeniach parlamentu. Mają obserwować przebieg obrad i doradzać posłom, jak powinni reagować na konkretne projekty ustaw. Sama zaś Diella podczas jednego ze swoich wystąpień powiedziała, że jej „dzieci” nie mają zadania zastąpić urzędników, lecz „wzmocnić ich zdolność do służby” i pomagać w powtarzalnych zadaniach.

To pokazuje, jak rola AI ewoluuje we „władzach” Albanii – już nie mówimy o działaniu, tylko o doradzaniu na podstawie zebranych danych.

Algorytm nie staje do przysięgi 

Problemem z punktu widzenia prawnego jest to, że Diella nie składa przysięgi, nie odpowiada przed parlamentem i nie może być pociągnięta do odpowiedzialności. Omija w ten sposób podstawowe mechanizmy nadzoru instytucjonalnego. W demokracji minister musi mieć imię, nazwisko i twarz, którą można zobaczyć – zwłaszcza wtedy, gdy sprawy idą źle. Oddanie tej roli algorytmowi nie jest odważnym eksperymentem, lecz aktem politycznej nieodpowiedzialności.

Eksperci mają na to nazwę: rządzenie algorytmiczne (algorithmic governance). Choć termin brzmi nowocześnie, w praktyce za tą koncepcją mogą kryć się dobrze znane z historii patologie. Pierwszą z nich jest powielanie uprzedzeń (algorithmic bias). To nie tworzenie nowych stereotypów, lecz cyfrowe wzmacnianie tych, które  funkcjonują w społeczeństwie od dawna. Algorytmy uczą się na historycznych danych, odtwarzają i utrwalają istniejące uprzedzenia: rasowe, płciowe czy ekonomiczne. Te z kolei przybierają formę rzekomo bezstronnych decyzji. 

Drugim zjawiskiem jest korupcja algorytmiczna. To współczesna forma nadużyć, w której źródłem stronniczości stają się dane i sposób projektowania algorytmu. Wystarczy zmiana kilku parametrów lub kryteriów, by system „obiektywnie” wskazał preferowany wynik. Na ekranie wszystko wygląda poprawnie, proces wydaje się przejrzysty, a jednak rezultat został zaplanowany wcześniej. To korupcja w nowym wydaniu. I właśnie dlatego kwestia nadzoru nad systemami sztucznej inteligencji staje się kluczowa. 

Nowa technologia, stare schematy

W teorii zasadę takiego nadzoru definiuje już unijny AI Act, który wszedł w życie w 2024 roku. Zgodnie z nim systemy sztucznej inteligencji wykorzystywane przez władze publiczne muszą działać pod realnym nadzorem człowieka. 

Choć zamówienia publiczne nie zostały wymienione wprost jako obszar wysokiego ryzyka, ich znaczenie dla przejrzystości życia publicznego sprawia, że podlegają tej samej logice.

Systemy używane do oceny ofert, przydzielania kontraktów czy weryfikacji wykonawców bezpośrednio wpływają na gospodarowanie środkami publicznymi i równość podmiotów gospodarczych – a to obszary, które w świetle unijnego prawa uznaje się za szczególnie wrażliwe na błędy, nadużycia i dyskryminację.

Dla Albanii, która aspiruje do członkostwa w Unii Europejskiej, AI Act stanowi nie tylko punkt odniesienia, ale i polityczny drogowskaz. Kraj ten zobowiązał się do stopniowego wdrażania europejskich standardów w zakresie przejrzystości, ochrony danych i odpowiedzialnego stosowania sztucznej inteligencji. AI Act określa więc jasno: żadna decyzja wpływająca na prawa lub finanse obywateli nie powinna zapadać w pełni automatycznie. Tyle teoria.

Praktyka wygląda inaczej.

Między przepisem a rzeczywistością 

Odpowiedzialność za funkcjonowanie Dielli formalnie spoczywa na premierze, zgodnie z artykułem 2 dekretu prezydenckiego z 12 września 2025 roku. W rzeczywistości jednak to algorytm analizuje oferty, weryfikuje dokumenty i przygotowuje rekomendacje, które kształtują ostateczne decyzje. Człowiek nadzoruje system, ale nie widzi, jak dokładnie działa jego mechanizm. A gdy kod i dane treningowe pozostają niejawne, nawet najlepiej opisana odpowiedzialność staje się teoretyczna. 

Nie znaczy to jednak, że AI powinna być całkiem trzymana z dala od władzy. W Brazylii to właśnie systemy analityczne ujawniły setki podejrzanych kontraktów. W Europie projekt Digiwhist pomaga wykrywać nadużycia w przetargach. Ale warto zwrócić uwagę na to, że w tych przypadkach AI pełniła rolę detektywa, a nie ministra.

W demokracji technologia może zatem wspierać procesy decyzyjne, ale nie może przejmować władzy. Odpowiedzialność za decyzje – polityczne, administracyjne czy społeczne – zawsze musi pozostać po stronie człowieka.

No avatar image

Administratywistka i entuzjastka prostych rozwiązań AI dla małych firm. Bada i testuje technologie, które realnie odciążają przedsiębiorców.

Podziel się

Może Cię zainteresować