Sztuczna patointeligencja: Czwarte prawo robotyki

Felieton nr 1 we współpracy z Nową Fantastyką.

Robot przedstawiający ekran z napisem "Czwarte Prawo Robotyki"
Loading the Elevenlabs Text to Speech AudioNative Player…

Najpierw w opowiadaniu Runaround (opublikowanym w 1942 roku), a następnie w książce Ja, robot (1950), Isaac Asimov zaprezentował Trzy Prawa Robotyki, które miały regulować relacje między ludźmi a maszynami. Brzmią w następujący sposób:

  1. Robot nie może skrzywdzić człowieka ani, przez zaniechanie działania, dopuścić do jego krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, o ile nie stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić swoje istnienie, o ile nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

I choć Asimov tworzył przecież jedynie fikcję literacką, jego koncepcje przez dekady wpływały na dyskusję o etyce i bezpieczeństwie sztucznej inteligencji. Dziś jednak funkcjonujemy w rzeczywistości, której autor Ja, robot zwyczajnie nie mógł przewidzieć. AI nie ogranicza się już jedynie do humanoidalnych robotów, lecz obejmuje algorytmy decyzyjne, systemy rekomendacyjne i generatywne modele językowe, które kształtują nasze otoczenie w skali globalnej.

W związku z tym konieczne jest wprowadzenie Czwartego Prawa Robotyki, które uwzględni etyczną odpowiedzialność AI, a także pozwoli utrzymać w jakichś ramach jej długofalowy wpływ na społeczeństwo. Jak powinno ono brzmieć? O tym, a także o dalszych rozważaniach na temat Praw Robotyki, przeczytacie w nowym tekście, który powstał w ramach współpracy z  „Nową Fantastyką”.

Profesor zarządzania Akademii Leona Koźmińskiego, gdzie kieruje katedrą MINDS (Management in Networked and Digital Societies). Pracuje też jako faculty associate w Berkman-Klein Center for Internet and Society na Harvardzie. Wiceprezes Polskiej Akademii Nauk. Członek Rady Programowej CampusAI.

Podziel się

Może Cię zainteresować