Twój koszyk jest obecnie pusty!
Najpierw w opowiadaniu Runaround (opublikowanym w 1942 roku), a następnie w książce Ja, robot (1950), Isaac Asimov zaprezentował Trzy Prawa Robotyki, które miały regulować relacje między ludźmi a maszynami. Brzmią w następujący sposób:
- Robot nie może skrzywdzić człowieka ani, przez zaniechanie działania, dopuścić do jego krzywdy.
- Robot musi być posłuszny rozkazom człowieka, o ile nie stoją one w sprzeczności z Pierwszym Prawem.
- Robot musi chronić swoje istnienie, o ile nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
I choć Asimov tworzył przecież jedynie fikcję literacką, jego koncepcje przez dekady wpływały na dyskusję o etyce i bezpieczeństwie sztucznej inteligencji. Dziś jednak funkcjonujemy w rzeczywistości, której autor Ja, robot zwyczajnie nie mógł przewidzieć. AI nie ogranicza się już jedynie do humanoidalnych robotów, lecz obejmuje algorytmy decyzyjne, systemy rekomendacyjne i generatywne modele językowe, które kształtują nasze otoczenie w skali globalnej.
W związku z tym konieczne jest wprowadzenie Czwartego Prawa Robotyki, które uwzględni etyczną odpowiedzialność AI, a także pozwoli utrzymać w jakichś ramach jej długofalowy wpływ na społeczeństwo. Jak powinno ono brzmieć? O tym, a także o dalszych rozważaniach na temat Praw Robotyki, przeczytacie w nowym tekście, który powstał w ramach współpracy z „Nową Fantastyką”.