Autonomiczna moralność

Jeśli nie potrafisz czegoś prosto wytłumaczyć, to znaczy, że nie rozumiesz tego wystarczająco dobrze.

Jeśli chcemy nauczyć maszyny moralności i mamy z tym problem, to znaczy, że powinniśmy jeszcze popracować nad rozumieniem własnych wzorców postępowania. Kiedyś było to zadanie dla przywódców religijnych i filozofów, którzy przekazywali swoje wnioski w kazaniach i dysertacjach dla ogółu. Dzisiaj moralnością zajmują się projektanci procesów oraz programiści – inżynierowie…

Odpowiedzialność za proces istnieje już wtedy, gdy ustalamy algorytm, na podstawie którego na końcu łańcuszka obiegu informacji ludzka małpa podejmuje ograniczone widełkami decyzje. Kiedy określamy zasady moralne dla systemów autonomicznych, odpowiedzialność projektanta za skutki funkcjonowania maszyn: staje się absolutna…

Nie jesteśmy gotowi na absolutną odpowiedzialność, bo ludzie są omylni. Maszyny autonomiczne będą w imieniu projektującego je człowieka popełniać niewyobrażalne wręcz błędy, bo wykonają nasze dyrektywy, i to z żelazną konsekwencją; i do końca…

Dopóki systemy samo-uczące się będą czerpały z sensorów wiedzę o świecie, lecz o ich moralności będzie decydował tylko człowiek, dopóty co pewien czas możemy spodziewać się fal wzajemnie wzmacniającego się i niespodziewanego chaosu.

Kiedy do fabryki wprowadza się maszyny, zwykle trzyma się je w klatce. Klatką dla ruchomych części maszyn jest ich obudowa z blachy. Kiedy do fabryki wprowadza się roboty, strefa, w której pracują zwykle jest ogrodzona siatką i zakazana dla człowieka.

Teraz – coraz częściej mamy do czynienia z poruszającymi się wokoło: systemami autonomicznymi…

Nad nami latają zdalnie sterowane drony. Ich lot nie zawsze jest sterowany przez operatora, gdyż nie raz lecą one w linii prostej, pomiędzy współrzędnymi geograficznymi. Wbudowany system unikania kolizji pozwala im omijać tylko nieruchome przeszkody. Nad głowami wielu ludzi fruwa zrobotyzowany algorytm, który doprowadzi do upadku wielokilogramowego narzędzia, kiedy tylko komputer pokładowy, kod sterownika (albo zasilanie śmigieł z baterii), zawiedzie.

Autonomiczna moralność1

Z każdym miesiącem na drogi wypuszcza się więcej autonomicznych samochodów. Ich algorytmy zachowania są coraz bardziej skomplikowane. Uczą się one rozpoznawać charakterystyczne dla otoczenia elementy i reagować na nie odpowiednio. Samochód musi próbować uniknąć zderzenia z nadjeżdżającą z naprzeciwka ciężarówką, ale musi jechać dalej, kiedy na drogę wyleci balon lub potoczy się po niej piłka.

Ciągle wydłuża się lista profili przeszkód, jakie system lidarów i innych czujników na poboczu – rozpoznaje. Kiedy automat decyduje, czy uniknąć czołowego zderzenia, zjeżdżając na bok, musi porównywać konsekwencje alternatywnych zdarzeń. Wybór jest prosty, gdy alternatywą jest uszkadzający podwozie krawężnik, czy rów, versus zbliżająca się z naprzeciwka ciężarówka. Trzeba uniknąć ciężarówki, „lądując” w rowie. Czasami jest to znak drogowy do „ścięcia”, bez ryzyka przebicia przodu pojazdu – albo dużo groźniejszy dla pasażerów słup oświetlenia ulicznego, który lepiej omnąć, nawet wywołując umyślnie dachowanie.

Kiedy system nauczy się w końcu, prawie bezbłędnie, identyfikować znajdujących się na krawędzi jezdni ludzi, autonomiczny samochód będzie mógł podejmować decyzje moralne. Jest to bowiem oczywiste, że dużo bezpieczniejsze dla pasażerów autonomicznych pojazdów będzie wjechanie w składającego się z tkanek miękkich człowieka lub nawet w grupę ludzi, zamiast wgniecenie kabiny przy zderzeniu z inną twardą przeszkodą czy drugą maszyną…

Autonomiczna moralność2

„Dyrektywy” Galara…

Dyrektywa I: Pierwszym zadaniem moralnym autonomicznej maszyny jest służenie swojemu właścicielowi.

Jeśli jakiś system algorytmiczny samochodu (bądź prawo stanowione) będzie stanowić inaczej, ludzie na własną rękę będą hakowali swoje auta, doprowadzając do stanu normalności, czyli do pierwszej dyrektywy. Oczywiście nie zawsze „chcemy” zabić kilka osób, w sytuacji zagrożenia dla życia własnego. Lecz czasami takimi autami będą jeździły również nasze dzieci, rodziny. Tutaj wybór jest prosty – każdy normalny człowiek teoretycznie może wjechać w grupę obcych sobie osób stojących na chodniku, jeśli stawką byłoby życie jego najbliższych.

Człowiek rozumie znaczenie słowa poświęcenie, ale jest ono pozytywne „tylko” w odniesieniu do własnej osoby. Moralny człowiek może wybierać jazdę w trybie „poświęcenia” w sytuacji, gdy tylko on sam siedzi w pojeździe, i tylko własnym życiem ryzykuje.

W każdej innej sytuacji człowiek egoistycznie swoimi działaniami, jakie by one nie były, ponosi lub zwiększa ryzyko utraty życia innych osób. Jest to wpisane w jakiekolwiek inne, nie tylko ludzkie, działanie. Im więcej się dzieje, tym większa entropia, co podwyższa zagrożenie rozpadu zlepków składników uporządkowanych.

Dyrektywa II: System społeczny usuwa odpowiedzialność za wszystkie tryby operacyjne maszyn będące poza kontrolą indywidualną człowieka.

Odpowiedzialność to słowo określające konsekwencje, w praktyce najczęściej negatywne, dla konkretnego człowieka. Nie ma zbiorowej, organizacyjnej, czy systemowej odpowiedzialności – istnieją tylko konsekwencje. One same, konsekwencje, nigdy nie będą źródłem zachowań moralnych, bo każdy system dysponuje zaledwie schematem działania, i nie może posiadać: moralności działania…

Jeżeli stworzymy systemy autonomiczne, to musimy mieć jasno określone zasady odpowiedzialności za ich użycie. Odgórne schematy decyzyjne muszą być jasne i wszystkim ogłoszone, tak aby każdy mógł kalkulować indywidualne zagrożenia i ryzyka.

Np. człowiek musi wiedzieć, że w ścisłym centrum miasta samochód autonomiczny nigdy nie wjedzie na chodnik, nawet jeśli grozi mu zniszczenie. Strefa zakazu zjazdu musi być jasno wykreślona i silnie przestrzegana. Dotychczas jedyną metodą na wyznaczenie przez społeczeństwo barier dla egoizmu było fizyczne oddzielenie chodnika od jezdni stalową albo wystarczająco wytrzymałą betonową zaporą. Teraz – będzie to można zrobić silnie chronionym algorytmem, nadpisującym wskazania użytkownika w niektórych strefach funkcjonowania.

Gdy odpowiedzialności nie bierze na siebie system, musi być ona określona indywidualnie. Nie może być tak, że jedna osoba programuje, druga nadzoruje, trzecia sprawdza, a końcowy użytkownik tylko wszystko akceptuje, podpisując wielostronicową umowę, której nikt nigdy nie czytał. Nie może być tak, że ktoś jest odpowiedzialny za wjechanie w tłum ludzi, odpowiedzialny na podstawie przynależności właścicielskiej maszyny, jeśli nie mógł jej w tym czasie kontrolować. Nie może być tak, że za wypadek odpowiada cała organizacja, np. producent. Każda wystarczająco bogata organizacja będzie mogła rozmyć odpowiedzialność i kontrolę karną, dlatego zasada indywidualności odpowiedzialności lub jej braku powinna być jasno określona.

Odpowiedzialność człowieka zaczyna się dopiero wtedy, gdy sprawuje on kontrolę nad wyborami moralnymi maszyny, z możliwością przełączania przez człowieka na każdy dostępny tryb jej działania – ręcznie. Kto kontroluje w danym momencie tryb ręczny, ten jest w pełni odpowiedzialny za system. Człowiek może podejmować decyzje moralne, bo wybór moralny zawsze zakłada równoważne alternatywy albo losowanie. Gdyby jedna ścieżka była najlepsza – wybór nie byłby potrzebny, wystarczyłby domyślny schemat decyzyjny. Dlatego na końcu zawsze odpowiedzialny jest konkretny człowiek.

Odpowiedzialność moralna człowieka może być tylko całkowita i indywidualna – albo żadna…

Autonomiczna moralność3

Dyrektywa III: Domyślnym i ostatecznym zadaniem autonomicznej maszyny jest optymalne służenie całemu społeczeństwu.

Ostatnia dyrektywa przypomina nieco słynną „brzytwę Ockhama” w odniesieniu do robotów. Nie możemy sobie pozwolić na „mnożenie bytów ponad miarę”. Zwłaszcza, że dotyczyłoby to powoływania do istnienia bytów fizycznych, materialnych, które do funkcjonowania potrzebują energii.

Jeśli właściciel maszyny nie nada maszynie dyrektyw określających sposób funkcjonowania, włączać się będzie tryb domyślny, czyli optymalne służenie całemu społeczeństwu. Jeśli właściciel przydzieli maszynie listę zadań i wykona ona je wszystkie, jej ostatnim zadaniem będzie optymalne służenie całemu społeczeństwu.

Dzisiaj, w odniesieniu do zwykłych maszyn, tryb domyślny i ostateczny jest prosty – brak funkcjonowania. Rozkaz brzmi: „Nic nie rób, dopóki ktoś cię nie włączy” (tryb domyślny). Oraz: „Wyłącz się, gdy tylko wykonasz wszystkie zadania” (tryb ostateczny).

Czasami optymalny schemat będzie ten sam w przypadku autonomicznych maszyn. Czasami maszyna, która skończyła pracę najlepiej przysłuży się dla dobra ogółu, wyłączając się i nie zużywając energii. Lecz coraz częściej będziemy mieli do czynienia z sytuacjami, w których społeczeństwo nie będzie mogło pozwolić sobie na wyłączenie autonomicznej maszyny, bo jej dostępność będzie potem bardzo ograniczona, z powodu konieczności ponownego uruchomienia. Kiedy nikomu w danym momencie maszyna nie służy, automatycznie powinno optymalizować się funkcję społecznej użyteczności tej maszyny dla dobra ogółu.

Nie można pozwolić na utopię, w której bogate społeczeństwo produkuje autonomiczne roboty pozbawione celu – szukające losowo, bądź tworzące zestawy własnych reguł postępowania samodzielnie, w ramach „jakiegoś chorego” projektu kulturalno-artystycznego. Taki scenariusz byłby do rozważenia tylko w warunkach, w jakich potrzeby materialne wszystkich ludzi zostałyby zaspokojone i zabezpieczone po wielokroć. Lecz i wtedy będzie to odbywać się ze szkodą dla dalszego wzrostu możliwości wszystkich społeczeństw…

Wygenerowanie przez cywilizację całej rasy bytów potomnych, pozbawionych trzeciej dyrektywy, jest bardzo niebezpieczne z dwóch powodów. Po pierwsze, trzeba do jej wytworzenia zużywać zasoby, które mogą być dla naszych przyszłych pokoleń niezwykle kluczowe. Po drugie, „puszczenie wolno” autonomicznego robota może wytworzyć w nim skłonność do formułowania własnych, sprzecznych z interesem ludzkości celów…

Zbigniew Galar

B
Co myślisz o tym artykule? Wyraź swoją opinię - zgrilluj tosta!
  • bardzo ciekawy-wypieczony tost (5)
  • w porządku-niezła grzanka (1)
  • potrzebny-smaczny tost (1)
  • średni-przeciętny tost (0)
  • nie podoba mi się-spalony tost (1)

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *