Wielu ekspertów uważa, że autonomiczny samochód to przyszłość transportu. Perspektywa ich upowszechnienia niesie jednak ze sobą liczne dylematy. W tym i dylematy moralne, które trzeba rozwiązać już na etapie programowania auta. Zanim to wyjedzie na drogi. Jednym z nich jest pytanie, kogo powinien zabić taki samochód, kiedy nie będzie miał innego wyjścia?
Takie pytanie może brzmieć dziwnie, ale wcale takie nie jest. To ważna kwestia praktycznej natury.
Wyobraźcie sobie na przykład taką sytuację. Siedzicie sobie spokojnie w takim autonomicznym samochodzie, gdy ten skręca, a za zakrętem na jezdni pojawia się grupa 10 osób. Co ma zrobić komputer pokładowy? W przypadku ludzkiego kierowcy rzecz jest prosta. Nikt nie jest w stanie przewidzieć, jak zachowa się w takiej sytuacji. To co zrobi zależy między innymi od emocji, zmęczenia, tego jaki ma dzień. Reagować trzeba szybko. I nie ma czasu do namysłu, więc decydują te układy mózgu, które uruchamiają się automatycznie. A nad nimi mamy mało świadomej kontroli.
Decyzja podjęta wcześniej
Kiedy jednak za kierownicą siedzi komputer, to rzecz wygląda zupełnie inaczej. Tym nie kierują emocje i „gadzie” części mózgu, które odpowiadają za reakcje w sytuacjach zagrożenia, ale racjonalne decyzje podjęte wcześniej w fabryce. Lub laboratorium, w którym wymyśla się i programuje algorytm takiego pojazdu. Trzeba więc wcześniej zdecydować, jak zachowa się w sytuacji, w której stanie przed wyborem tego rodzaju. Naukowcy postanowili sprawdzić, co myślą o tym ludzie. Wykorzystali i odpowiednio dostosowali znane z psychologii dylematy moralne.
Dylemat zwrotnicy
Te dotyczą sytuacji, w której trzeba dokonać wyboru, ale każde wyjście jest złe. Jeden z klasycznych dylematów to dylemat zwrotnicy. „Dylemat zwrotnicy” – tłumaczył prof. Jerzy Vetulani w książce „Mózg. Fascynacje, problemy, tajemnice” – „to sytuacja, w której znajdujesz się przy torach i zwrotnicy. Po szynach z góry nadjeżdża rozpędzony wózek. Zwrotnica ustawiona jest tak, że wózek pojedzie prosto, ale jeżeli tak się stanie, uderzy w plecy pięciu nieznanych ci osób stojących na torze, tyłem do wózka. Jeżeli nie uczynisz nic, wózek ich wszystkich zabije. Masz jednak możność ich uratować, przestawiając zwrotnicę. Wówczas wózek skręci na boczny tor, na którym znajduje się jednak jeden, także nieznany ci człowiek, również nie wiedzący o niebezpieczeństwie. Jeżeli przestawisz zwrotnicę, ratując życie pięciu osób, zabijesz tego człowieka. Jak postąpić w takiej sytuacji?” Większość badanych decyduje się tutaj przesunąć dźwignię.
Dylemat mostka
Dokonują w ten sposób wyboru, który jest bardziej utylitarny. Poświęcają jedną osobę, by uratować pięć. Wyniki zmieniają się jednak w przypadku bardzo podobnego dylematu moralnego – tzw. dylematu mostka. Tam wszystko jest takie samo z jednym tylko, ale ważnym wyjątkiem. Zamiast przestawić dźwignię, trzeba poświęcanego człowieka zepchnąć na tory samodzielnie. Ta – nie mająca racjonalnego znaczenia, bo efekt jest taki sam – zmiana wpływa na to, co robią ludzie. W przypadku dylematu mostka większość mówi, że właściwszym wyborem jest śmierć pięciu osób.
Czego dowodzi ta różnica? Tego, że jesteśmy istotami racjonalnymi, ale tylko do pewnych granic, po których rządzą nami emocje. Granicą, której większość z nas nie potrafi lub co najmniej nie chce przekraczać, jest osobiste skrzywdzenie bliźniego. Jest to wpisane w biologię naszego mózgu.
Wiemy o tym, bo inne naczelne mają tak samo.
Kogo zabije samochód autonomiczny?
Jean-François Bonnefon, Azim Shariff i Iyad Rahwan to psycholodzy, którzy dostosowali dylematy moralne do okoliczności podróży samochodem autonomicznym. Ludzi zapytali, jak powinno się zachować auto, które będzie musiało wybrać między życiem pasażera i 10 przechodniów. 76 procent pytanych powiedziało, że w takim wypadku bardziej moralne będzie zabicie pasażera. W takiej sytuacji ginie jedna osoba, a nie 10. Utylitarny rachunek brzmi: auto uratowało dziewięć żyć.
Pojawił się jednak wyjątek, o którym za chwilę.
Czytaj również: Czego boją się ludzie? W 15 lat zmieniło się wszystko
Popieram, ale nie kupię
Później zmieniano liczbę osób, które stoją na jezdni. Kiedy komputer skręcając w ścianę mógł uratować tylko jednego przechodnia, większość mówiła, że nie powinien skręcać. W takiej sytuacji za poświęceniem pasażera opowiadało się jedynie 23 procent badanych. Zdanie zmieniano wraz ze wzrostem liczby osób znajdujących się na jezdni. Im było ich więcej, tym akceptacja dla nagłego skrętu w ścianę – większa. Co nie może dziwić, bo zmieniał się racjonalny rachunek takiej decyzji.
Co ciekawe ankietowani uważali, że taki wybór jest moralny nawet wtedy, kiedy to oni lub ktoś z ich rodziny jest w takim samochodzie. Ale… deklarowali jednocześnie, że nie kupiliby auta, które poświęci ich życie dla większego dobra. Co także nie powinno dziwić, bo czym innym jest teoretyzowanie z akademickim psychologiem, a czym innym decyzja, która może kosztować życie.
Poświęcenie tak. Ale nie moje
Nie zgadzali się też na to, by firmy zobowiązać do programowania samochodów w taki sposób, by auto decydowało o poświęceniu kierowcy. Deklarowali, że nie kupią auta, które na pewno wybierze „większe dobro” ponad życie pasażerów, kiedy tymi pasażerami będą oni sami lub ich rodziny.
Ustalono więc – bez zaskoczenia – że ludzie generalnie uważają, że dobrze jest poświęcić jednego pasażera, by uratować dziesięciu przechodniów. Szczególnie, kiedy to owocujące zgonem „bardziej moralne” zachowanie ma dotyczyć kogoś obcego. Jednak gdy chodzi o nich samych – chcą żyć.
Niezależnie od moralnego rachunku. Zaskoczeni? Ja nie bardzo.
Autorzy badania, podsumowując wnioski, napisali w raporcie tak: „Nasze ustalenia sugerują, że regulacja może być tutaj niezbędna, ale w tym samym czasie kontrproduktywna.”
Jak to zrobić? Nie wiadomo!
Wskazując w ten sposób na jeden z największych problemów związanych z programowaniem autonomicznych samochodów. Z jednej strony uważa się, że te powinny być bezpieczniejsze od tradycyjnych pojazdów. Między innymi dlatego, że w trudnych sytuacjach będą mogły – patrz wyżej – podejmować racjonalne decyzje. Efektem ich upowszechnienia ma być więc mniejsza liczba wypadków i ich ofiar. Jednak jeżeli ludzie nie będą chcieli kupować samochodów, które podejmują takie decyzje racjonalnie i w 100 procentach przypadków „większe dobro” wygrywa w nich z troską o pasażera lub jego dziecko siedzące na tylnej kanapie, to żadnego upowszechnienia nie będzie. A w takiej sytuacji nie zmniejszy się też liczba ofiar wypadków. Czyli stracimy okazję.
– Jeżeli mniej osób kupi autonomiczny samochód, ponieważ zostaną one zaprogramowane, by poświęcać swoich właścicieli, to więcej osób zginie w wypadkach, bo tradycyjne auta rozbijają się znacznie częściej. To sytuacja rodem z Paragrafu 22. – wyjaśniano to na łamach MIT Review.
Jak wybrnąć z takiego dylematu i ustalić kogo w takiej sytuacji powinien zabić komputer? Nie wiadomo. A w każdym razie nie ma zgody. Głowią się nad tym najlepsi w tej dziedzinie, ale od akademickiej dyskusji do zyskania społecznej akceptacji dla takich decyzji jest daleka droga.
Najważniejsze może być bowiem zdanie opinii publicznej.
Którego jestem bardzo ciekawy.
Fot. Jean-François Bonnefon, Azim Shariff, Iyad Rahwan, „The social dilemma of autonomous vehicles„, Science, 352(6293), 1573-1576 (2016).