Ostatnio nie miałem weny na pisanie o technicznych tematach (co widać po ostatnim braku aktywności). Dlatego dzisiejszy wpis będzie się mocno różnił od ostatnich. Punktem wyjścia będzie dla mnie bijący ostatnio rekordy popularności serial “Czarnobyl”. Jeżeli jeszcze go nie widziałeś – koniecznie musisz to nadrobić. Serial jest świetnie zrealizowany, trzyma w napięciu i zachęca do poznania również informacji historycznych dotyczących tej katastrofy. Przy okazji serialu pojawiło się na ten temat sporo materiałów. Przyczyny wypadku, do których należały wady konstrukcyjne, błędy ludzkie, czy wadliwe procedury czynią go także ciekawym z punktu widzenia systemów safety-critical. Ale ja dzisiaj skupię się na czymś zupełnie innym.

Problemy moralne w serialu

Jednym z głównych wątków serialu jest dylemat moralny – czy to w porządku poświęcić życie i zdrowie wielu ludzi, aby ocalić jeszcze więcej. Czy powinniśmy im przedstawić sytuację i liczyć, że ją zaakceptują, jednocześnie ryzykując sprzeciw i niewykonanie zadania. Czy może lepiej uciec się do podstępu albo przymusu. Kiedy moralnie uzasadnione jest działanie na szkodę innych ludzi. Filozofowie i psychologowie badają podobne problemy już od dawna. Starają się zrozumieć motywy decyzji podejmowanych przez ludzi i opisać reguły, którymi się kierują wybierając czyjeś życie ponad inne. Przypadkowo natknąłem się na ten temat w zupełnie innym kontekście akurat dzień przed oglądaniem Czarnobyla.

Dylemat wagonika

Dylemat wagonika to popularny eksperyment myślowy będący wstępem do dyskusji o moralności. W podstawowej problem wygląda następująco:

Wagonik oderwał się od reszty pociągu i pędzi w stronę pięciu osób, które nie mogą uciec. Ty stoisz przy zwrotnicy, która może skierować wagonik na drugi tor, na którym znajduje się tylko jeden człowiek. Czy powinieneś przestawić zwrotnicę aby zamiast pięciu osób zginęła tylko jedna?

Z matematycznego punktu widzenia wybór wydaje się oczywisty. Lepiej aby zginęła tylko jedna osoba a nie pięć. Jednak z drugiej strony – gdyby nie nasza interwencja, ta konkretna osoba by przeżyła. Czy mamy prawo do decydowania o jej śmierci? Może więc powinniśmy nic nie robić i pozwolić na naturalny bieg wydarzeń. Wtedy będziemy mieć na sumieniu te pięć osób, bo przecież mogliśmy je uratować. Jednak to dopiero początek trudnych pytań.

Co jeśli nad torami jest kładka, a jedynym sposobem na uratowanie tych pięciu osób jest zrzucenie z niej przypadkowego przechodnia pod koła wagonika? Tym razem też poświęcamy jedno życie, aby uratować pięć. Jednak zepchnięcie przypadkowego przechodnia budzi w nas większą niechęć niż przestawienie zwrotnicy. Wariantów problemu jest znacznie więcej. Możecie o nich poczytać choćby na Wikipedii.

Problemy moralne w AI

Dylemat wagonika został wspomniany w tym artykule Phila Koopmana – eksperta od systemów safety ostatnio zajmującego się autonomicznymi samochodami. Okazuje się, że to jest szeroko komentowany aspekt autonomicznych samochodów. W 2014 MIT rozpoczęło projekt Moral Machine polegający na zebraniu od ludzi odpowiedzi na różne problematyczne sytuacje mogące się wydarzyć na drodze np. czy ważniejsze jest życie pasażera czy pieszego.

Jednak zdaniem Koopmana, ale także psychologów z Harvardu, dylemat wagonika nie ma praktycznego znaczenia w autonomicznych samochodach. Takie sytuacje są niezwykle rzadkie i na drodze praktycznie zawsze najrozsądniejsza jest próba niedopuszczenia do żadnych ofiar w ludziach. Wprowadzając obsługę takich przypadków brzegowych ryzykujemy, że system zrezygnuje z próby ratowania wszystkich, tym samym zmniejszając bezpieczeństwo w bardziej realistycznych sytuacjach. Poza tym tego typu dylematy na drodze są niewspółmiernie rzadkie w stosunku do ilości czasu poświęconego im ostatnio przez naukowców i inżynierów.

Koopman zwraca jednak uwagę na inne problemy moralne związane z autonomicznymi samochodami, które są dużo bardziej realne. Jeżeli chcecie poczytać więcej o tych problemach, odsyłam do artykułu źródłowego. Przy okazji okazuje się, że problemy etyczne w sztucznej inteligencji są traktowane na serio. Została do tego powołana nawet specjalna komórka IEEE – największej na świecie organizacji zrzeszającej inżynierów. Więcej można przeczytać także tutaj.

W przyszłości sztuczna inteligencja będzie wykorzystywana nie tylko w motoryzacji, ale również w wielu innych dziedzinach, choćby w medycynie. Dlatego dobrze, że problemy etyczne są brane pod uwagę.

Podobał się artykuł? Zapisz się na newsletter

Zapisz się, aby otrzymywać informacje o nowościach na blogu,
ciekawe materiały oraz informacje marketingowe. W prezencie otrzymasz również
dokument “Jak zwiększyć jakość kodu w projektach embedded? – darmowe narzędzia”.