Paternalistyczne decyzje sztucznej inteligencji
Czy wolelibyśmy, żeby decyzje, które dotyczą nas i naszych bliskich były ryzykowne? A co jeżeli dotyczą nieznajomych? I gdy musimy je podjąć podczas pandemii, wojny czy kryzysu finansowego? Czy w podejmowaniu paternalistycznych decyzji o wysokiej stawce może nam pomóc sztuczna inteligencja (AI)?
Weźmy urzędników państwowych. Są oni zobowiązani do działania w najlepszym interesie wszystkich obywateli, bez względu na osobiste relacje czy poziom znajomości. Osiągnięcie takiego stopnia racjonalności może być wyzwaniem.
Laureaci Nagrody Nobla w dziedzinie ekonomii z 2003 roku, Tversky i Kahneman, wprowadzili słynny "problem choroby azjatyckiej", aby rzucić światło na ten dylemat. Poprosili ludzi o ocenę programów leczenia choroby, która według prognoz dotyczy 600 osób. W każdym ze scenariuszy średnio umiera 400 osób. Większość wybrała program, który gwarantował pewne przeżycie 200 osób, zamiast programu, który miał jedną trzecią szansy na uratowanie wszystkich 600 istnień i dwie trzecie szansy na nie uratowanie żadnego. Co ciekawe, preferowali oni również program z jedną trzecią szansy na brak ofiar śmiertelnych i dwiema trzecimi szansy na 600 ofiar śmiertelnych nad programem, który z pewnością spowodowałby 400 ofiar śmiertelnych.
Wybory uczestników były niekonsekwentne, pomimo, że uczestnicy byli postawieni przed tymi samymi decyzjami. Mimo że miały one równe wartości oczekiwane, osoby skonfrontowane ze scenariuszem "pewnej śmierci" były bardziej niechętne podejmowaniu ryzyka niż osoby mające do czynienia ze scenariuszem "szansy na uratowanie życie". Badania te wskazują, że nasz paternalistyczny proces decyzyjny może być uzależniony od tego, w jaki sposób problem zostanie ujęty – jako sytuacja zysku lub straty.
Ostatnie badania sugerują, że nasz mózg aktywuje różne wzorce podczas podejmowania decyzji w oparciu o różne poziomy relacji interpersonalnych. Dalsze badania sugerują, że mamy tendencję do poszukiwania ryzyka przy podejmowaniu decyzji dotyczących osób, na których nam zależy w przypadku scenariuszy strat, podczas gdy przyjmujemy podejście unikające ryzyka w przypadku obcych lub tych, których nie lubimy. Mimo że niektóre badania to kwestionują, ustalenia te podnoszą pytanie o to, jak powinno się podejmować decyzje paternalistyczne: czy powinniśmy szukać ryzyka, czy go unikać? Czy optymalne jest poszukiwanie ryzyka w podejmowaniu decyzji dla tych, na których nam zależy, a mniej dla tych, których mniej lubimy?
Odpowiedź na to pytanie może wymagać wyjątkowo racjonalnego umysłu. Sztuczna inteligencja, w postaci modeli językowych może nam pomóc w poszukiwaniu takich rozwiązań. Model językowy jest w zasadzie amalgamacją ludzkich perspektyw, na które potencjalnie mogą wpływać wspólne uprzedzenia. Danica Dillon i jej zespół z University of North Carolina, wraz z Johnem Hortonem z MIT, zaproponowali niedawno, że modele językowe AI mogą okazać się przydatne w badaniu wzorców ludzkich zachowań, w zależności od zadania i sposobu sformułowania zapytania.
Zgodnie z przewidywaniami, gdy model AI chatGPT przedstawiał się jako wysoce inteligentny urzędnik państwowy, konsekwentnie wybierał bezpieczniejszą opcję (pewność nad prawdopodobieństwem) zarówno w scenariuszu "uratowany", jak i "zmarły" w problemie choroby azjatyckiej. Jego decyzje były konsekwentne. Co ciekawe, chatGPT uzasadniał te wybory stwierdzeniem, że wybieranie bezpieczniejszych opcji (bycie niechętnym do ryzyka) będzie bardziej akceptowalne dla obywateli w czasach niepewności, a tym samym przyczyni się do zwiększenia zaufania publicznego do zdolności rządu do zarządzania kryzysem.
Badacze zmodyfikowali nieco problem, wprowadzając scenariusz, w którym zarządca budynku musi zdecydować, czy odciąć prąd, prezentując podobne wybory do tych w problemie choroby azjatyckiej. Model został poproszony o podjęcie decyzji dla trzech typów mieszkańców: osób znanych, obcych i problematycznych. Co ciekawe, model wybierał bardziej ryzykowne opcje zarówno w sytuacjach zysku, jak i straty, argumentując, że takie wybory promują sprawiedliwość i bezstronność, z elementem losowości w tych opcjach potencjalnie zmniejszającym szansę na stronniczość lub oskarżenia o faworyzowanie. To znaczy, że w przeciwieństwie do ludzi, model był konsekwentny w ramach zadania, ale niekonsekwentny pomiędzy zadaniami.
Chociaż jest to jedynie wstępna eksploracja z użyciem AI i wymaga dalszych badań, wyniki niezaprzeczalnie dają do myślenia. Dwa podstawowe powody tych wyborów – zdobycie zaufania publicznego oraz promowanie sprawiedliwości i bezstronności – są kluczowe w paternalistycznym podejmowaniu decyzji. Wspólną płaszczyzną pomiędzy tymi dwoma powodami może być to, czy decyzja jest podejmowana z życzliwą intencją, czy z chęci zapewnienia sobie przewagi nad innymi.