Wyjaśnić jak myśli sztuczna inteligencja
Wraz ze wzrostem mocy obliczeniowej komputerów do łask uwagi naukowców powrócił temat sztucznych sieci neuronowych. Sieci neuronowe z dużym powodzeniem wykorzystuje się do przetwarzania i wyciągania informacji z obrazów, do analizy języka, ale także do chłodzenia elektrowni atomowych, nauki jak skręcają się białka lub pomocy szachistom w odkrywaniu nowych zagrań. Pomimo dużej przydatności sieci neuronowe zaliczają się do nieinterpretowalnych modeli, tak zwanych czarnych skrzynek. Takie modele są bardziej kreatywne i wymagają od człowieka mniejszego ręcznego wkładu własnego. Koszt braku jasności jest opłacany precyzyjniejszymi predykcjami. Czy bezpieczne jest korzystanie z modeli, których działania nie jesteśmy w stanie w pełni zinterpretować? Jak naukowcy próbują okiełznać niepewność związaną z używaniem skomplikowanej sztucznej inteligencji?
Rozumienie procesu „myślenia” sztucznej inteligencji (SI) jest ważne z kilku praktycznych powodów. Po pierwsze, wiedza ekspercka może uzupełniać się z informacjami podawanymi przez SI, jeżeli obie strony znajdą wspólny mianownik wymiany. Po drugie, wnioski z jednej dziedziny, mogą być wykorzystane w innych dziedzinach, jeżeli wiedzę SI da się przetłumaczyć pomiędzy nimi. Po trzecie, modele SI mogą być poprawiane, rozbudowywane, stanowić inspirację lub walidację, zarówno dla teoretycznych rozważań jak i prostszych interpretowalnych rozwiązań, jeżeli ich mechanizm jest intuicyjny. Po czwarte modele muszą być zatwierdzane, audytowane, godne zaufania by zaistnieć w praktyce. Muszą być dobrze rozumiane ze względów bezpieczeństwa, by nie były łatwo oszukiwalne.
Pomimo, że sprawdziły się one w bojach to są jeszcze słabo zbadane teoretycznie. Prosta intuicja w połączeniu z mocą obliczeniową wyprzedza matematykę i wiele jeszcze jest na tym polu do odkrycia. Na pewnym poziomie rozumiemy jak algorytmy SI działają, ponieważ sami zaprogramowaliśmy kod, który komputer wykonuje co do joty. Jednak jest kilka narzędzi, z których zbudowany jest ostateczny mechanizm, do których mózg nie został wykształcony ewolucyjnie. Jest to kraina między innymi nieskończonych przestrzeni, wielu warstw w sieci neuronowej, niezliczonych interakcji i przekształceń zmiennych, komitetów setek podobnych algorytmów, zanurzeń słów itp. Język zrozumiały dla komputera niekoniecznie jest zrozumiały dla człowieka i vice versa.
Co w takim razie składa się na zrozumienie procesu? Jedną z wielu rzeczy jest rozumienie matematyki – dokładnej mechaniki analogii i abstrakcyjnych zależności pomiędzy obiektami, na których dokonywane są operacje – reguł gry. Inną jest wyciąganie istotności poszczególnych zmiennych i obserwacji oraz ich wpływu na ostateczny wynik, zarówno zwracany globalnie jak i dla poszczególnych przypadków.
Jedną z uniwersalnych metod zaproponowanych przez statystyków jest wyjaśnialność (ang. explainability). Próbuje ona odpowiedzieć jak zmiana w danych wejściowych wpływa na zmianę danych wyjściowych – na takiej samej metodzie naukowej zbudowana jest psychologia. Dla przykładu łatwo dzięki takiej metodzie sprawdzić jak zmieni się precyzja oszacowania po usunięciu jednej zmiennej. Innym narzędziem są uproszczenia. Modele łatwo interpretowalne są aplikowane lokalnie na małych regionach całej przestrzeni modelu, by w prosty sposób tłumaczyć skrawki modelu. Kolejnym rodzajem wyjaśnień jest generowanie przykładów ze skomplikowanego modelu.
Sztuczna inteligencja rozkwita jako prawa ręka człowieka w XXI wieku. Jest coraz bardziej kreatywna i precyzyjna. Niestety co za tym idzie coraz trudniej nam ją zrozumieć. Dzięki metodom podobnym do tych spotykanych w psychologii jesteśmy w stanie nadal utrzymywać nad nią kontrolę. Na szczęście, ostatecznie jest ją dużo prościej zrozumieć niż człowieka.