Michał Dyszyński
Bloger na Kretowisku
Dołączył: 04 Gru 2005
Posty: 33339
Przeczytał: 64 tematy
Skąd: Warszawa Płeć: Mężczyzna
|
Wysłany: Śro 15:42, 15 Lip 2020 Temat postu: Trenowanie AI a definicja autorytetu |
|
|
Przyszła mi do głowy dość przewrotna idea, dotycząca programowania sztucznej inteligencji, czyli uczenia maszynowego. Otóż użycie sztucznej inteligencji zdaje się być dość ciekawym modelem autorytetu...
Podam może przykład. Weźmy sobie dwa zespoły medyków i programistów, którzy w oparciu o dane z różnych systemów obrazowań medycznych (prześwietlenia RTG, MR, tomografia, czy inne dane) trenują swoje sztuczne inteligencje do rozpoznawania raka płuc. Ostatecznie każdy z zespołów wypuszcza swoją sztuczną inteligencję, która teraz będzie rozpoznawała raka na prześwietleniach pacjentów w różny sposób. Można założyć, że owe AI będą wykazywały podobieństwa i różnice w diagnozowaniu - raz jedna z nich rozpozna raka, a druga nie, a potem odwrotnie. Której z nich należałoby bardziej wierzyć?...
Ten przypadek jest dość zgrabnym modelem starcia się dwóch autorytetów, czyli dwóch trybów rozstrzygania spornych kwestii BEZ ZNAJOMOŚCI ALGORYTMU, a za to SAMYM ZAUFANIEM DO ROZSTRZYGAJĄCEGO, który funkcjonuje na zasadzie czarnej skrzynki. Algorytmy AI rozpoznające raka nie powiedzą nikomu DLACZEGO klasyfikują dany przypadek tak, a nie inaczej. Taka AI działa BEZ SFORMUŁOWANEGO MODELU, w zasadzie metodą IDEALNIE INTUICYJNĄ, no i właśnie autorytarną.
Autorytet to ten, któremu jakoś wierzymy, nie żądając wytłumaczenia się. Zakładamy, że autorytet zna metodę rozstrzygania, a my jej nie znamy, więc na autorytet musimy się zdać.
Strach pomyśleć co będzie, jak za ileś lat zrobią wytrenowane sztuczne inteligencje sędziami, czy prokuratorami...
Tak swoją drogą ta sytuacja ma swój jeszcze jeden filozoficzny "smaczek" - podanie wyrazistego przykładu na to, o czym próbuję (na razie w większości bezskutecznie) przekonać wielu w kwestiach epistemologicznych - że oto są przypadki, w których nie da się skonstruować UZASADNIENIA, bo de facto "uzasadnieniem" jest SAM UZASADNIAJĄCY PLUS WIARA, że uzasadniający podejmuje właściwe decyzje.
Niektórzy wciąż bowiem wierzą, że uzasadnienie jest możliwe zawsze, jeśli tylko mamy do czynienia z jakimiś prawami, faktami, regularnością. Ten przykład z wytrenowanymi AI jest idealną ilustracją tezy, że brak możliwości uzasadnienia czegoś/tezy nie świadczy o błędności przyjęcia tej tezy - wszak sztuczna inteligencja rozpoznaje raka całkiem skutecznie, mimo że nie jest oparta o żaden znany model ani teorię zjawiska. On świadczy tak naprawdę o tym, że MY NIE POTRAFIMY uzasadnienia skonstruować (może po prostu "za ciency" jesteśmy). Ale regularność, jak najbardziej może być, teza może być zasadna. Tyle, że nie jest możliwa do uzasadnienia, a więc jeśli chce się używać danej kwestii w rozumowaniu, jedyną opcją jest zdanie się na mechanizm jakoś autorytarny, bądź autorytet przypominający.
|
|