< PUBLICYSTYKA | << FELIETONY
Maszynowa etyka

Współcześni niewolnicy - ilustracja

Dom starców stał się poligonem doświadczalnym w badaniach nad sztuczną inteligencją. Na razie nie o dolę, czy niedolę pensjonariuszy chodzi, tylko o fakt, że maszyny otrzymują kolejny stopień samodzielności.

Użyty w eksperymencie robot Nao, mimo mikrego wzrostu i zabawkowej, humanoidalnej stylistyki, nie zasługuje w żadnym wypadku na lekceważenie. To uniwersalna, programowalna i autonomiczna platforma doświadczalno - edukacyjna do badań nad relacjami ludzi i maszyn, skonstruowana przez Aldebaran Robotics. (Na stronie specyfikacja techniczna, zasady współpracy, użytkowania i wiele innych materiałów.)

Michael Anderson i Susan Leigh Anderson, autorzy artykułu "Wychować robota", opublikowanego (tylko w wersji papierowej) w listopadowym numerze Świata Nauki, po raz pierwszy wyposażyli robota Nao w "regułę etyczną". Powstała ona w wyniku uczenia maszynowego. Jest rezultatem analizy serii konkretnych przypadków pod kątem obowiązków i priorytetów. Robot (na razie?) nie uczy się samodzielnie i nie modyfikuje reguły.

Zgodnie z nią podejmuje jednak samodzielne decyzje stosownie do zmieniających się okoliczności, także w nowych sytuacjach. Potrafi porozumieć się głosowo z odnalezioną przez siebie osobą, zaproponować przyniesiony lek, wyrazić emocjonalny sprzeciw w razie odmowy i odczekać stosowną chwilę by ponowić prośbę. Kontaktuje się z lekarzem - nadzorcą tylko w razie wystąpienia ryzyka poważnych konsekwencji, szanując w ten sposób wolną wolę podopiecznych (to podstawa każdej terapii).

Zakres działania na razie bardzo wąski, ale ambicje i plany twórców sięgają znacznie dalej. Akronim już wymyślili, a oczyma wyobraźni widzą wyraźnie EthEl - nadzorcę idealnego. Niezmordowanie użyteczny, krząta się zapobiegając złu i świadcząc dobro, uprzejmie uzasadniając swoje poczynania.

Entuzjazm autorów nie ma granic. Cytują Daniela C. Dennetta: "Sztuczna inteligencja sprawia, że filozofia staje się uczciwa." Wieszczą postęp - teoretyczny i praktyczny - w dziedzinie etyki. SI ma umożliwiać, lepsze niż w akademickich teoriach, zrozumienie etycznego zachowania u ludzi. Kontakt z poprawnymi, bezstronnymi maszynami powinien wywrzeć pozytywny wpływ na naszą moralność. Argumenty krytyków nie robią na nich wrażenia. Brak emocji to nie problem - roboty będą mogły je postrzegać i uwzględniać w swoich obliczeniach. Nie ma powszechnie akceptowanego zestawu zasad moralnych? Wystarczy ograniczyć obszar działania robota, by programujący go eksperci zawsze mogli dojść do zgody. Piszą wprost, że wyposażenie robotów w reguły etyczne jest koniecznością. Rośnie w ten sposób ich użyteczność i sprzężony z nią poziom akceptacji przez ludzi, a ludzkie obawy mogłyby zablokować rozwój sztucznej inteligencji.

Zrozumiałe w tej sytuacji, że nie używają cudzysłowu mówiąc o "regule etycznej". To wyraz moich wątpliwości. Czy robot, który nie może być niemoralny może być moralny? Inaczej - czy postępowanie, które nie ma alternatywy, podlega moralnym ocenom? A może w imię dalszego wzrostu użyteczności dać robotom możliwość nie tylko wyrażania sprzeciwu, ale i biernego oporu, nieposłuszeństwa, a może nawet ograniczonego odwetu? Byłaby to seria ciekawych eksperymentów, a reguła byłaby "etyczna bardziej".

Dalsze zastrzeżenia są mniej filozoficzne. Załóżmy, że autorzy mają rację, żadne nieprzewidziane przeszkody, ani odkrycia się nie pojawią, a SI będzie się stopniowo rozwijać. Nie rozpatruję możliwości buntu maszyn, czy złowrogiego oprogramowania, tylko komfort użytkownika. Czy taki chodzący ideał (nawiasem mówiąc fanatyk, ze względu na sztywną hierarchię wartości) nie będzie prowokował do destrukcji? Czy ludzkie reguły moralne będą się - przynajmniej w jakiejś części - stosować do robotów? Brzmi bezsensownie, ale wcale nie trzeba przyjmować zaistnienia świadomości w maszynie, żeby nabrało sensu. W coraz szerszym zakresie obejmujemy przecież regułami moralnymi zwierzęta i środowisko, nie oczekując wcale wzajemności. Relacja etyczna nie musi być symetryczna, ale przewagę w takiej relacji ma człowiek - bo to on formułuje i stosuje reguły. Czy istnienie moralnych albo skutecznie symulujących moralność (wszystko jedno) maszyn nie będzie dla użytkowników wystarczająco dużym dyskomfortem, by objąć je tymi regułami? Wcale nie musi to dotyczyć tylko dzieci i zdziecinniałych staruszków. Czy na tym ma polegać ten postęp etyczny ludzkości?

Wyboru miejsca eksperymentu autorzy wprost nie tłumaczą. Znaczenie z pewnością miała wspomniana możliwość jasnego określenia zakresu obowiązków. Rosnące kłopoty z naborem odpowiednich pracowników w tego typu instytucjach, też pewnie miały wpływ. Smutna prawda, ale nie cała. Podejrzewam, że przy obecnym poziomie rozwoju sztucznej inteligencji nie bez znaczenia był także brak barier architektonicznych, niewielka (albo żadna) ruchliwość "obiektów” oraz ich ograniczone, z racji wieku, możliwości sprzeciwu. Przed robotami jeszcze długa droga, ale być może młodsi czytelnicy doczekają. Wyrazy współczucia. Ciekawe czy od robota będą równie wiarygodne.

© 2010 Jerzy 'Jerzy' Kubok

< PUBLICYSTYKA | << FELIETONY