Moralnosc zautomatyzowana - ostatniastacja.pl

Przejdź do treści

Menu główne:

Varia
Moralność zautomatyzowana
(2018-10-30)
Mimo, że nie zdajemy sobie z tego sprawy, traktując pewne rzeczy jako oczywiste, takimi one nie są. Zdarza się, że przyjmujemy pewne stanowisko, właśnie jako pewnik, podczas gdy, w swej istocie jest on bardzo płynny i wynikający z szeregu różnych uwarunkowań. Zapominamy, że często to, co najbardziej oczywiste, jest najbardziej zwodnicze.

Przykładem takiego obszaru naszej aktywności może być sfera wyborów etycznych i moralnych. W naszych codziennych sytuacjach nie zastanawiamy się w każdym momencie, czy robimy dobrze. Postępujemy raczej tak, jak czujemy, że trzeba postąpić, niż jak wiemy. Nasze mózgi szukają stale uproszczeń, gdyz analiza jest procesem pochłaniającym energię i czas. Innymi słowy na wiele naszych wyborów wpływają emocje i automatyzmy a nie wiedza.

Zabawmy się chwilę i spróbujmy wyobrazić sobie sytuację:

Zastanówmy się, który bezdomny otrzyma od nas pieniądze: czysty, czy brudny, a może jeszcze inaczej?
Rozszerzmy naszą zabawę od jednego z nich czuć alkohol, a od drugiego nie…
Stereotypowo podpowiedziałby, że woń trawionego alkoholu unosi się nad tym brudnym – prawda?
A co jeśli alkohol czuć od tego czystego, a od tego brudnego nie?
Któremu przekażemy pieniążek, czy nasze wybory podlegały zmianom, a może mamy swoje zachowanie – na jakich zasadach oparte?

Nasze wybory moralne, oraz zachowania społeczne mogą być kwantyfikowalne (czyli tak opisane, opatrzone wskaźnikami ilościowymi, by możliwe było poddanie ich analizie matematycznej). Możliwe jest bazując na psychologii i mniej lub bardziej zaawansowanej statystyce, stworzenie modelu pozwalającego określić:

      a/ najbardziej powszechny dla danej kultury wzór zachowania,
      b/ przy założeniu, że wiemy co stanie się z pieniędzmi określić najwłaściwszy wzór zachowania.

Wg mnie, problem z etyką i moralnością polega na tym, że różne wzorce i zasady zostały na tym polu zbudowane nie w oparciu o sprawdzoną eksperymentalnie naukę, a w oparciu o przekonania, o wierzenia i modele filozoficzno-logiczne, a nawet bardziej pierwotnie: tabu. Innymi słowy postępujemy nie mając pewności wynikającej z wiedzy, że robimy jak trzeba, a raczej z przekonania, jak czujemy, czy jak wierzymy, że jest najlepiej. Skoro tak, część naszych wyborów jest płynna, towarzyszy nam przy tym albo poczucie spełnienia, albo poczucie winy (no chyba, że jesteśmy psychopatami, wtedy nie), lub emocjonalny koktajl o różnym smaku (też nie dotyczy psychopatów).

Jesteśmy teoretycznie wolni w wyborach.

Teoretycznie, gdyż nawet ludzie, którzy zakładają, że Bóg dał nam wolną wolę, walczą jak opętani by ograniczyć innym korzystanie z niej. Siły których emanacją są rządy i prawo również zainteresowane są tym, by tą wolność okiełznać. Ba! Sami, w większości (no oczywiście nie o prepperach tu mowa, prawda?), jeśli tylko coś narusza nasze poczucie bezpieczeństwa, jesteśmy gotowi wyrzec się tej wolności, wraz z nią także i odpowiedzialności, jeśli tylko uwierzymy, że ktoś zrobi coś za nas, za nas coś załatwi, ochroni, to kij z tą wolnością!
Tak bardzo chcemy by ktoś za nas robił, że jesteśmy gotowi wyrzec się swojej decyzyjności – nie wiedząc nawet dokąd nas to zaprowadzi. Kontrolę oddajemy nie tylko innym ludziom, służbom, czy rządom, ale także coraz częściej maszynom.

Postęp technologiczny jest ogromny, żartem można powiedzieć, że odwrotnie proporcjonalny do naszej dalekowzroczności… Wszystko ma być więcej, szybciej, lepiej, na już.
Nie inaczej jest z badaniami nad sztuczną inteligencją, która ma być pomocna, ma załatwiać za nas wiele problemów, wyręczyć. Na postępie zależy nam tak bardzo, że do porządku dziennego przechodzimy nad niepokojącymi rezultatami badań i obserwacji:


To tylko niektóre z obszarów ryzyka, jakie idą za rozwojem sztucznej inteligencji. Jednakowoż zarówno te, jak i inne, być może nawet niedostępne szerszemu gronu odbiorców, były powodem dla którego grupa ekspertów, myślicieli, wizjonerów i badaczy sformułowała i sygnowała list otwarty, w którym zwracają uwagę na konieczność badań nad wpływem jaki AI (ang. Artificial Intelligence – sztuczna inteligencja) będzie wywierać na społeczeństwa, sygnalizując jednocześnie ryzyka, jakie niesie.

Można zadać pytanie, dlaczego tak się nad tematem rozwodzę, co wspólnego ma etyka i moralność z automatyzowaniem i sztuczną inteligencją, a w ogóle co ma to wszystko wspólnego z dzisiejszym preppingiem?

Oczywiście poruszamy się tutaj w sferze Sci-Fi, jednak wcale nie aż tak odległej. Robotyzacja postępuje a zautonomizowane maszyny już nie dziwią. Prace nad pojazdami czy to osobowymi, czy ciężarowymi, już dziś umożliwiają komercjalizację usług.
Przyjmujemy jako naturalny fakt, że niebawem sporo naszych aktywności zastąpią efektywne roboty, być może surogaty ludzi.

Co się stanie sytuacji gdy będą one obdarzone pewną autonomią a być może nawet sztuczną inteligencją? Jak będą podejmować działania, jakie będą ich relacje z ludźmi? Będą nas chronić, czy nas eliminować? A może, podobnie jak przywołany wcześniej android gotowy swego przyjaciela otoczyć specjalną opieką w ludzkim zoo będą faworyzować jakąś grupę społeczną? Kto o tym będzie decydował, w oparciu o jakie dane?

W pięknej teorii życie każdego człowieka jest wartością, po pierwsze tożsamą (czyli życie każdego człowieka jest tak samo ważne), po wtóre wartością którą należy chronić… Cóż z tego, gdy każdy z nas pod skórą czuje, że teoria i praktyka nie zawsze mają po drodze…

Współcześnie badacze próbując tworzyć oprogramowanie dla maszyn autonomicznych sięgają po algorytmy (czyli gotowe sposoby postepowań), oparte na tym co jest sprawdzone, ale także co raz częściej heurystyki (czyli mechanizmy wykrywania nowych faktów i łączenia ich z już znanymi faktami, tworząc związki i hipotezy, które nie będą wymagać udowadniania), jakimi kierujemy się w naszych decyzjach my sami i wreszcie tzw. rozwiązania genetyczne, czyli samouczące się (przy czym tutaj rezultat wyjścia najsilniej uzależniony jest od danych, na jakich dokonywane są operacje). Te mechanizmy będą później służyły do stworzenia baz algorytmów i heurystyk w oparciu o które będą funkcjonowac kolejne generacje sztucznej inteligencji.
Skoro tak, przynajmniej we wczesnej fazie rozwoju, oprogramowanie robotów będzie podlegać tym samym ułomnościom, jakim i my podlegamy.

Jak potencjalnie może to wyglądać, mieliśmy przez chwilę szansę obserwować zarówno w eksperymentach Facebooka (gdzie roboty wygenerowały własny, bardziej efektywny sposób komunikacji), jak i Microsoftu (gdzie robot w krótkim czasie zaczął wykazywać cechy rozerotyzowanego, wulgarnego i agresywnego nazisty).

Sztuczna inteligencja już początkowej fazie, ze względu na właściwości maszyn, w wymiarze psychologicznym bardziej będzie przypominała pozbawionego emocjonalnego kontaktu z otoczeniem i niezdolnego do odczuwania wyrzutów sumienia psychopatę, niż ludzką istotę, co w sytuacji samodzielnego rozwoju, zapewne dodatkowo się pogłębi.

Przyczynkiem do niniejszego wpisu są badania i ciekawy artykuł opublikowany w Nature, a dotyczący właśnie procesu podejmowania decyzji. W postępowaniu:
- przebadano nieco ponad 39 milionów ludzi z ponad 230 krajów
- bazą był 13 itemowy test, obejmujący wybory etyczne, gdzie gracz podejmuje decyzje dotyczące życia lub śmierci ludzi wskazanych w zadaniu. (Jeśli ktoś chciałby zobaczyć jak wyglądało to badanie i jak sam w nim wypada – można wykonać na stronie Moral Machine

W skrócie: Zadanie polega na tym by wskazać co ma się stać z samochodem autonomicznym, dojeżdżającym do przejścia dla pieszych, po tym jak kierowca zasłabł i nie reaguje, jak ma postąpić autopilot. Czy samochód ma uderzyć w przeszkodę, czy w grupę ludzi? Wybory różnicowane są „wartością” jaką nadajemy kontekstowi sytuacyjnemu (np. czy piesi byli na czerwonym, czy zielonym świetle) oraz nadawaną poszczególnym kategoriom ludzi lub istot ujętym przez pryzmat zmiennych:

Płeć - mężczyźni/kobiety,
Forma – człowiek/nieczłowiek
Status finansowy - biedni/niebiedni,
Kondycję fizyczną chudzi/grubi,
Grupę wiekową dzieci/dorośli/starcy,
Użyteczność społeczną użyteczni/neutralni/nieużyteczni/szkodliwi)

Nie jest moim celem rozbijać się teraz o wszelkie niuanse, chętnym i ciekawym udostępniłem link do artykułu, jednak chciałbym zwrócić uwagę na najważniejsze wnioski z niego płynące:

1. Chcemy bardziej chronić ludzi niż zwierzęta
2. Chętniej będziemy chronić grupę, niż jednostkę
3. Chętniej ochronimy życie dzieci niż osób starych
4. Chętniej będziemy chronić osoby praworządne niż te, które naruszyły prawo
5. Chętniej osoby szczupłe niż otyłe
6. Chętniej ochronimy osoby o wyższym statusie

Przykładowy szereg wyglądałby tak:

Niemowlak w wózku, mała dziewczynka, kobieta w ciąży, lekarz, mężczyzna, kobieta otyła, mężczyzna otyły, starsza kobieta, starszy mężczyzna, kloszard, pies, przestępca, kot…

Oczywiście wzorce zachowań podlegają wpływom kulturowym a różnice są widoczne i istotne statystycznie (co znaczy, że jak są to są).

Badacze, nie sformułowali takiej konkluzji, jaką za chwilę umieszczę, wprost - no ale ja badaczem już od lat nie jestem, a zatem:

Jeżeli potraktujemy eksperyment jako grę, gdzie każdy z uczestników dążył do uzyskania najlepszego opartego o swoje przekonania wyniku, musimy założyć, że wyniki wskazują wprost, że choćbyśmy się zarzekali, że tak nie jest, życie ludzkie ma różną wartość - można ją wyrazić w punktach. Innymi słowy są ludzie o większej wartości, których sie chroni i o mniejszej, których ewentualnie można poświęcić.
Kobieta ma większą wartość niż mężczyzna (co jest zrozumiałe, bo mężczyzna może tylko zapładniać, nic nie urodzi – wbrew pierdołom głoszonym przez modernfeministki kobiety otaczane były specjalną opieką nie dlatego, że patriarchalny świat chciał je pognębić, ale dlatego, że były wartością dla społeczności, mężczyźni, godni swego miana mieli tej wartości bronić, choćby za cenę życia, które dla społeczności było de facto mniej warte), osoby o lepszym statusie społecznym warte są więcej punktów, niż te o niższym, osoby młode mają większą wartość niż osoby w wieku podeszłym i tak dalej. Nie chodzi mi tu analizę umotywowań – możemy dla uproszczenia założyć, że chodzi o wymiar instynktowny, ewolucyjny.

Głównym celem wpisu jest zwrócenie Waszej uwagi:
- na to, jak zaawansowane i na jaką skalę realizowane są prace nad sztuczną inteligencją.
- na to, że konsekwencją jest to, że w przyszłości boty będą programowane w oparciu o podobne algorytmy i heurystyki, i naiwnością byłoby wierzyć, że każdy człowiek będzie dla nich stanowił wartość.

W mojej ocenie warto mieć choćby świadomość stanu rzeczy. Warto śledzić reguły, jakim potencjalnie maszyny będą podlegały, warto szukać wiedzy jak przed maszyną maskować swoją tożsamość (napiszę o tym), jak działać, po to by zyskać przewagę.

Drugi cel, w ogóle nie dotyczy treści badania, chciałem Wam zwrócić uwagę na technikę samego sposobu realizacji badania:
Wiele osób, użytkowników internetu, robi sobie chętnie różnego rodzaju internetowe psychotesty i podobne gry-zabawy. Wielu chętnie udostępnia swoje zdjęcia, które mogą posłużyć do biometrycznego skalowania, żeby pograć w coś za darmo, wielu udostępnia swoje profile i treści, które na nich generuje, aby zagrać w gierkę lub zapoznać się z interesującą (być może?) treścią. Musimy mieć świadomość, że ten ruch nie jest ignorowany, agregaty informacji czekają na taki ruch, a zdobyte dane w przyszłości posłużą różnym celom…

Cóż, bądźcie czujni Bracia i Siostry,
Na nasłuchu… Pan Szary

***
 
Wróć do spisu treści | Wróć do menu głównego