A gdybyś był robotem...
Na początek ankieta. Zastanów się dobrze.
1. Uciekam dlatego, że się boję.
2. Boję się dlatego, że uciekam.
Zapewne większość wybierze stwierdzenie pierwsze – zawarta w nim teza wydaje się być naturalnym opisem naszych odczuć i działań. Chociaż bez trudu można znaleźć też argument na rzecz tezy nr 2. Typową sytuacją, w której funkcjonujemy według tego schematu, będzie zdarzenie, gdy coś na nas znienacka wyskoczy, np. podczas spaceru w parku czy w lesie. Jeśli będzie to nagły ruch w naszym kierunku, odruchowo odskoczymy, natychmiast i bezrefleksyjnie, uczucie wystraszenia przyjdzie odrobinę później, a jeszcze chwilę potem – świadomy namysł. I tu pojawia się pytanie: czy źródłem lęku jest zdarzenie (coś wyskoczyło), czy może raczej lęk ma swoje źródło w reakcji na zdarzenie: odskoczyłem, więc się boję – bo w końcu muszę sobie jakoś ten swój nagły ruch wytłumaczyć.
Podobnie bywa z bólem: gdy dotkniemy gorącego przedmiotu, ręka odskakuje automatycznie, jest to odruch bezwarunkowy, decyzja o cofnięciu ręki zostaje podjęta nie w mózgu, lecz wcześniej, np. w rdzeniu kręgowym. Informacja o zdarzeniu dociera do mózgu później, i dopiero wtedy czujemy ból. Pytanie, po co, skoro niebezpieczeństwo zostało zażegnane. Żeby się nauczyć niedotykania gorących przedmiotów? Ale przecież taka nauka też mogłaby być automatyczna, mogłaby przebiegać bez udziału świadomości.
Teza, że uczucia i emocje są jedynie skutkiem aktów motorycznych i same jako takie nie wpływają na zachowania, a jedynie służą ich interpretacji (nadawaniu sensu), teza taka wydaje się sprzeczna z naszymi odczuciami; jeśli jednak spojrzymy na zjawisko od strony ewolucji, to powstanie tego typu tłumaczenia po fakcie nie tylko wydaje się możliwe, ale może to być scenariusz wręcz oczywisty.
Zróbmy eksperyment myślowy. Mamy człekokształtnego robota – nazwijmy go Icek. Icek ma być domowym towarzyszem i pomocnikiem w prostych pracach. Sterowany jest za pomocą wbudowanej sztucznej sieci neuronowej, jest wstępnie zaprogramowany, ale może też uczyć się rozmaitych zachowań. Ze względów technicznych – ilość miejsca, pobór energii – sieć neuronowa Icka ma ograniczoną moc obliczeniową, przeto jego możliwości uczenia się i interakcji z otoczeniem są również ograniczone. Wszystkie zachowania Icka są automatyczne, są efektem działania określonych algorytmów i nie ma tu mowy o jakiejkolwiek świadomości.
Wśród wstępnie zaprogramowanych funkcji jest np. taka, która zmusza Icka do dbania o stan naładowania jego własnej baterii: gdy poziom naładowania obniży się, Icek szuka gniazdka i podłącza się do prądu. Icek ma być towarzyszem ludzi, więc w jego program wpisane jest uczenie się i utrwalanie zachowań, które preferować będą jego właściciele, ma też dostosowywać swoje zachowania do konkretnych osób, ma działać tak, by te osoby były zadowolone; jeśli jednak spotka się z niechęcią czy agresją, to powinien czym prędzej schodzić z drogi. Icek może rozmawiać o codziennych prostych sprawach, ma też zdolność podstawowej gestykulacji i dostosowywania jej do nastroju ludzi.
I oto mamy naszego robota, funkcjonującego w konkretnej rodzinie: małżeństwo, dwójka dzieci, pies. Icek nauczył się, że bawiąc się z dziećmi może chodzić na czworaka, stroić miny i śmiesznie gadać. Ale zupełnie inaczej powinien się zachowywać, gdy pomaga pani domu. Dobrze rozumie się z psem i wyprowadza go na spacer. Nauczył się też, że sąsiadowi, który mieszka obok, lepiej schodzić z drogi, bo ten robotów zdecydowani nie lubi – a jeśli mężczyzna wyskoczy znienacka zza płotu z miotłą w ręce, to należy uciekać, bo można tą miotłą oberwać. I tak toczy się codzienne życie.
Tymczasem technologie, które wykorzystano do budowy robota, są wciąż rozwijane i udoskonalane: baterie mają coraz większą pojemność, sieci neuronowe są coraz bardziej wydajne itd. I producent robota oferuje klientom upgrade swojego produktu – wymianę baterii i „mózgu”, czyli sieci neuronowej. Żeby jednak zachować wszystko to, czego Icek się nauczył, sieć neuronowa nie jest całkowicie wymieniana, lecz rozbudowywana: do tego, co już jest, dodawane są nowe moduły.
Załóżmy, iż taka rozbudowa sprawi, że nasz robot zacznie przejawiać jakiś rodzaj świadomości (nie wnikamy w szczegóły jak i dlaczego, tutaj jest to nieistotne). Świadomość ta będzie produktem tych nowych, wyrafinowanych modułów, które zostaną nadbudowane na starej sieci neuronowej. Ale uwaga: producent Icka nic nie wie o żadnej świadomości, nie ona była jego celem. Celem była poprawa funkcjonalności automatu: sprawienie, by robot mógł swobodnie rozmawiać na rozmaite tematy, lepiej radził sobie z rozpoznawaniem ludzkich (i psich) emocji, posiadł jakąś podstawową zdolność abstrahowania, przewidywania itp. Producent nie tylko nie planował stworzenia świadomego robota, ale też nie wie, że jego produkt świadomość posiadł. I w sumie nikt tego nie wie – bo niby jak to zweryfikować?
Powiedzieliśmy, że Icek zachowuje wszystko to, czego już się nauczył, i ta wiedza znajduje się w starej sieci neuronowej. Natomiast świadomość powstaje w modułach nowych, nadbudowanych na starej sieci. Między modułami istnieją oczywiście połączenia i poszczególne części sieci mogą na siebie wpływać, jednak głównie w takim zakresie, jaki uwzględnił producent robota; a w kwestiach najważniejszych (ładowanie baterii, unikanie niebezpieczeństw, współżycie z ludźmi) stara sieć ma głos decydujący, nowa tylko rozszerza jej możliwości.
Postawmy się w sytuacji Icka. W sytuacji świadomego Icka. Wszystkie funkcje motoryczne wbudowane są w starą sieć, więc Icek, owszem, chodzi, ale nie ma żadnej wiedzy na tema tego, jak to robi. Co więcej, świadomość Icka nie ma żadnego wpływu na to, gdzie Icek idzie – Icek swojego chodzenia tylko doświadcza. I tak jest ze wszystkim. Icek zdaje sobie sprawę z tego, że gdy pojawiają się dzieci, to wdaje się w dyskusje i rozmaite zabawy, a gdy pojawia się sąsiad z miotłą, to czym prędzej ucieka. Gdy czujnik baterii wskaże odpowiednio niski poziom, Icek rzuca wszystko i biegnie do gniazdka. Ale dlaczego to wszystko się dzieje – tego Icek już nie wie. Postawmy się na miejscu takiej świadomości, którą nogi same noszą to wtę, to wewtę. Czy myśli: „Co to u licha, że ja tak gonię do tego gniazdka? Co się dzieje, że gdy zobaczę faceta z miotłą, to spylam, ile sił w nogach?” Icek zapewne tak nie myśli, choćby z tego powodu, że tego typu werbalizacja też jest mu niedostępna, gdyż świadomość nie ma bezpośredniego dostępu do modułów generujących mowę. Świadomość Icka tę mowę słyszy, ale jej nie rozumie, przynajmniej na początku. Jeśli świadomość przyjmuje, że jest częścią tego mechanicznego ciała, czyli że to ona w jakiś sposób chodzi, mówi itp., to zapewne wszystkie te niezrozumiałe zachowania spróbuje sobie jakoś zracjonalizować, ale w sposób niewerbalny, być może (o ile będzie miała taką możliwość) poprzez generowanie specyficznych – nazwijmy to tak – jakości mentalnych. I to będzie odpowiednik naszych uczuć i emocji.
Mózg człowieka podobny jest do mózgu Icka – też składa się z warstw, które były dodawane w trakcie ewolucji. I tak jak u Icka, za funkcje niezbędne do przeżycia odpowiadają warstwy stare, natomiast świadomość wydaje się być wynalazkiem raczej późnym. Różnica jest taka, że u naszego robota zmiana nastąpiła skokowo, natomiast zmiany ewolucyjne następowały przez miliony lat w bardzo drobnych krokach; świadomość też wyłaniała się stopniowo i zapewne, poprzez rozmaite sprzężenia zwrotne, miała możliwość wpływać na starsze warstwy mózgu. Ale też, z powodu tego powolnego, ciągłego procesu – mogła nie zauważyć, że jest tylko dodatkiem...
A co z obecną AI? W tej chwili są to głównie modele językowe LLM – bywa, że niektórzy przypisują im jakiś rodzaj świadomości. O trudnościach w odróżnieniu bytu świadomego od automatu napisano wiele, a przykład Icka pokazuje to na jeszcze innym planie. Do tego w tych poszukiwaniach świadomości mamy do czynienia z głębokim antropomorfizmem, wszyscy szukają przejawów ludzkiej świadomości, ludzkich cech, intencji itd. A można byłoby się np. zastanowić, co w przypadku systemów LLM mogłoby być odpowiednikiem chodzenia, a co – doświadczania chodzenia. Jak widać z przykładu Icka, to całkiem różne rzeczy.
*
Pomysł świadomości-obserwatora spopularyzowany został dzięki badaniom Michaela Gazzanigi i Josepha LeDoux, którzy badali osoby z rozszczepionym mózgiem. Pojawiło się pojęcie świadomości jako interpretatora działań nieświadomych (pierwotnie stosowane tylko do lewej półkuli mózgu) – więcej na ten temat w książkach obu naukowców (np. Mózg emocjonalny LeDoux, Kto tu rządzi? Gazzanigi). Z czasem pojawiały się inne pomysły oparte na tym koncepcie, jeden z ostatnich – artykuł w Neuroscience of Consciousness – do przeczytania tutaj; oprócz opisu autorskiej hipotezy jest też rys historyczny i filozoficzny.
Na koniec i na zachętę dwa limeryki z przywoływanej książki Josepha LeDoux. Autorami są Samuel Messick i George Kelly, a przełożył Andrzej Jankowski.
Komputer, niewrażliwy na żadne powaby,
Udawać może i chłopów, i baby.
Chociaż nie ma stref erogennych,
Jajników ani przewodów nasiennych,
To może uczyć — czy jednak człowiek potrafi się uczyć aby?
–
Pewien programista, namiętny i młody,
Opracował komputerkę niezwykłej urody,
Ale zapomniał podłączyć Coś, co mogłoby ich złączyć,
Mógł się więc tylko gapić na przewody.
*