Foto: Grażyna, Ameca, robot humanoidalny, Centrum Nauki Kopernik, Warszawa 2025
Eksploatowanie humanizmu?
Kolejne artefakty technologiczne włączające się w nasze życie każą nam na nowo odnosić się do zjawisk, które wydawały się już stosunkowo dobrze przebadane. Jednym z takich mechanizmów jest antropomorfizm i jego technologiczna odsłona. Jego symptomy były rozpoznawane bardzo wcześnie, jak pisze Sherry Turkle, psycholożka prowadząca badania na MIT.
pod koniec lat 70. i na początku lat 80. XX wieku byłam świadkiem konfrontacji z maszynami skłaniającymi nas do zmiany myślenia, o naturze ludzkich myśli, pamięci i sposobów pojmowania świata. Komputer okazał się obiektem sugestywnym (evocative object), który skłaniał do autorefleksji. […] Miałam pewne obawy związane z «magnetyzmem» nowego urządzenia: komputery okazały się tak urzekające, że niektórzy nie chcieli się z nimi rozstawać” (Turkle: Alone Together: Why We Expect More from Technology and Less from Each Other 2011)
Podobne spostrzeżenia miał Josepha Wiezenbaum twórca pierwszego chatbota ELIZA, który z niepokojem, obserwował ludzką tendencję do zbyt ludzkiego traktowania maszyn przez człowieka, pisał o tym w Computer Power and Human Reason. For Judgment to Calculation 1979. W przekonaniu Turkle musimy mieć zaprogramowane jakieś ewolucyjne „przyciski” uruchamiane w trakcie kontaktu z robotami powodujące, że myślimy i zachowujemy się wobec nich jak wobec drugiego człowieka.
Samo pojęcie antropomorfizm pochodzi od greckich słów anthropos oznaczającego „ludzki” i morphe odnoszące się do „kształtu” lub „formy” i „nazywa” tendencję do humanizowania wielu aspektów świata wokół nas. Zjawisko to nie jest nowe, było na przykład przedmiotem analizy filozoficznej w starożytnej Grecji, Ksenofanes jako pierwszy użył terminu „antropomorfizm”, aby zilustrować, jak greccy bogowie byli niezmiennie jasnoskórzy i niebieskoocy, podczas gdy bogowie afrykańscy byli niezmiennie ciemnoskórzy i ciemnoocy” (Roselli et al., How culture modulates anthropomorphism in Human-Robot Interaction, 2025). Również Davide Hume pisał o skłonności gatunku ludzkiego do postrzegania wszystkich istot jako podobnych do siebie, i do przenoszenia na każdy obiekt tych cech, z którymi są dobrze zaznajomieni i których są w pełni świadomi (Roselli et al., How culture modulates anthropomorphism in Human-Robot Interaction, 2025).
Psychologowie źródeł tego mechanizmu poszukiwali w potrzebie nadania sensu działaniom innych, pomagającej zmniejszać niepewności (motywacja afektywna), w potrzebie afiliacji związanej z budowaniem i utrzymywaniem więzi społecznych lub kompensowania ich braku (motywacja społeczna), oraz w przypadku tzw. motywacji zastępczej tj. dopóki nie zostanie stworzony odpowiedni model mentalny dla relacji z nie-ludzkimi obiektami (Epley N., Akalis, Waytz, Cacioppo, On Seeing Human: A Three-Factor Theory of Anthropomorphism, 2008).
Opisywane przypadki uwalniania reakcji o charakterze antropomorficznym pozwalają nam traktować je jako rodzaj strategii poznawczo-behawioralnych uruchamianej w sytuacjach deficytów informacyjnych lub społecznych umożliwiających „na gorąco”, w miarę bezboleśnie adoptować się do zaistniałych warunków, jednocześnie dając czas na wypracowanie bardziej świadomych typów odniesień (Osika, Społeczeństwo 5.0 – programowe projektowanie jakości życia. Humanistyczne i społeczne aspekty technologii cyfrowych, 2025).
Okazuje się, że rozpoznania te dotyczą także maszyn, czego potwierdzeniem są badania prowadzone w ramach modelu Computers Are Social Actors (CASA) już od lat 90 ubiegłego stulecia. Badacze ustalili, że ludzie w interakcjach z nieludzkimi agentami, np. komputeremi, chatbotami, mają tendencję do traktowania ich tak, jakby byli ludźmi, (Nass, Siminoff, Steuer, Computer are Social Actors, Human Factors in Computing Systems, 1994). Kluczowe w tych diagnozach wydają się dwa wymiary, z jednej strony jest to automatyczny sposób reagowania, z drugiej społeczny charakter tej reakcji. W badanich były brane pod uwagę takie parametry, jak maniery, osobowość, emocje, role społeczne uruchamiające antropomorfizację a wraz z nią całe spektrum zachowań typowych dla naszych ludzkich relacji.
Jednak ta, nazwijmy ją, „słabość” do antropomorfizacji może zostać potraktowana jako cenna wskazówka projektowa (Reeves, Nass, The Media Equation: How people Treat Computers, Television, and New Media Like Real People and Places, 1992), dzięki której łatwiej będziemy się integrować z technologią, jest to tzw. antropomorfizm technologiczny lub projektowym.
Jest on oparty o wskazówki pozwalające uruchomić u człowieka właśnie tę psychologiczną odpowiedź. Obecnie wypracowano cały szereg zaleceń, pełniących rolę „wyzwalaczy” wbudowanych przez projektantów robotów, mających na celu uruchomić antropomorfizujące zachowanie u człowieka, tj. uzyskać u ludzi obserwowalne zachowanie w kontakcie z obiektami technologicznymi, analogiczne jakie przejawiają wobec siebie nawzajem (Fischer, Tracking Anthropomorphizing Behavior in Human-Robot Interaction, 2021). Na przykład B. J. Fogg atrybuty wyzwalające zachowania społeczne grupuje w kilka kategorii: fizyczne do nich zalicza twarz, oczy, ciało oraz ruch; psychiczne w tym przypadku dotyczy to preferencji, humoru, osobowości, odczuć, empatii oraz grzeczności. Kolejna kategoria to język, jako wymiana interaktywna, język mówiony, rozpoznawanie języka, dwa ostatnie rodzaje to dynamika społeczna, czyli zmiana tury w konwersacji, kooperacja, pochwała za dobrą pracę, odpowiedzi na pytania, wzajemność. W przypadku ról społecznych chodzi zarówno o funkcje społeczne, np. lekarz, nauczyciel, terapeuta, ale także role konwersacyjne, np. oponent, przewodnik, itp. (Fogg, Persuasive Technology. Using Computers to Change What We Think and Do, 2003). Celem stosowania wymienianych powyżej atrybutów jest wyzwolenie u ludzi reakcji antropomorficznych (Osika, Społeczeństwo 5.0 – programowe projektowanie jakości życia. Humanistyczne i społeczne aspekty technologii cyfrowych, 2025).
Mówiąc wprost, podczas procesów projektowych wykorzystuje się informacje na temat ludzkiego sposobu funkcjonowania, jak się często okazuje wbrew realnym potrzebom użytkownika, wbrew jego interesom. Najlepszym przykładem jest to co kojarzymy z ekonomią uwagi, choć oczywiście zakres tych naruszeń jest o wiele szerszy, i w takim sensie możemy mówić o eksploatowaniu wiedzy o człowieku, którą od starożytności kojarzymy z humanizmem.
Choć przypadku terminu humanizm potrzebne są pewne doregulowania denotacyjne, bowiem pojęcie to obrosło wieloma znaczeniami. Jak podpowiada nam Routedge Encyclopedia of Philosophy
XIX-wieczny niemiecki pedagog, F.J. Niethammer, ukuł słowo „humanizm”, oznaczające edukację opartą na greckich i łacińskich klasykach. Renesans (dla naszych celów Europa od około 1350 do około 1650) nie znał takiego terminu. Zamiast tego renesans miał łacińskie wyrażenie studia humanitatis (dosłownie „studia nad ludzkością”), najlepiej tłumaczone jako „humanistyka
Z kolei British Humanist Association, pojęcie to opisuje następująco:
„
humanizm”, ma swoje korzenie w łacińskim słowie humanitas , którego rzymscy myśliciele, tacy jak Cyceron, używali do opisu cech człowieczeństwa, zwłaszcza w znaczeniu pielęgnowania cnoty, mądrości i zamiłowania do nauki. Humanitas wiązało się z rozwojem charakteru i intelektu poprzez obcowanie z literaturą, filozofią i sztuką, uznając nasze powiązania z innymi ludźmi i wpływ na nich.
To zdawkowe, ale ugruntowane w wiarygodnych źródłach badanie znaczenia pojęcia humanizm wskazuje na dwie istotne kwestie, tj. że termin ten odnosi się do gromadzenia wiedzy o człowieku, stąd „studia nad ludzkością” mające pomóc nam rozumieć to, kim jesteśmy (opis cech człowieczeństwa). A po drugie dotyczy celu gromadzenia tej wiedzy – pielęgnowanie cnoty, mądrości i zamiłowania do nauki, mającej ostatecznie przybliżyć nas do szczęścia, lub jak dzisiaj powiedzielibyśmy – podnieść jakość naszego życia.
Z tej perspektywy nasuwa się bardzo proste pytanie, czy antropomorfizm projektowy stanowi przykład hakowania naszego człowieczeństwa, czy raczej zakładając optymistycznie, przyczynia się do podnoszenia dobrostanu użytkowników?
Najwięcej wątpliwości w tym względzie rodzi fakt wykorzystania automatycznych reakcji, bo „studia nad ludzkością” także przynoszą nam taką wiedzę, wiemy, że antropomorfizm do nich należy. Jak widać cały w tym kłopot, jak ocenić gdzie kończy się dobry projekt urządzenia technicznego, a zaczyna manipulacja, pozbawiająca poczucia kontroli. W którym momencie używamy wiedzy humanistycznej do czynienia ludzkiego życia lepszym, a kiedy eksploatujemy ją instrumentalnie pozwalając by nasze potrzeby były źródłem jakieś formy wyzysku.
Na teraz mamy takie propozycje:
Projektanci muszą zdawać sobie sprawę z etycznych implikacji projektowanych wskazówek psychologicznych w swoich produktach, stoję po stronie tych, którzy utrzymują, że użytkownicy będą na tej podstawie wnioskować o „psychologii” produktów komputerowych, niezależnie od tego, czy projektanci mieli taki zamiar, czy nie. Z tego powodu uważam, że projektanci muszą umieszczać odpowiednie wskazówki psychologiczne w swoich produktach. Uważam również, że można to zrobić w sposób etyczny (Fogg, Persuasive Technology. Using Computers to Change What We Think and Do, 2003)
Do nas należy odpowiedź, czy w znoszeniu naszych wątpliwości propozycję tę uznamy za wystarczającą.
Nazywam się Grażyna Osika, jestem nauczycielem akademickim i naukowcem. Całe moje życie zawodowe zajmuję się różnymi aspektami komunikacji społecznej.
3 ikona ORCID
4 ikona PBN
;)