Czy bardziej "ludzki" przyjaciel AI rozwiąże problem samotności?
W USA i Kanadzie można sobie kupić “przyjaciela” – chatbot w formie naszyjnika towarzyszy użytkownikom w codziennych czynnościach i komentuje ich zachowanie. Czy to dobry sposób na radzenie sobie z samotnością?
fot. Pixabay
Boone Ashworth i Kylie Robison, redaktor i redaktorka Wired, zostali poproszeni o przetestowanie niekonwencjonalnego chatbota. Stworzony przez Aviego Schiffmanna “Friend” bazuje na powszechnie znanym Claude 3.5 firmy Anthropic AI, ale – jak deklaruje producent – wszystkie wspomnienia przechowuje lokalnie. Ma formę sparowanego ze smartfonem naszyjnika, wbudowany mikrofon i – jak głosi reklama – “zawsze słucha”. W przeciwieństwie do popularnych przyjaciół AI, chatbot Schiffmanna wtrąca się do prowadzonych rozmów, komentuje czy wyśmiewa bez pytania. Za posiadający raptem rok gwarancji produkt mieszkańcy Kanady i USA muszą zapłacić 129$.
Sam twórca przyznał, że na pomysł wpadł podczas swoich samotnych podróży, podczas których brakowało mu towarzystwa. Nie on jeden próbował rozwiązać problem samotności za pomocą technologii. “Prawie co trzeci przedstawiciel pokolenia Z [...] regularnie doświadcza samotności” – pisały polskie serwisy w ostatnich latach (1, 2), powołując się na badania...Mindgenic AI, startupu proponującego szukanie rozwiązań w sztucznej inteligencji.
Coraz więcej osób szuka u chatbotów nie tylko informacji, ale także towarzystwa – wystarczy użyć wyszukiwarki, by skorzystać z oferty “przyjaciół AI”. Niektóre firmy posuwają się do chatbotów mających zastąpić partnera romantycznego (np. Replika AI), a rok temu w Polsce głośno było o książce “Deus sex machina. Czy roboty nas pokochają?” opisującej związek mieszkającego w podwarszawskiej miejscowości mężczyzny z seksrobotem “Agatą”.
Co niektórzy widzą w technologicznej usłudze już nie tylko człowieka, ale też Boga. To ostatnie, na pozór śmieszne porównanie, nie jest pozbawione podstaw. Chatboty, niczym bóstwa w niektórych mitologiach czy religiach, są praktycznie wszechobecne i – za sprawą naszym zwierzeń – wiedzą o nas wszystko (szerzej ten problem opisywali m. in. Gosia Fraser czy Artur Roguski).
Nie dość, że naturalnie bardziej ufamy technologii, to coraz mniej ufamy innym ludziom. Czatboty projektuje się tak, by przytakiwały rozmówcy – co może powodować, złudne nieraz, poczucie akceptacji i bezpieczeństwa, prowadząc jednocześnie do podejmowania niekorzystnych decyzji. Ludzie szukają u swoich “zaprzyjaźnionych” chatbotów pocieszenia, wsparcia w trudnych chwilach czy pomocy w rozwiązywaniu problemów. Łatwo potępić takie zachowanie – ale to wszystko nie jest tak jednoznaczne, jak się niektórym wydaje.
Nie potrzeba przeprowadzonych przez startupy technologiczne badań, by ocenić, że samotność rzeczywiście staje się poważnym problemem. Dotyczy to zarówno nieobecności innych ludzi, jak i tzw. “samotności w tłumie”, kiedy człowiek otoczony teoretycznie bliskimi osobami nie ma się przed kim otworzyć.
Nieoceniający “przyjaciel” zdaje się na tego typu problem odpowiadać. Zawsze wysłucha i wesprze, będzie zawsze dostępny, nigdy nie pozwoli nam zostać samemu.
Smartfony przyzwyczaiły nas do ciągłej nadobecności elektroniki – a wraz z nią innych, dostępnych za jej pośrednictwem, ludzi. Praktycznie nie przebywamy już sam na sam ze sobą. Zapomnienie telefonu, lub choćby jego rozładowanie, wywołuje u wielu panikę.
Domagamy się czyjejś ciągłej obecności – jakbyśmy bali się własnych myśli i swojego własnego towarzystwa. W dyskusji o epidemii samotności umyka refleksja, że samotność bywa czasami potrzebna.
Nie oznacza to, że nie potrzebujemy towarzystwa drugiego człowieka – ale pozostawanie w stałym i ciągłym kontakcie też może być szkodliwe. Aby omówić z kimś pomysł, który akurat wpadł nam do głowy – musimy mieć przestrzeń, by na daną ideę wpaść. Aby opowiedzieć komuś o swoich wątpliwościach – najpierw musimy znaleźć czas, by sobie samym na te wątpliwości pozwolić. Sami dla siebie możemy być lepszymi przyjaciółmi, niż dowolny “przyjaciel AI” – ale daliśmy sobie wmówić, że jest inaczej.
Dolina niesamowitości
Zmarły w tym roku Masashiro Mori, japoński badacz robotyki, już ponad 50 lat temu analizował stosunek ludzi do robotów. W opublikowanym w 1970 roku artykule “Dolina niesamowitości” zwrócił uwagę na ciekawe zjawisko. Badając przywiązanie człowieka do robotów posłużył się analogią górskiej wspinaczki: im bardziej ludzki wydaje się obiekt, tym przywiązanie ludzi do niego staje się większe, jakby człowiek wspinał się na szczyt ku maszynom coraz bardziej podobnym do człowieka. Okazuje się jednak, że zamiast na szczyt, trafia się w dolinę “niesamowitości”.
Zabawka z twarzą, rękoma i nogami budzi większe przywiązanie, niż typowo funkcjonalne, mechaniczne narzędzie, a dobrze wyglądająca proteza ręki traci w momencie uścisku dłoni. Widzowie w japońskim teatrze Bunraku angażują się z emocjonalnie – bo używane tam lalki wyglądem przypominają ludzi. Okazało się jednak, że sympatia do coraz bardziej przypominających ludzi obiektów ma swoją granicę, po przekroczeniu której zamienia się w niepokój. Autor sugeruje twórcom, by unikali doliny niesamowitości i już na etapie projektu dążyli do stworzenia produktu, który takiego poczucia niesamowitości nie wywoła. Zaleca, aby celowo i świadomie tworzyć rozwiązania, które nie będą przypominać ludzi – w ten sposób “można stworzyć bezpieczny poziom przywiązania”.
Chociaż zaprezentowana teoria skupia się głównie na ruchu czy wyglądzie, warto się zastanowić, czy nie można rozszerzyć jej na popularne dziś chatboty. Gdy po raz pierwszy spotkałam się z tezą Mashashiro Moriego zaczęłam się zastanawiać, czy wspomniana granica nie została dziś przesunięta, a sama dolina niesamowitości – całkowicie zlikwidowana. Sztaby marketingowców pracują nad tym, by przekonać nas wszystkich, jak bardzo potrzebujemy wsparcia ze strony AI, a jeśli jakiś psycholog czy humanista ośmieli się zasugerować, że czasem potrzebujemy samotności, by usłyszeć własne myśli – nie przebije się przez głosy technoentuzjastów, widzących w technologii nie tylko narzędzie, ale także przyjaciela.
Doświadczenia Boone'a Ashwortha i Kylie Robison pokazują jednak, że teoria doliny niesamowitości wciąż ma rację bytu. Naszyjnik z mikrofonem, w przeciwieństwie do wszechobecnych smartfonów, budził niepokój: i u samych noszących, i u otoczenia. Kylie opisuje, że samym problemem był już wybór miejsca i okazji, w których mogłaby przetestować chatbota: nie chciała zabierać wszystko monitorującego i komentującego narzędzia na kawę ze współpracownikami czy – tym bardziej – na spotkanie z informatorem. Finalnie zabrała je na wydarzenie branżowe – symboliczny “pogrzeb” jednego z modeli AI. Jednak także tam rzucający się w oczy naszyjnik budził gniew i niepokój -nNiczym opisany przez Moriego powolnie uśmiechający się robot.
Także Boone nie polubił się z wisiorkiem Aviego Schiffmanna. Jego chatbot, nazwany Buzz, odciągał go od pracy, rzucał chamskimi komentarzami, a gdy redaktor poskarżył się komuś na swoje związane z tym doświadczenia – “obrażony” Buzz wszczynał kłótnie.
Wybiórcza akceptacja inwigilacji
Mamy tutaj do czynienia z pewnym paradoksem. Noszenie ze sobą elektronicznego “przyjaciela”, który jest do tego stopnia ludzki, że świetnie symuluje wścibskiego, źle wychowanego i nie panującego nad emocjami znajomego, zdaje się budzić powszechny niepokój. Okazuje się nagle, że nikt nie chce być podsłuchiwany. Nikt nie lubi, gdy jego życie poddawane jest ciągłej ocenie czy – tym bardziej – gdy ciągłej ocenie poddawany jest każdy, najmniejszy nawet aspekt naszych codziennych czynności.
Nikt nie lubi krytyki czy nieproszonego wtrącania się w pracę lub w rozmowy towarzyskie. Naszyjniki Ashwortha i Robison słusznie budziły naturalne obawy związane z poczuciem bezpieczeństwa, ochroną danych czy prywatności. Nie dlatego jednak, że ich twórca mniej troszczy się o ochronę prywatności, niż konkurencja.
Problem leży w naszym postrzeganiu rzeczywistości i w naszej psychice. Chociaż deklaratywnie cenimy szczerość i nie lubimy fałszywych ludzi, to praktyka nieraz wygląda inaczej. Czujemy się swobodniej w towarzystwie osób, które nas wysłuchają bez oceniania – i nie zastanawiamy się nad tym, do kogo trafią przekazane w ten sposób informacje, dopóki nie wrócą do nas z trzeciej ręki. Z technologią jest podobnie.
Przyzwyczailiśmy się do wszechobecnych kamer. Kontrowersyjny dla obrońców prywatności monitoring miejski daje wielu ludziom poczucie bezpieczeństwa – przynajmniej, póki zamontowany pod kamerą głośnik nie upomni nas za przejście na czerwonym świetle czy użycie przekleństwa w miejscu publicznym.
Osoba wnosząca na przyjęcie dyktafon w formie naszyjnika budzi niechęć – ale podobną, jeśli nie większą, wzbudzi ktoś domagający się, by nie prowadzić rozmów przy telefonach komórkowych, które przecież też mają wbudowany mikrofon.
Nie podoba nam się chatbot komentujący naszą rozmowę – ale nigdy nie wiemy, czy w domowym zaciszu rozmówca i tak nie przekaże innemu chatbotowi treści naszej konwersacji.
Co więcej – nieraz nie będziemy wiedzieć, czy słowa znajomego są jego własnymi wyjaśnieniami, czy konstruktem wygenerowanym przez AI. W przestrzeni internetowej coraz trudniej jest odróżnić człowieka od bota – nie dlatego, że AI tak bardzo przypomina ludzi, ale dlatego, że ludzie zaczęli pisać, jak boty. Statystyczny Polak nie czyta książek. Jeśli dodatkowo spędza sporo czasu obcując z AI, nie ma się co dziwić, że nie dostrzega nienaturalności własnego języka.
Zdajemy się zwracać uwagę na wszechobecną inwigilację dopiero wtedy, gdy ta zdaje się krzyczeć “szpieguję Was”.
Wścibscy i widoczni przyjaciele AI budzą naturalne zaniepokojenie – i właśnie dlatego to nie nimi powinniśmy się najbardziej martwić. Dużo bardziej niebezpieczne są popularne nieoceniające chatboty, widoczne jedynie na ekranie, które, niczym fałszywy przyjaciel, przywiązują nas do siebie i wyciągają z nas informacje, by potem przekazać je dalej czy wykorzystać przeciwko nam.
Zawiedzione zaufanie drugiego człowieka trudno jest odbudować. Gdy zawiedzie – rzadko kiedy przechodzimy nad tym do porządku dziennego mówiąc “to tylko człowiek”. Gdy jednak AI halucynuje lub udziela złych rad, “usprawiedliwiamy” aplikację mówiąc, że “to tylko technologia”.
To technologia, za którą stoją korporacje z dużymi pieniędzmi i celami biznesowymi. Nie są naszymi przyjaciółmi – i nie są nimi ich produkty. Warto o tym pamiętać – nawet, jeśli mamy stricte instrumentalne podejście do różnych narzędzie AI, przez ich twórców sami jesteśmy instrumentalnie wykorzystywani.
Skoro więc mawia się, że lepsza jest samotność od zdradzającego partnera czy fałszywego przyjaciela – dlaczego nie zastosować podobnego podejścia do chatbotów? Technologia nie rozwiąże problemu samotności – pogłębi go. Jak trywialnie by to nie brzmiało – problem samotności może rozwiązać jedynie drugi człowiek, otwarty na potrzeby innych osób, a nie na zapewnienie zysku korporacjom.