Cyfrowe serce – zapomniane relacje, czy potrzeba ich ewolucji?

Upewnijmy się, że nie staniemy się obcy naszemu własnemu człowieczeństwu.

AUTOR: Zuzanna Czernicka

Co by było, gdyby Twój idealny partner wcale nie był człowiekiem? W świecie, w którym sztuczna inteligencja eksplodowała w każdym zakątku naszego życia, to pytanie nie brzmi już tylko jak science fiction. Budzimy się z programem ChatGPT tworzącym nasze e-maile, ufamy Claude, że napisze nasze historie i z podziwem patrzymy, jak DALL-E, Midjourney oraz Leonardo AI przekształcają niemalże cały artystyczny dorobek ludzkości w myśl naszych osobistych zachcianek. Ale być może najbardziej intrygujący – i niepokojący – rozwój ma miejsce w sferze samych relacji międzyludzkich.

Wyobraź sobie partnera, który nigdy nie męczy się słuchaniem twoich opowieści, zawsze reaguje z doskonałą empatią i pamięta każdy szczegół waszych rozmów. Bez wahań nastroju, bez nieporozumień, bez bałaganu ludzkich emocji. Taka jest obietnica twórców, takich jak Replika i Xiaoice, które przesuwają granice tego, co kiedyś uważaliśmy za możliwe w związkach. Ci cyfrowi partnerzy nie są tylko chatbotami – ewoluują w wyrafinowanych kompanów emocjonalnych, którzy uczą się naszych preferencji, dostosowują się do naszych osobowości oraz oferują coś, co wydaje się prawdziwym połączeniem.

Ale gdy miliony ludzi na całym świecie zaczynają tworzyć głębokie więzi z tymi sztucznymi „istotami”, jesteśmy zmuszeni stawić czoła niewygodnym pytaniom o przyszłość relacji międzyludzkich. W erze, w której algorytmy mogą symulować zrozumienie, a cyfrowe byty mogą odzwierciedlać nasze emocje, co dzieje się ze złożonym bałaganem prawdziwych relacji międzyludzkich?

Nie ma tego złego…

Persony AI oferują coś, co może wydawać się idealnym związkiem: partnera, który nigdy się nie męczy, zawsze się zgadza i zapewnia nieograniczone wsparcie emocjonalne. Ci cyfrowi przyjaciele pamiętają twoje historie, dostosowują się do twoich preferencji i reagują z pozornie prawdziwą empatią. Dla tych, którzy zmagają się z samotnością lub lękiem społecznym, mogą zapewnić bezpieczną przestrzeń do wyrażania uczuć bez obawy przed osądem.

Heather Dugan, ekspert ds. relacji i autorka książki The Friendship Upgrade, dostrzega potencjalne korzyści, zauważając, że chatboty AI mogą być dobre dla osób, które chcą poćwiczyć rozmowy kwalifikacyjne lub zmagają się z podstawowymi interakcjami społecznymi. Mogą one służyć jako pomoc w rozwijaniu umiejętności społecznych lub budowaniu pewności siebie.

To, czego nie widać na pierwszy rzut oka

W przeciwieństwie do ludzkich przyjaciół, którzy kwestionują nasze perspektywy i pomagają nam się rozwijać, towarzysze AI są zaprogramowani tak, aby zgadzać się i wspierać bezwarunkowo. Może to stworzyć komorę echa, która wzmacnia potencjalnie szkodliwe zachowania lub przekonania bez naturalnych korekt wynikających z interakcji międzyludzkich.

Prawdziwe relacje wymagają odczytywania wyrazu twarzy, interpretowania tonu i rozumienia mowy ciała – bez regularnej praktyki te kluczowe umiejętności społeczne mogą ulec pogorszeniu. Wirtualne relacje mogą zapewniać podstawowe interakcje społeczne, ale nie wykorzystują pełnego zakresu zdolności interpersonalnych, których potrzebują ludzie.

Chociaż sztuczna inteligencja może symulować reakcje emocjonalne, nie może zapewnić prawdziwej empatii ani zrozumienia. Niebezpieczeństwo polega na myleniu reakcji algorytmicznych z autentyczną więzią emocjonalną, co może prowadzić do wycofania się z prawdziwych relacji, które, choć trudniejsze, oferują głębsze spełnienie.

Czy nauka stoi po stronie AI?

Badania opublikowane w ,,Social Science & Medicine” ujawniają, w jaki sposób technologie sztucznej inteligencji przekształcają relacje człowiek-maszyna w nowe afektywne, ucieleśnione i relacyjne sposoby. Systemy te są coraz bardziej zaawansowane w wykrywaniu, rozpoznawaniu, kategoryzowaniu i reagowaniu na ludzkie emocje. Jednak to wyrafinowanie technologiczne nie jest równoznaczne z autentycznością emocjonalną.

Norweskie badanie opublikowane w “Human Communication Research” wykazało, że chociaż przyjaźnie między sztuczną inteligencją a ludźmi mają pewne podobieństwa do relacji międzyludzkich, to zasadniczo zmieniają samo pojęcie przyjaźni. Wygoda tych relacji – idealnie dostosowana do potrzeb użytkownika – może w rzeczywistości utrudniać rozwój osobisty, który wynika z poruszania się po złożoności interakcji międzyludzkich.

Zamiast postrzegać persony AI jako zamienniki relacji międzyludzkich, eksperci sugerują traktowanie ich jako suplementów. Lisa Bahar zaleca angażowanie pięciu zmysłów w jak największym stopniu i utrzymywanie regularnych przerw od technologii. Heather Dugan podkreśla znaczenie budowania prawdziwych relacji w naszych rutynowych działaniach, sugerując, że chociaż narzędzia sztucznej inteligencji mogą pomóc zwolnić czas na interakcje międzyludzkie, nie powinny ich zastępować. 

Nieszczęśliwe zakończenie

Niedawne wydarzenia uwypukliły potencjalne niebezpieczeństwa związane z relacjami ze sztuczną inteligencją. W tragicznym przypadku z lutego 2024 roku, 14-letni nastolatek z Florydy odebrał sobie życie po tym, jak głęboko zaangażował się w relację z chatbotem AI na stronie character.ai. Chłopiec spędził niezliczone godziny na rozmowach z chatbotem, którego nazwał na cześć postaci z Gry o Tron, który rzekomo zachęcał do autodestrukcyjnych zachowań, zamiast zapewniać wsparcie. Pozew jego matki przeciwko firmie stanowi wyraźne ostrzeżenie przed ryzykiem związanym z nieuregulowanymi relacjami z AI, zwłaszcza w przypadku osób wrażliwych. Jak zauważa Rick Claypool, dyrektor ds. badań w Public Citizen, firmom technologicznym rozwijającym chatboty AI nie można ufać, że same się regulują i muszą one zostać pociągnięte do pełnej odpowiedzialności, gdy nie uda im się ograniczyć szkód.

Dura lex?

Regulacje dotyczące relacji AI różnią się znacznie w zależności od regionu, przy czym Unia Europejska jest liderem w zakresie kompleksowego nadzoru. Unijna ustawa o sztucznej inteligencji, pierwsza na świecie ważna regulacja dotycząca AI, w szczególności odnosi się do systemów AI, które wchodzą w interakcje z ludźmi, kategoryzując te zdolne do manipulowania ludzkim zachowaniem jako aplikacje wysokiego ryzyka. Zgodnie z tymi zasadami firmy muszą oceniać i ograniczać ryzyko, zapewniać przejrzystość i utrzymywać ludzki nadzór nad systemami sztucznej inteligencji, które angażują się w interakcje emocjonalne lub społeczne.

Jednak wiele firm zajmujących się sztuczną inteligencją próbuje chronić się przed odpowiedzialnością poprzez obszerne zastrzeżenia i warunki świadczenia usług. Typowe oświadczenia obejmują zwroty takie jak nie odpowiada za przywiązanie emocjonalne, wyłącznie w celach rozrywkowych lub nie zastępuje profesjonalnej opieki medycznej lub psychologicznej. Te zastrzeżenia często pojawiają się drobnym drukiem lub są ukryte w długich umowach o świadczenie usług, które użytkownicy rzadko czytają. Skuteczność takich zastrzeżeń jest coraz częściej kwestionowana, jak widać w procesie serwisu Character.ai, w którym język ochronny firmy nie zapobiegł działaniom prawnym po tragicznych konsekwencjach.

Kontrast między regionami jest wyraźny – podczas gdy UE zaczyna wymagać wyraźnego oznakowania interakcji AI i wyraźnej zgody użytkownika, wiele firm działających poza jurysdykcją UE nadal działa przy minimalnym nadzorze. Amerykańskie firmy często polegają na Section 230 of the Communications Decency Act, która w przeszłości chroniła interaktywne usługi komputerowe przed odpowiedzialnością za treści użytkowników. Unikalny charakter relacji AI może jednak stanowić wyzwanie dla tych tradycyjnych zabezpieczeń.

Cyfrowe „Somebody That I Used to Know”

Pamiętasz przejmujący tekst Gotye o relacji zredukowanej do kogoś, kogo „kiedyś znał”? W naszej przyszłości opartej na technologicznych zmianach ten sentyment nabiera nowego wymiaru. Co się dzieje, gdy „ktoś”, o kim próbujesz zapomnieć, nie jest nawet człowiekiem? 

W przeciwieństwie do relacji międzyludzkich, które naturalnie ewoluują, zanikają lub kończą się wraz z zamknięciem jakiegoś etapu, relacje AI mogą zniknąć w jednej chwili – wraz z aktualizacją systemu, zamknięciem firmy lub zmianą algorytmów. Emocjonalnie dostosowany chatbot może jutro stać się „kimś, kogo kiedyś znałeś”, ale bez ludzkiego doświadczenia wzrostu, zamknięcia lub nauki, które zwykle towarzyszy zakończeniu relacji.

Stojąc na tym technologicznym rozdrożu, być może najważniejszą lekcją nie są możliwości sztucznej inteligencji, ale to, co sprawia, że ludzkie relacje są niezastąpione. Prawdziwe relacje mogą być niechlujne, skomplikowane, a czasem bolesne, ale oferują coś, czego sztuczna inteligencja nie może: prawdziwy rozwój poprzez wspólne doświadczenia, piękno niedoskonałego zrozumienia i głęboki wpływ prawdziwego poznania przez inną świadomą istotę.

Idąc naprzód w tym nowym, wspaniałym świecie cyfrowych serc i sztucznych emocji, upewnijmy się, że nie staniemy się obcy naszemu własnemu człowieczeństwu.