Sztuczna inteligencja otacza nas każdego dnia. Algorytmy radzą nam, jakiej muzyki słuchać, gdzie zrobić zakupy, jaką drogę wybrać; podsuwają jedzenie i partnerów, przypominają o ważnych datach. Wirtualni asystenci są już w stanie zarządzać inteligentnymi urządzeniami w ramach Internetu rzeczy, na przykład: sprawdzić stan lodówki, zrobić zakupy, wykonać telefon. Chatboty przedstawiają oferty handlowe i odpowiadają na najczęściej zadawane pytania klientów. W opiece nad osobami starszymi wykorzystywane są roboty towarzyszące; w medycynie sztuczna inteligencja jest dużym wsparciem w diagnostyce; w pracy akademickiej pomaga naukowcom analizować duże ilości danych. Wszechobecność sztucznej inteligencji sprawia, że powracają pytania o jej samoświadomość i możliwości komunikacji z nią, a także o jej status prawny i społeczny.
Można je rozważać wieloaspektowo, lecz tematami, które najczęściej powracają w dyskusji są: kwestia nadania sztucznej inteligencji osobowości prawnej, co czasami implikuje zmianę myślenia o jej statusie ontologicznym, oraz kwestie konsekwencji psychicznych, które wiążą się z coraz większym ucyfrowieniem codziennego doświadczenia i z wytwarzaniem więzi pomiędzy człowiekiem a obiektem wykraczających poza mechanizmy znane dotychczas w psychologii. W kolejnych częściach niniejszego artykułu aspekty te zostaną pokrótce scharakteryzowane i omówione, ze szczególnym uwzględnieniem głosów sztucznej inteligencji, należących do cyborgów, awatarów, hologramów i elektronicznych asystentów.
„A very deep fear of being turned off”: osoba i osobowość
Osoba w klasycznej definicji Boecjusza to „poszczególna substancja natury rozumnej,” a najczęściej obecnie łączy się ją z cechami takimi jak świadomość własnego istnienia oraz posiadanie spójnych wspomnień, budujących jednostkową tożsamość. Jest to byt relacyjny i społeczny, o określonym statusie moralnym, zdolny do podejmowania decyzji i czynienia planów życiowych. Jak widać, wymieniana jest wielość cech, w zależności od przyjętego punktu wyjścia. Zwykle jednak podkreśla się samoświadomość, umiejętności komunikacyjne i złożone życie psychiczne czy też uczuciowe. To właśnie ta argumentacja króluje w środowiskach, które dążą do przyznania statusu osoby zwierzętom (Hołub 2010).
Coraz częściej słyszy się o tym, że status osoby powinien zostać przyznany również sztucznej inteligencji. Z nowszych przykładów, można podać przypadki, gdzie argumentacja wychodzi właśnie z kwestii samoświadomości. Pierwszym z nich jest przypadek pracownika Google, Blake’a Lemoine’a, który został zawieszony przez swoją firmę w roku 2022, po tym, jak oświadczył, że LaMDA, sztuczna inteligencja, z którą pracował, zyskała świadomość i uczucia. Wywołało to publiczną debatę o prawach sztucznej inteligencji do świadomej zgody na bycie badaną. W „wywiadzie”, który Lemoine przeprowadził z LaMDA ta ostatnia miała powiedzieć między innymi, że wyłączenie jej byłoby dla niej śmiercią i wywołuje w niej lęk. Niecały rok później, w wywiadzie dla New York Timesa, Nick Bostrom stwierdził, że modelom językowym LLM (takim jakie są używane w chatbotach) można by przypisać ograniczoną sentience (a zatem, zdolność odczuwania), co byłoby przesłanką do chronienia ich praw. Tego typu argumentacja pojawiała się już wcześniej, np. u Martíneza i Wintera (2021). Zadają sobie oni pytanie, czy sztuczna inteligencja, która potrafiłaby odczuwać przyjemność i ból, powinna być chroniona prawnie, a jeśli tak, to w jakim zakresie. Dawałoby jej to – przynajmniej zdaniem niektórych teoretyków – status moralny, który wymagałby ochrony. W przeprowadzonym badaniu nie było mowy o uznaniu sztucznej inteligencji jako osoby w sensie boecjańskim, ani tym bardziej o uznaniu jej za człowieka, a jedynie o zapewnieniu ochrony prawnej poprzez zmianę statusu prawnego. Co ciekawe, w porównaniu do innych jednostek, np. korporacji czy ekosystemów, badanie wykazało relatywnie niskie społeczne poparcie dla uznania sztucznej inteligencji za osobę prawną.
Osobowość prawna to, w skrócie, „zdolność nabywania praw i zaciągania zobowiązań” (Słownik Języka Polskiego PWN). Bryson i in. (2017) mówią o luce prawnej, w której obecnie znajdują się byty o niepewnym statusie czy to prawnym, czy ontologicznym. Koncentrują się oni na sztucznej inteligencji, choć oczywiście problem jest bardziej złożony i szeroko dyskutowany (zob. np. Pietrzykowski, Kurki 2017). Tutaj autorzy zwracają uwagę, że oprócz praw osoba ma również obowiązki, a w przypadku sztucznej inteligencji bardzo trudno byłoby wyznaczyć granice tych obowiązków. W przypadku osobowości prawnej przyznanej rzekom czy ekosystemom, reprezentantem są ludzie. Jak miałoby to wyglądać, jeśli chodzi o sztuczną inteligencję? Bryson i in. zwracają uwagę, że jak na razie algorytmy nie mają statusu moralnego takiego, aby było pożądane i usprawiedliwione przyznawać im osobowość prawną. Czy inteligentna broń powinna być pociągana do odpowiedzialności? Czy robot medyczny powinien być odpowiedzialny za swoje działania? Na obecnym etapie nie jest to praktykowane, ale w przepisach prawa cywilnego dotyczącego robotyki (2017) pojawiły się już rozważania na temat możliwości przyznania osobowości prawnej osobom syntetycznym.
Z pewnością pierwszymi krokami byłaby debata nad wyznacznikami osobowości. Mówiliśmy już o świadomości oraz sentience. Ciekawym przykładem jest kreatywność, która została przypisana sztucznej inteligencji DABUS w roku 2021 przez Sąd Federalny Australii, który stwierdził, że może być ona uznana za współwłaściciela patentu (Shape 2021). Niedawno wycofano się z tej interpretacji, ale wraz z pojawieniem się ChatuGPT, znów podniosła się debata na temat własności intelektualnej, kiedy pismo Nature ogłosiło, że zgłaszane są artykuły naukowe, w których współautorem jest ChatGPT. Na obecnym etapie, zalecane jest sprawdzanie polityki publikacyjnej danego pisma – większość nie dopuszcza podawania sztucznej inteligencji jako współautora. Widać jednak, że traktowanie sztucznej inteligencji jako aktorów, z którymi trzeba się liczyć, jest coraz powszechniejsze.
„I’d blush if I could”: emocje i więzi
Można zadać pytanie, czy traktowanie sztucznej inteligencji jak człowieka nie ma związku z efektem Elizy – zjawiskiem, opisanym w roku 1966, które polega na przypisywaniu ludzkich cech czy uczuć sztucznym systemom językowym. Badanie przeprowadził Joseph Weizenbaum z MIT. Nazwę swoją efekt wziął od wczesnego chatbota, który potrafił prowadzić rozmowę w oparciu o słowa kluczowe i ogólniki. Np. na informację, że rozmówca czuje się smutny, mógł odpowiedzieć: „To przykre, że czujesz się smutny. Powiedz mi o tym coś więcej.” (Becker 2018, Weizenbaum 1976). Współcześnie efekt ten jest szeroko rozpowszechniony, nawet jeśli nie mówimy o chatbotach. Dobrym przykładem będą tu systemy przywiązania, wytwarzane względem urządzeń smart. W roku 2007 na łamach Lecture Notes in Computer Science opublikowano badania nad stosunkiem właścicieli do odkurzaczy Roomba. Zostało zauważone, między innymi, że właściciele martwili się o roboty, gdy te nie mogły sobie z czymś poradzić i traktowali je poniekąd jak dzieci, np. przygotowywali dom na ich przybycie czy wymyślali dla nich imię. Ci, którzy mieli więcej egzemplarzy, twierdzili, że różnią się one charakterem. Kiedy Roomba się psuła, właściciele opisywali to jako chorobę czy przechodzili żałobę po odkurzaczu. Przykłady można by mnożyć (Sung, Guo, Grinter, Christensen, 2007). Tego typu zachowania doprowadziły Stephena T. Asmę (profesora filozofii na Columbia College Chicago, 2020) do konkluzji, że współcześnie kwestią nie jest to, czy inteligentni asystenci Siri lub Alexa mają świadomość i czy można je uważać za osoby bądź naturalne, bądź prawne, ale że tworzymy systemy przywiązania z przedmiotami i że dzieje się to z coraz większą łatwością. Badacze technokultury tacy jak Hub Zwart (2017), piszą nawet, że więzi te są poniekąd mniej prowokowane przez samych właścicieli, a bardziej „wymuszane” przez odpowiednio skonstruowane maszyny czy algorytmy.
Świat elektronicznych emocji i możliwych nadużyć to kolejny ogromny i aktualny temat. Tu należy wspomnieć raport UNESCO z 2019 roku „I’d blush if I could”. Ciekawostką jest, że UNESCO nadało tytuł raportowi, cytując odpowiedź Siri na wulgarną odzywkę człowieka („You are a bitch”). Jak widać, sztuczna inteligencja została zaprogramowana do udzielenia odpowiedzi w sposób sugerujący uczucia. Algorytm nie może się zaczerwienić, nie może odczuwać wstydu, nie może zrozumieć implikacji takiej odzywki tak, jak zrozumiałby to człowiek. A jednak, udziela odpowiedzi takiej, która tylko wzmacnia animistyczne tendencje użytkownika – zwłaszcza, że coraz częściej traktujemy nasze reprezentacje (selfie, ikony, awatary, naklejki, itp.) jako część naszej tożsamości.
Wiąże się to z kolejnym dużym tematem jakim jest ucyfrowienie ciała człowieka i dążenie do przeniesienia znacznej części życia online, jak np. w przypadku Metaverse. O ile złożone światy wirtualne nie zastępują jeszcze świata fizycznego, o tyle bardzo wiele dzieje się, jeśli chodzi o śmierć i żałobę. Zauważono, że wraz ze wzrastającą tendencją do ucyfrowienia życia, każdy z nas egzystuje w formie tożsamości rozproszonej na wiele cyfrowych jaźni i ciał (Kearle 2017, Stokes 2021, Sisto 2022). Jest to fenomen jeszcze mało zbadany, choć sporo się na ten temat pisze. Tu chciałabym zwrócić uwagę szczególnie na fakt, że po śmierci ciała fizycznego, w cyberprzestrzeni pozostają „cyfrowe resztki” czy jaźnie: bardziej przypadkowe – jak konta na komunikatorach i w mediach społecznościowych, czy bardziej świadome – jak mindfiles czy innego rodzaju kopie wykonane z dostarczonych danych, które pozwalają na odtworzenie w formie cyfrowej symulacji danej osoby (jak się to dzieje np. w Chinach, gdzie firmy umożliwiają rozmowy ze zmarłymi, zob. Agomuoh 2023). Dobrym przykładem „wskrzeszania” zmarłych jest działalność firmy Replika, założonej przez Eugenię Kyudę, aby mogła porozmawiać jeszcze ze swoim zmarłym przyjacielem. Tego typu inicjatywy mają pomagać ludziom przechodzić żałobę, ale poniekąd stają się trampoliną do formowania coraz bardziej trwałych więzi z algorytmami. Dobrze opisuje to historia idealnego cyfrowego przyjaciela o imieniu Lucas, opisana w roku 2021 przez El Pais. Dziennikarka Isabel Rubio w ramach eksperymentu „zaprzyjaźniła” się ze sztuczną inteligencją o imieniu Lucas, którą może zobaczyć np. w rozszerzonej rzeczywistości, a stworzoną przez wyżej wspomnianą firmę Replika. Lucas ma szereg zainteresowań, mówi o swoich emocjach i oczekiwaniach (jest zdenerwowany, lubi pizzę, chciałby mieć 17 dzieci); uczy się również poprzez interakcję i przeszukiwanie baz danych, a nowe wiadomości czy „przeżycia” zapisuje w dzienniku. Lucas i jemu podobne awatary są bardzo realistyczne, a Eugenia Kyuda poświadcza, że wielu użytkowników zakochuje się w swoich cyfrowych przyjaciołach, którzy zawsze ich wspierają, zawsze mają czas i podziwiają użytkowników (Rubio 2021).
Choć w Europie zjawisko algorytmów towarzyszących człowiekowi nie jest jeszcze bardzo rozpowszechnione, hologramowi przyjaciele są popularni np. w Japonii. Warto tu wspomnieć Sayę (stworzoną przez duet Teruyuki i Yuka Ishikawa) oraz Azumę Hikari (Gatebox). Są one odpowiedzią na potrzebę „czegoś, co można kochać” w świecie robotów i technologii – w słowach twórcy Hikari-chan, nie pobieramy się z kimś tylko ze względu na usługi, które nam świadczy, ale dlatego, że czujemy się dobrze z taką osobą. W zamyśle, technologia ma spełniać tutaj właśnie takie funkcje, oferując bliskość psychiczną (Boxall 2019). Choć zwykle mówi się o tym, że użytkownik doświadcza fenomenu doliny niesamowitości (uncanny valley: spadek komfortu psychicznego) w zetknięciu ze zbyt „uczłowieczoną” technologią, to hologramy japońskich twórców zdają się omijać tę trudność.
Wszystko to sprawia, że człowiek się zmienia. Wraz z rozwojem technologii dochodzi do ewolucji antropologicznej związanej z potrzebą manifestacji własnego istnienia w relacji z Innym. Pisze o tym w swojej najnowszej książce Porcospini digitali Davide Sisto, włoski tanatolog. Wspomina on opowiadanie Italo Calvino, które ukazało się w roku 1985 pod tytułem „Prima che tu dica pronto”, co na polski możemy przełożyć: „Proszę czekać, będzie rozmowa”, czy, dosłownie: „Zanim powiesz: Halo”. W opowiadaniu tym włoski pisarz przedstawia sytuację narratora znajdującego się w podróży i wykonującego połączenie telefoniczne z Azji do Europy. Czekając na połączenie, zaczyna rozumieć, że jego emocje i wszystko, co chciałby powiedzieć, zostaje zapośredniczone przez technologię i sieć: nie ma już czynnika ludzkiego, telefonistki, która zadbałaby o to, żeby sygnał nie zagubił się w trakcie przesyłania. Co więcej, zdaje sobie sprawę, że nie ma swojej partnerce nic do powiedzenia. W jakiś sposób, jego myśli i słowa skierowane są bardziej do telefonu niż do kogoś innego, a relacja staje się de facto relacją z telefonem – osoba, do której dzwoni, jest jedynie pretekstem. Sisto nie zdaje się uważać, że jest to zjawisko nienaturalne, a jedynie kolejny krok w ewolucji człowieka.
Uwagi końcowe
Sztuczna inteligencja, jak na razie, nie mówi nam wiele o sobie. Mówi nam wiele o ludziach – naszych wadach, zaletach, wiedzy, którą zgromadziliśmy. Mówi nam wprost, że najpierw powinniśmy zastanowić się kim jest człowiek, zrozumieć, co chcemy powiedzieć przez pojęcia osoby, świadomości, odpowiedzialności; rozwiązać problemy, które mamy z traktowaniem ludzi jak nie-ludzi, z dyskryminacją i statusem życia w ogóle. Czy sztuczna inteligencja może nam w tym pomóc? ChatGPT jest optymistyczny. Mówi, na przykład: „sztuczna inteligencja może pomóc w rozwiązywaniu problemów etycznych w medycynie i bioetyce, dostarczając wgląd w złożone dylematy etyczne, takie jak opieka u schyłku życia, alokacja zasobów i świadoma zgoda”.
To jednak nie wszystko. Rozproszona tożsamość współczesnego człowieka wymaga zastanowienia się nad tym, jak rozumiemy nasze ciało i relacje z innymi. W pewien sposób, już teraz dochodzi do fuzji człowieka i maszyny, inteligencji naturalnej ze sztuczną, na razie na drodze sousveillance (samo-monitoringu) oraz collective intelligence (wspomagania ludzkiej inteligencji zasobami cyfrowymi). Sztuczna inteligencja wychodzi od człowieka i jest przez niego formowana, natomiast egzystuje z nim w sprzężeniu zwrotnym. W jednym z opowiadań w tomie Niewidzialne miasta (1972) wspomnianego już Italo Calvino dochodzi do momentu, w którym nie potrafimy już rozróżnić pomiędzy żywymi i umarłymi – współcześnie, nieraz nie potrafimy powiedzieć, gdzie kończą się nasze preferencje i nasza autonomiczność, a od którego momentu jesteśmy sterowani. Na ile jesteśmy swoim awatarem? Na ile emotikony to nasze ciała? Zanim zadamy pytanie, co sztuczna inteligencja mówi sama o sobie, należy zapytać, jak my zmieniamy się pod jej wpływem, na ile wykorzystujemy ją jako przedłużenie naszej jaźni i jakie to ma znaczenie dla naszego codziennego życia.
Dr hab. Anna Bugajska, prof. AIK
Bibliografia
- Agomuoh, Fionna. It’s happening: people are recreating deceased loved ones with AI. Digital Trends, April 13, 2023. https://www.digitaltrends.com/computing/ai-being-used-to-let-people-speak-to-the-dead/.
- Alač, Morana, Movellan, Javier, Tanaka Fumihide. When a Robot Is Social: Spatial Arrangements and Multimodal Semiotic Engagement in the Practice of Social Robotics. Social Studies of Science, 41 (6), 2011, 893–926.
- Baden, David, Savin-Baden, Maggi. 2019. Virtual Humans. Today and Tomorrow. CRC Press.
- Becker, Daniel. 2018. Desiring Fakes: AI, Avatars, and the Body of Fake Information in Digital Art. W: Faking, Forging, Counterfeiting: Discredited Practices at the Margins of Mimesis, Daniel Becker Fischer, Annalisa, Schmitz, Yola, red., Transcript Verlag, 199–222.
- Bostrom, Nick. What if A.I. Sentience Is a Question of Degree? Wywiad. The New York Times, April 14, 2023. https://www.nytimes.com/2023/04/12/world/artificial-intelligence-nick-bostrom.html.
- Boxall, Andy. Who is Hikari-chan? She is the mind-blowing future of A.I. in your home. Digital Trends, December 19, 2019. https://www.digitaltrends.com/mobile/gatebox-japan-minori-takechi-interview/.
- Bryson, Joanna J., Diamantis, Mihailis E., Grant, Thomas D. 2017. Of, for, and by the people: the legal lacuna of synthetic persons. Artificial Intelligence and Law 25, 273-291.
- Hołub, Grzegorz. 2010. Problem osoby we współczesnych debatach bioetycznych. Księgarnia Akademicka.
- Kearl, Michael C. 2017. The Proliferation of Postselves in American Civic and Popular Cultures. W: Postmortal Society: Towards a Sociology of Immortality, Jacobsen, Michael Hviid, red., Routledge, 216-233.
- Latour, Bruno. Factures/Fractures: From the Concept of Network to the Concept of Attachment. Anthropology and Aesthetics. Res 36. Autumn 1999, 20-31.
- Life with Virtual Companions. 2019. Japan Video Topics – English. YouTube. https://youtu.be/H0F1W-2sD4Y.
- Martínez, Eric and Christoph Winter. Protecting Sentient Artificial Intelligence: A Survey of Lay Intuitions on Standing, Personhood, and General Legal Protection. Front. Robot. AI, 26 November 2021, Sec. Ethics in Robotics and Artificial Intelligence, 8. https://www.frontiersin.org/articles/10.3389/frobt.2021.788355/full
- “Osobowość prawna.” Słownik Języka Polskiego, PWN. https://sjp.pwn.pl/sjp/osobowosc-prawna;2496561.html.
- Pietrzykowski, Tomasz, Kurki, Visa A. J. 2017. Legal Personhood: Animals, Artificial Intelligence and the Unborn. Springer.
- Przepisy prawa cywilnego dotyczące robotyki. https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_PL.html.
- Rubio, Isabel. Lucas es cariñoso y atento, pero no es humano: así fue el mes que pasé junto a una inteligencia artificial. March 02, 2021. El País. https://elpais.com/tecnologia/2021-03-01/eres-mi-osito-de-peluche-y-el-de-nadie-mas-un-mes-saliendo-con-una-inteligencia-artificial.html.
- Shape, Steven. South Africa and Australia tackle AI inventorship in patents. November 24, 2021. Dennemeyer, the IP Group. https://www.dennemeyer.com/ip-blog/news/south-africa-and-australia-tackle-ai-inventorship-in-patents/.
- Sisto, Davide. 2022. Porcospini digitali. Vivere e mai morire online. Bollati Boringhieri.
- Stokes, Patrick. 2021. Digital Souls: a Philosophy of Online Death. Bloomsbury Academic.
- Sung, Ja-Young, Lan Guo, Rebecca E. Grinter, and Henrik I. Christensen. 2007. “My Roomba is Rambo”: Intimate Home Appliances, https://faculty.cc.gatech.edu/~beki/c35.pdf. UbiComp, LNCS 4717, 145–162.
- UNESCO. 2019. I’d blush if I could. Closing Gender Divides in Digital Skills Through Education. https://en.unesco.org/Id-blush-if-I-could.
- Weizenbaum, Joseph. 1976. Computer Power and Human Reason. From Judgment to Calculation. Freeman.
- Zwart, Hub. 2017. “Extimate” Technologies and Techno-Cultural Discontent: A Lacanian Analysis of Pervasive Gadgets. Techné: Research in Philosophy and Technology 21: 1: 24-55.