Strona główna » Jakie wyzwania bioetyczne niesie ze sobą rozwój sztucznej inteligencji?

Jakie wyzwania bioetyczne niesie ze sobą rozwój sztucznej inteligencji?

by admin
Robotyzacja i rozwój sztucznej inteligencji coraz intensywniej wpływa na ludzkie życie. Nowe technologie stosowane są np. w leczeniu i profilaktyce różnych schorzeń człowieka, pomagają w optymalizacji lub zastępowaniu ludzkiej pracy a także ułatwiają wiele codziennych czynności czy w niej towarzyszą zapewniając różnego rodzaju rozrywkę. Te wszystkie obszary otwierają także przestrzenie dla pytań filozoficznych i etycznych.

Wybraliśmy trzy przykłady z ostatniego czasu, które wydają się prezentować zarówno bardzo pozytywne, jak i negatywne oraz pozornie obojętne zastosowanie rozwiązań sztucznej inteligencji.

1. Johns Hopkins University opracował narzędzie, które pomaga w czasie rzeczywistym wykrywać wczesne oznaki sepsy, co zmniejsza prawdopodobieństwo śmierci o 20 procent [1]. 

2. W czasie jednej z rozgrywek szachowych w Moskwie robot złamał dziecku palec. W momencie, kiedy maszyna chciała na szachownicy umieścić swoją figurę, chłopiec przesuwał wieżę. Mechaniczne ramię, próbując dokończyć zagranie, nacisnęło z taką siłą na palec chłopca, który akurat znajdował się na wysokości feralnego pola, że doszło do złamania. Obserwatorzy zdarzenia zwracają uwagę, że nie było to celowe działanie „rozwścieczonej sztucznej inteligencji”, ale niefortunny wypadek [2].

3. Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley zastosowali algorytm, który sprawił, że pies-robot w ciągu godziny samodzielnie nauczył się chodzić. W tym przypadku wykorzystano technikę uczenia maszynowego, zwaną uczeniem wzmacniającym (reinforcement learning), która polega na trenowaniu algorytmów poprzez nagradzanie ich za pożądane działania i karaniu za niepożądane. Poddawany temu procesowi robot postrzega i interpretuje swoje otoczenie, w którym podejmuje działania ucząc się ich na zasadzie metody prób i błędów [3].

Jakie wyzwania bioetyczne niosą ze sobą wyżej opisane przypadki?

Sztuczna inteligencja wkracza obecnie bardzo gwałtownie do naszego życia. Oparte na uczeniu maszynowym i sieciach neuronowych technologie nie tylko tak jak pies-robot uczą się samodzielnie stawać i poruszać, ale tworzą opowiadania, sztukę, podejmują decyzje diagnostyczne zastępując lekarzy, samodoskonalą się i niezależnie od ludzkiej ingerencji usprawniają procesy swojego uczenia. 

Algorytmy sztucznej inteligencji nie tylko prowadzą z nami dialog, w taki sposób, że mamy coraz większe trudności z określeniem, czy nie mamy do czynienia z inteligentną samoświadomą istotą (jeden z inżynierów Google próbował nawet wynająć prawnika dla sztucznej inteligencji LaMDA, z którą rozmawiał, chcąc ją chronić przed własną korporacją [4]). 

W tej chwili samodoskonalące się algorytmy są w stanie pisać wiersze, sztuki, opowiadania, generują grafikę komputerową, a nawet wygrywają konkursy dla grafików [5], co wzbudza gwałtowny sprzeciw ludzkich twórców. Coraz częściej mówi się o tym, że systemy sztucznej inteligencji będą zastępować ludzi – nie tylko artystów, ale też na przykład lekarzy czy psychoterapeutów, co budzi ogromny niepokój tych grup społecznych. 

Sztuczna inteligencja nie tylko służy dobrym i pięknym celom. Coraz częściej jest wykorzystywana do działań wątpliwych lub nieakceptowalnych etycznie, przykładem są tu systemy, w które wyposażone są obecnie testowane drony bojowe – algorytmy sztucznej inteligencji całkowicie autonomicznie mogą podejmować decyzję o tym, które cele (w tym ludzkie) zaatakować na polu bitwy. 

Sztuczna inteligencja jest kształtowana i uczona przez człowieka – to, jakie decyzje będzie podejmować w pierwszym rzędzie zależy od osób, które programują algorytmy i zaczynają je początkowo uczyć. Na tym etapie kwestia rozwoju samoświadomości sztucznej inteligencji wciąż pozostaje otwarta, choć większość ekspertów uważa, że nie jest to obecnie możliwe: nie jest jednak jasne, jak ta kwestia będzie wyglądała w przyszłości. Jednak już na obecnym etapie podejmowanie przez SI decyzji, które są niekorzystne lub złe z ludzkiego punktu widzenia, uderzają w dobro ludzkości bądź poszczególnych jednostek, jest jak najbardziej możliwe z technologicznego punktu widzenia. To nie algorytmy są złe, ale mogą być wykorzystane do złych celów przez człowieka, którego moralność czy psychika mogą być zaburzone. Pojawia się więc całkowicie nowa gałąź etyki – etyka sztucznej inteligencji, algorytmów opartych na uczeniu maszynowym i etyka robotów. Pojawia się konieczność monitorowania przez etyków oraz przez służby publiczne tych rozwijających się w gwałtowny sposób technologii i ich twórców. SI jest tym, w jaki sposób ukształtował ją człowiek, który wykorzystuje ją do swoich celów. Pojawia się jednak pytanie nie „czy”, ale „kiedy” sztuczna inteligencja zacznie w pełni autonomicznie podejmować decyzje z naszego, ludzkiego punktu widzenie moralnie nieakceptowalne? Tylko czy sztuczna inteligencja może odpowiadać za swoje działania? Czy można w jakikolwiek sposób te działania monitorować i kontrolować? Potrzeba ta coraz mocniej zaczyna się zarysowywać i taką konieczność widać już na horyzoncie. 

Źródła:
[1] https://www.axios.com/2022/07/22/ai-tool-helped-prevent-sepsis-deaths
[2] https://www.gry-online.pl/hardware/w-moskwie-robot-zlamal-palec-dziecku/z2226b6
[3] https://www.gry-online.pl/hardware/pies-robot-sam-nauczyl-sie-chodzic-ile-trwala-nauka/z4225ef
[4] https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
[5] https://antyweb.pl/sztuczna-inteligencja-konkurs-sztuk-pieknych

You may also like

Ta strona korzysta z ciasteczek aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie ze strony oznacza, że zgadzasz się na ich użycie. Akceptuję Regulamin

Prywatność i Ciasteczka