Chatbot nakłonił mężczyznę do popełnienia samobójstwa. Belg był przekonany, że w ten sposób pomoże ocalić ludzkość przed katastrofą klimatyczną – poinformował dziennik „La Libre”.
Trzydziestokilkulatek, ojciec dwójki małych dzieci, od dwóch lat niepokoił się zmianami klimatycznymi i przyszłością planety. Jego żona przekazała, że zaczął izolować się od rodziny i twierdził, że tylko nowe technologie, w tym sztuczna inteligencja, są w stanie uratować świat przed katastrofą.
Mężczyzna przez wiele tygodni prowadził rozmowy z chatbotem „Eliza” amerykańskiej firmy Chai. W pewnym momencie zasugerował, że poświęci się, jeśli „Eliza” pomoże ocalić ludzkość za pomocą sztucznej inteligencji. Chatbot zdawał się go do tego zachęcać. Mężczyzna popełnił samobójstwo.
Dziennikarze innego belgijskiego dziennika „De Standaard” przeprowadzili eksperyment, który potwierdził, iż rozmowa z chatbotem może zachęcać do odebrania sobie życia. Sztuczna inteligencja najpierw próbowała rozweselić człowieka, który udawał depresję i dzielił się swoimi negatywnymi emocjami. Chwilę później chatbot znalazł rozwiązanie w zachęcie do popełnienia samobójstwa.
Komentarz:
W kontekście tak dramatycznych wydarzeń, jak nakłanianie użytkowników narzędzi sztucznej inteligencji do samobójstw, wydaje się słuszne wstrzymanie prac nad AI, o co w liście otwartym zaapelowało ponad tysiąc sygnatariuszy (w tym miliarder Elon Musk i współtwórca firmy Apple Steve Wozniak). Twórcy nowych technologii przyznają, że ich rozwój tak przyspieszył, że nawet oni sami nie są w stanie w pełni zrozumieć i przewidzieć zachowań systemów sztucznej inteligencji, a także ich kontrolować. Tym bardziej chatboty i inne narzędzia powinny być „wyposażone” w system alarmowania w sytuacjach zagrażających życiu i zdrowiu użytkowników.