Strona główna » Algorytmy decydują o życiu i śmierci na wojnie w Ukrainie?

Algorytmy decydują o życiu i śmierci na wojnie w Ukrainie?

by admin
W wojnie na Ukrainie Rosja używa m.in. dronów-kamikadze, które mogą identyfikować cele z wykorzystaniem sztucznej inteligencji. Budzi to poważne obawy etyczne, gdyż o życiu i śmierci ludzi mogą decydować algorytmy.

Chodzi o dron KUB-BLA produkowany przez należącą do koncernu Kałasznikow firmę ZALA Aero Group. Tego typu drony fachowo określane są jako amunicja krążąca (loitering ammunition). Po wykryciu celu mogą go natychmiast zaatakować lotem nurkowym. Na pokładzie mają zainstalowaną głowicę bojową, której siła rażenia będzie skuteczna w walce z czołgiem.

Amunicja krążąca może także wyczekiwać w powietrzu na pojawienie się celu, dlatego nazywana bywa miną powietrzną (airborne mine). Po wykryciu obiektu, który chce zaatakować, uaktywnia się na polecenie operatora albo zupełnie samodzielnie, po uzyskaniu akceptacji lub bez niej.

Najwięcej kontrowersji i wątpliwości natury etycznej budzi właśnie możliwość wykonywania ataków w trybie wyłącznie autonomicznym – poza procesem decyzyjnym dokonywanym przez osobę. Jak donoszą media zajmujące się nowymi technologiami i militariami, tego typu drony mogą wykorzystywać system sztucznej inteligencji. Do pamięci bezzałogowca wgrywany jest wygląd konkretnej osoby, na którą zaczyna on „polować” – porównuje aktualnie widziany obraz z własną bazą zdjęć poszukiwanego celu.

Max Tegmark, badacz sztucznej inteligencji z MIT i współzałożyciel Future of Life Insitute (FLI), zwraca uwagę, że tego typu broń, która może być używana bez „znaczącej kontroli człowieka”, w niedalekiej przyszłości może okazać się jeszcze większym zagrożeniem dla ludzkości niż broń atomowa.

Na postępującą dehumanizację i depersonalizację wojny wskazał także dr Tomasz Terlikowski. – Sztuczna inteligencja kieruje się w procesach decyzyjnych wyłącznie algorytmami skuteczności, a nie kategoriami moralnymi – zaznaczył filozof w wykładzie „Czy wojna może być sprawiedliwa?” w ramach cyklu Bioethics Lab organizowanego przez Interdyscyplinarną Akademię Bioetyki. Dodał, że automatyzacja podejmowanych decyzji w procesie działań militarnych prowadzi także do rozmycia odpowiedzialności konkretnych osób za konkretne decyzje, co bardzo utrudni pociąganie ich do odpowiedzialności. 

Źródła: geekweek.interia.pl, defence24.pl, chip.pl

You may also like

Ta strona korzysta z ciasteczek aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie ze strony oznacza, że zgadzasz się na ich użycie. Akceptuję Regulamin

Prywatność i Ciasteczka