Strona główna » Sztuczna inteligencja w biomedycynie

Sztuczna inteligencja w biomedycynie

by admin
W moim wystąpieniu poruszam kwestie związane z zastosowaniem sztucznej inteligencji w środowisku medycznym. W punkcie pierwszym wymieniam kilka kluczowych zastosowań AI w służbie zdrowia, o których mówi się już dzisiaj. Następnie przechodzę do prezentacji pierwszych prób wprowadzenia norm etycznych i prawnych, mających regulować działalność firm w tej branży oraz użytkowników wspomnianych technologii. Swoje stanowisko w odpowiednich dokumentach przedstawiły m.in. Światowa Organizacja Zdrowia oraz organy Unii Europejskiej. Na koniec oddamy głos przedstawicielom Watykanu, który również zabrał głos w tej sprawie. 

Jakie są zastosowania AI w medycynie?

Diana Żochowska z portalu „Medonet” przeprowadziła rozmowy z przedstawicielami polskiej branży medycznej na temat najważniejszych zastosowań AI w służbie zdrowia. Wyniki zaprezentowała w artykule „Praktyczne zastosowanie sztucznej inteligencji w medycynie 2022”. Zapytani wymieniali następujące obszary, w których sztuczna inteligencja wspiera lekarzy: wspomaganie diagnostyki (analiza danych obrazowych), pozyskiwanie danych medycznych, zarządzanie danymi (dzięki dobrowolnemu dawstwu danych), wsparcie telemedycyny, prewencja i wsparcie pacjenta w podejmowaniu decyzji, poprawa logistyki, odciążenie lekarzy, wspieranie podejmowania decyzji przez zespoły kliniczne.Za największe bariery uznali: brak dostępu do danych (chronionych jako wrażliwe), brak przeszkolenia personelu, brak przeszkolenia pacjentów, brak odpowiednich regulacji prawnych oraz nadmierną biurokrację.

Katarzyna Walterska w publikacji pt.„Porządkowanie chaosu: sztuczna inteligencja w medycynie” cytuje dr Paulę Dobosz: „Z genomu pacjenta można dowiedzieć się, że ktoś na 100 proc. palił papierosy, nawet jeśli pacjent temu zaprzecza. Substancje zawarte w papierosach są najbardziej mutagenne. One zawsze zostawiają ślad w naszym genomie, więc do końca życia będziemy mogli to zidentyfikować właśnie przy pomocy sygnatur mutacji genomowych”. Sztuczna inteligencja nie tylko może nam pomóc zinterpretować wyniki pacjentów i stworzyć przyjazne im aplikacje promujące zdrowe nawyki. Technologia w powiązaniu z genetyką może udzielić nam odpowiedzi na pytania dotyczące naszego pochodzenia i stylu życia.

W jaki sposób planujemy zabezpieczyć się przed ryzykiem dyskryminacji określonych grup ze względu na informacje uzyskane w trakcie procesu diagnostycznego?

Piotr Kościelniak, powołując się na Raport Boston Consulting, wymienia trzy fundamenty „nowej normalności”. Według tego raportu, medycyna przyszłości będzie rozwijać się w trzech kierunkach: zdrowie psychiczne, zdrowie kobiet (femtech) i usługi oferowane za pośrednictwem sztucznej inteligencji. Pojawiają się głosy, że ze względu na starzenie się społeczeństwa zachodniego, producenci z branży technologicznej będą musieli więcej uwagi poświęcić nowej grupie użytkowników – seniorom. Nie da się zaprzeczyć, że klienci 60+ będą szczególnie zainteresowani ochroną zdrowia. 

Przegląd regulacji prawnych i etycznych

Biała Księga AI w praktyce klinicznej to efekt kilkumiesięcznej pracy branży technologicznej i medycznej i „pierwsza tak kompleksowa publikacja branży AI w tej części Europy”. Po raz pierwszy została zaprezentowana podczas II edycji konferencji „AI w zdrowiu”, która odbyła się 14 czerwca 2022 roku. Jej twórcy pochylili się nad szeregiem pytań i wątpliwości, które pojawiają się w codziennej praktyce pracowników służby zdrowia. Wyjaśniają, czym jest AI, jak może wspierać medycynę i czy jej stosowanie w służbie zdrowia jest prawnie dopuszczalne. Ważnym tematem, poruszonym w dokumencie, są prawa pacjenta. 

Swoje wytyczne w sprawie sztucznej inteligencji w medycynie przedstawiła Światowa Organizacja Zdrowia. W dokumencie Etyka i zarządzanie sztuczną inteligencją dla zdrowia (Ethics and governance of artificial intelligence for health) wymieniono sześć norm, które mają kierować wprowadzeniem i udoskonalaniem usług opartych na sztucznej inteligencji. Pierwsza z nich to ochrona samostanowienia człowieka. To osoba ludzka jest tą, która udziela zgody i podejmuje decyzje. Kolejna kwestia to wprowadzenie regulacji i wymogów bezpieczeństwa, którymi producenci muszą się bezwzględnie kierować, wprowadzając na rynek swoje produkty. Punkt trzeci mówi o transparentności. Informacje dotyczące wdrożonych systemów AI powinny być jawne i zrozumiałe, udostępnione publicznie. Czwartym zagadnieniem jest odpowiedzialność. Zaleca się wprowadzenie odpowiednich mechanizmów kontroli jakości i procedur na wypadek, gdyby technologia działała wadliwie lub ze szkodą dla określonej grupy. Technologia powinna być wykorzystywana zgodnie z przeznaczeniem, przez wyszkolony personel. W XXI wieku nie można też zapominać o równości i inkluzywności. Wprowadzane algorytmy nie mogą dyskryminować pacjentów ze względu na wiek, płeć, zamożność, pochodzenie etniczne czy orientację seksualną. Ostatnia zasada mówi o zrównoważonym rozwoju. Jak najmniejszy wpływ na środowisko, efektywność energetyczna oraz odpowiedzialne reagowanie na zmiany na rynku pracy to cele, do jakich ma dążyć branża technologiczna w każdym obszarze, w tym także na rynku medycznym. 

Również przedstawiciele Parlamentu Europejskiego przedstawili swoje wytyczne, czego efektem jest raport Sztuczna inteligencja w ochronie zdrowia. Zastosowania, zagrożenia, skutki społeczne. Twórcom tego dokumentu przyświecał cel opisania obszarów zastosowania AI w medycynie, a także klinicznych, społecznych i etycznych konsekwencji wprowadzenia algorytmów AI do tej branży. Ponieważ kraje Unii różnią się między sobą, gdy chodzi o poziom cyfryzacji i rozwój technologiczny, eksperci sugerują wprowadzenie „paszportu AI”. Każdy algorytm, by zostać dopuszczonym na terenie UE, musiałby zdobyć certyfikat, zawierający m.in. podstawowe informacje na jego temat, zasady funkcjonowania czy możliwe zastosowania. Siedem najważniejszych zagrożeń, jakie zostały wymienione w raporcie, to: szkoda dla pacjenta spowodowana błędem wewnątrz samego algorytmu (AI źle interpretuje dane lub korzysta z danych źle dobranych – rzeczywistość kliniczna może różnić się od warunków, w jakich AI była konstruowana), szkoda spowodowana przez brak przeszkolenia użytkownika i personelu medycznego (stosowanie algorytmu w sposób nieprawidłowy lub niezgodny z przeznaczeniem), algorytm oparty na źle skonstruowanych zbiorach danych dyskryminuje określone grupy pacjentów (np. ze względu na płeć, pochodzenie etniczne, status socjoekonomiczny, wiek, miejsce zamieszkania), brak jawności i przejrzystości, zagrożenia dla prywatności i bezpieczeństwa danych (np. przecieki i cyberataki), trudności przy ustalaniu odpowiedzialności za błędy algorytmu (kto jest winny – twórca oprogramowania, dostawca danych, lekarz?), wreszcie niski poziom rozwoju technologicznego i cyfryzacji, uniemożliwiający pełne wprowadzenie nowoczesnych rozwiązań.

Słowo na koniec

Wszystkie wymienione powyżej kwestie wydają się istotne i warte przemyślenia, zarówno przez twórców AI, jak i praktyków medycznych, bioetyków, przedstawicieli prawa, wreszcie zwykłych użytkowników. Trzeba mieć pewność, że zbierane dane są bezpieczne, a wyniki badań – interpretowane zgodnie z najnowszymi wytycznymi diagnostycznymi. Pacjenci oraz personel korzystający z usług opartych na sztucznej inteligencji powinni wiedzieć, do kogo mogą zgłaszać ewentualne błędy systemowe oraz nieuzasadnione, nierówne traktowanie użytkowników. 

Na koniec, wypada oddać głos przedstawicielom Watykanu. Papież Franciszek wydaje się z zainteresowaniem obserwować rozwój nowych technologii. Władze kościelne organizują konferencje wokół sztucznej inteligencji. Tym, co zawsze pojawia się w tych wypowiedziach, to koncentracja na godności, wolności i odpowiedzialności osoby ludzkiej. Stwierdza się także wyraźnie, że dostęp do usług medycznych powinien być zapewniony każdej osobie, bez względu na jej wiek, pochodzenie, stan posiadania. Nawet niewłaściwe, niezdrowe decyzje podjęte w przeszłości nie uzasadniają dyskryminowania pacjentów. 

  • „Gdy osobie starszej, która musi brać lekarstwa, ich się nie daje, by zaoszczędzić, to jest to ukryta i postępująca eutanazja. Musimy to powiedzieć; każdy ma prawdo do lekarstw”. papież Franciszek, audiencja, Watykan 13.04.2023.
  • „Mówienie o tym, że sztuczna inteligencja jest odpowiedzialna, wydaje się wewnętrznie sprzeczne”. Francesca Di Giovanni, podsekretarz ds. relacji z państwami, Konferencja w Hadze 15-16 lutego 2023.
  • „Takie dane mogą być skażone społecznymi uprzedzeniami i schematami myślenia. Tym bardziej, że przeszłe zachowanie danej osoby nie powinno być wykorzystywane do odmawiania jej możliwości zmiany, rozwoju i wkładu w społeczeństwo. Nie możemy pozwolić, aby algorytmy ograniczały lub warunkowały poszanowanie godności ludzkiej, nie możemy też pozwolić, aby wykluczały współczucie, miłosierdzie, przebaczenie, a przede wszystkim otwartość na nadzieję na zmianę w jednostce. (…)”. papież Franciszek, Dialogi Minerwy 27.03.2023.
Dr Katarzyna Waliczek

Źródła:

You may also like

Ta strona korzysta z ciasteczek aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie ze strony oznacza, że zgadzasz się na ich użycie. Akceptuję Regulamin

Prywatność i Ciasteczka