Przygotowując się do wykładu na temat sztucznej inteligencji (ang. AI) zastanawiałem się jaki może ona mieć w ogóle związek z prawem – przepisami, normami, kodeksami? Przecież AI to program komputerowy, algorytm, seria cyfr, komend i poleceń istniejących tylko na dysku twardym komputera. Im więcej poznawałem treści dotyczących sztucznej inteligencji, tym bardziej byłem przekonany, że sfera ta wymaga pilnej reakcji ustawodawcy, a obie dziedziny są ze sobą ściśle powiązane.
Rozmowę o sztucznej inteligencji zacząłem – jak na prawnika przystało – od przytoczenia pierwszych zasad robotyki stworzonych przez amerykańskiego pisarza fantastyki żydowskiego pochodzenia Isaaca Asimova. Asimov wskazał, że robot nie może skrzywdzić człowieka, musi być jego poleceniom posłuszny. Robot musi też chronić samego siebie. Po pewnym namyśle, Asimov dodał naczelną zasadę robotyki: robot nie może skrzywdzić ludzkości – czy to przez działanie czy przez zaniechanie działania [1]. Zasady te w humorystyczny sposób pokazano w filmie Fintch z Tomem Hanksem w roli głównej. W wykładzie pokazałem także inne przykłady poruszenia tematyki AI w filmach.
Wraz z uczestnikami wykładu prześledziłem pierwsze koncepcje uregulowania sytuacji prawnej sztucznej inteligencji. Rozmawialiśmy m.in. o pomysłach przyznania sztucznej inteligencji osobowości prawnej, opodatkowania robotów zabierających ludziom pracę itd.
Uczestnicy wykładu poznali również przykłady zmagania się różnych państw z problematyką sztucznej inteligencji (w Azji, USA). Rozmawialiśmy o chińskim projekcie społecznej odpowiedzialności polegającym na komputerowej weryfikacji wszystkich obywateli Chin zarejestrowanych w państwowej bazie danych pod kątem ich zachowania (i ocenę ich działalności systemem punktowym). Wspomnieliśmy o rosyjskim systemie federalnym piaskownic AI, tj. przestrzeni, gdzie dopuszcza się rozwój systemów AI z tolerancją dla ewentualnych naruszeń (w tym prawa). Rosyjska specyfika rozwoju sztucznej inteligencji polega również na wzmocnieniu systemu bezpieczeństwa państwa oraz rozwoju armii.
Analiza różnych podejść do regulacji sztucznej inteligencji pozwoliła na stworzenie pojęcia „podejścia europejskiego” (czyli kompleksowej regulacji AI jednym parasolem prawnym) oraz „podejścia chińskiego” (czyli regulacji poszczególnych algorytmów).
Ważną częścią wykładu była analiza projektowanego rozporządzenia Unii Europejskiej dotycząca AI [2]. Prawodawca unijny zdecydował się na ujednolicenie przepisów AI w całej Unii w formie rozporządzenia (na wzór Rozporządzenia RODO) – dostrzegając potencjalne niebezpieczeństwa i różnice w podejściach różnych państw.
Rozporządzenie nie posługuje się definicją sztucznej inteligencji, ale terminem systemu sztucznej inteligencji. System sztucznej inteligencji oznacza oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję [3].
Rozporządzenie będzie mieć szerokie zastosowanie podmiotowo-terytorialne (pośrednio dotyczyć będzie także podmiotów niemających siedziby w Unii).
Podobnie jak RODO, filozofię rozporządzenia oparto na podejściu analizy ryzyka (risk based approach). Systemy AI podzielono na 4 kategorie: ryzyka nieakceptowalnego, wysokiego ryzyka, ograniczonego ryzyka i ryzyka minimalnego.
Rozporządzenie ma zakazywać wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji stosującego techniki podprogowe, wykorzystującego słabości określonej grupy osób, systemów klasyfikujących wiarygodność osób fizycznych przez organy publiczne w określonych przypadkach (a więc systemy zbliżone do tych chińskich omawianych na wstępie). Rozporządzenie zakaże także stosowania identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów egzekwowania prawa (jednak z opisanymi tam wyjątkami).
Systemy wysokiego ryzyka będą wymagały dopuszczenia i oceny przez niezależny podmiot.
Analiza celów rozporządzenia została poparta przykładami problemów systemów AI, w tym popełnianych przez nie błędów – niebezpiecznych dla człowieka.