Prawo nowych technologii


Prawna regulacja odpowiedzialności cywilnej za szkody wyrządzone przez sztuczną inteligencję

Sztuczna inteligencja bez wątpienia jest elementem towarzyszącym w codziennym życiu milionom ludzi, którzy nawet nie zdają sobie z tego sprawy. Jednocześnie jednak w środowisku prawniczym coraz częściej pojawiają się rozważania na temat tego, kto powinien ponosić odpowiedzialność w przypadku wyrządzenia szkody – czy właściciel urządzenia, który je zakupił czy też producent. Problem w tym zakresie generuje również komplikacje ze strony prawa ubezpieczeniowego. Rozważania w tym zakresie były również w ciągu ostatnich kilku lat podejmowanej na arenie międzynarodowej, w tym na poziomie unijnym. Uwaga organów Unii Europejskiej koncentruje się przede wszystkim na tym czy regulacja odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję powinna mieć miejsce i w jakim zakresie oraz od kiedy takie regulacje powinny zostać wprowadzone. Stanowisko w tym zakresie nie jest wcale jednolite, bowiem pojawiają się zarówno głosy, które stoją na stanowisku, że regulacja jest zbędna w tym momencie, jak i twierdzenia, że wręcz konieczne jest, jak najszybsze uregulowanie odpowiedzialności za sztuczną inteligencję, bowiem z roku na rok wzrasta częstotliwość jej wykorzystania, co może prowadzić do większego prawdopodobieństwa wystąpienia niebezpieczeństwa związanego z jej użyciem.

Podejmując się rozważań na temat sztucznej inteligencji należy w pierwszej kolejności zdefiniować sam termin. Należy zauważyć, że w polskim porządku prawnym nie ma legalnej definicji pojęcia „sztucznej inteligencji”. W literaturze przedmiotu nie wykształciła się jednolita definicja terminu, mimo że po raz pierwszy w 1955 roku terminem tym posłużył się John McCarthy. Na przestrzeni lat podejmowane były próby zdefiniowania zagadnienia, jednak w ocenie badaczy jest to zadanie niezmiernie trudne, bowiem częstokroć wynaleziony proces nie stanowi w rzeczywistości sztucznej inteligencji, a po prostu kolejny bardziej zaawansowany program komputerowy. Jednakże na gruncie prawnym wydaje się konieczne zdefiniowanie omawianego terminu czy też innego pojęcia, w którego zbiorze desygnatów mieściłyby się opierające się na nim technologie. Pojęcie „sztucznej inteligencji” jest szerokie oraz niejednoznaczne, gdyż w zależności od dziedziny ma bardzo dużo znaczeń, które mogą również różnić się od siebie m.in. zakresem przedmiotowym czy też ujęciem np. technicznym, filozoficznym, etycznym itp. Uwagę należy zwrócić na podstawowe znaczenia terminu, który rozumie się najczęściej jako dziedzina bądź cecha [1].

Ostatnie lata i większa koncentracja na zagadnieniu sztucznej inteligencji przyczyniły się do powstania nowych propozycji zdefiniowania terminu sztucznej inteligencji. W ocenie T. Zalewskiego za najistotniejsze propozycje definiowania zagadnienia można uznać propozycję wypracowaną w ramach prac specjalnej komisji przy organach Unii Europejskiej. Zgodnie z założeniami przyjętymi na potrzeby tych prac sztuczna inteligencja odnosi się do systemów wykazujących inteligentne zachowanie dzięki analizie otoczenia oraz podejmowaniu działań autonomicznych celem realizacji konkretnych założeń. Bez wątpienia walorem definicji jest zwięzłość, jednak część środowiska za wadę uznaje użyty termin „inteligentnych zachowań”, który nie został wyjaśniony [2]. Kolejną znaczącą definicję wypracowała grupa niezależnych ekspertów HLEG (ang. High Level Expert Groupon AI) dla Komisji Europejskiej w ramach „Przewodnika Etycznego dla Sztucznej Inteligencji Godnej Zaufania (ang. Trustworthy AI) w UE19. Zgodnie z definicją przyjętą przez tych autorów sztuczna inteligencja odnosi się do systemów, które są zaprojektowane przez ludzi, „które ze względu na złożony cel, działają w świecie fizycznym lub cyfrowym poprzez postrzeganie swojego środowiska, interpretację zebranych ustrukturyzowanych nieustrukturyzowanych danych, jednocześnie wyciągając wnioski z wiedzy uzyskanej z tych danych oraz dokonując wyboru najlepszych działań́ do podjęcia celem osiągnięcia celu [3].

Ostatnia z definicji, która jednocześnie w ocenie części badaczy problemu jest jednocześnie najbardziej syntetyczna, a także odporna na wszelkie zmiany technologiczne, została wypracowana przez OECD Recommendation of the Council on Artificial Intelligence w drodze konsensusu w grupie ekspertów w ramach rekomendacji dla krajów OECD oraz członków stowarzyszonych. Zgodnie z tą definicja system AI to system opierający się na maszynie, która może, dla określonego zestawu „celów zdefiniowanych przez człowieka przewidywać, rekomendować lub podejmować decyzje”, które wpływają na środowisko rzeczywiste lub wirtualne. W ocenie badaczy minusem definicji jest użycie pojęcia „machine-based system”, które sugeruje, że system AI powinien być oparty na elementach mechanicznych[4].

Powyższa różnorodność definicji jednoznacznie wskazuje, że sztuczna inteligencja jest tworem, który ulega ciągłemu przeobrażeniu, co z kolei może generować trudności w ujednoliceniu pojęcia. Na uwagę zasługuje fakt, że obecnie ponad połowa firm korzysta po części z rozwiązań jakie daje sztuczna inteligencja. Tym samym słusznie zauważa się w literaturze przedmiotu, że obecnie, jak i w przyszłości jednym z podstawowych wyzwań upowszechnienia systemu sztucznej inteligencji będzie przede wszystkim spotęgowanie procesu wypierania pracy ludzkiej przez inteligentne systemy oraz wyspecjalizowane roboty. Wzrastająca inteligencja maszyn przełoży się przede wszystkim na to, że znajdą one zastosowanie nie tylko w powtarzalnych procesach przemysłowych, administracyjnych czy usługowych, ale również w obszarach, które dotychczasowo były zarezerwowane dla człowieka i wymagały pewnego wkładu intelektualnego. Wśród obszarów tych można wymienić przede wszystkim obszary, które wymagają zdolności do prowadzenia zaawansowanej interaktywnej komunikacji z klientem [systemy człowiek-maszyna], a także wykonywania zmiennych zestawów funkcji oraz czynności pojmowanych również jako „inteligentne”, które wymagają umiejętności korzystania ze specjalistycznej bazy wiedzy [5].

W obliczu ciągle poszerzającego się wykorzystania sztucznej inteligencji w praktyce, a także faktu, że w wielu obszarach trudno wyobrazić sobie funkcjonowanie bez AI pojawiła się dyskusja na temat ewentualnej odpowiedzialności w przypadku wyrządzenia szkody przez sztuczną inteligencję. Zwolennicy uregulowania odpowiedzialności na gruncie prawnym uważają, że konieczne jest wprowadzenie przepisów, które szeroko będą regulować odpowiedzialność w przypadku, gdy szkoda zostanie wyrządzona właśnie przez AI. Natomiast krytycy takiego pomysłu twierdzą, że ustawodawca nie musi podejmować żadnych dodatkowych działań, bowiem w przypadku szkody można sięgać po obowiązujące regulacje prawne, które są wystarczające do pociągnięcia sprawcy do odpowiedzialności.

Koncentrując się w pierwszej kolejności na poglądzie zgodnie, z którym nowe regulacje prawne powinny być wprowadzone należy przybliżyć jakie działania zostały dotychczasowe podjęte w kierunku oficjalnego uregulowania przedmiotowej kwestii. Mając na względzie wątpliwości pojawiające się z zagadnieniem odpowiedzialności Komisja Europejska zaproponowała zharmonizowanie krajowych przepisów, które dotyczą odpowiedzialności za sztuczną inteligencję. Idea miała na celu przede wszystkim umożliwienie ofiarom szkód wyrządzonych przez sztuczną inteligencję łatwiejsze uzyskanie odszkodowania. Komisja Europejska dąży do tego, aby ofiary państw członkowskich unii europejskiej mogły korzystać z podobnych standardów ochrony w przypadku szkód wyrządzonych przez produkty lub usługi wiążące się ze sztuczną inteligencją, które obowiązywałyby w przypadku wystąpienia szkody w różnych okolicznościach. Dyrektywa ma na celu ujednolicenie przepisów krajowych państw członkowskich, bowiem obecnie w przeważającej mierze zagadnienie to nie jest uregulowane w prawie krajowym. Dodatkowo zgodnie z projektem zmniejszeniu ma ulec ciężar dowodu w odniesieniu do szkód wyrządzonych przez sztuczną inteligencję, z kolei ochrona ofiar ma być szersza i to zarówno co do osób fizycznych, jak i przedsiębiorstw. Ostatnim z kluczowych elementów, które zostały podjęte w tej regulacji jest wsparcie sektora sztucznej inteligencji poprzez zwiększenie gwarancji [1].

Jak zauważano w uzasadnieniu wniosku Komisji Europejskiej przepisy zaproponowane przez KE mają na celu przede wszystkim ograniczenie ryzyka dla bezpieczeństwa oraz ochrony praw podstawowych. Jednocześnie zwrócono uwagę, że bezpieczeństwo oraz odpowiedzialność w odniesieniu do sztucznej inteligenci „to dwie strony tego samego medalu”, jednakże mają zastosowanie w różnym czasie oraz wzajemnie się wzmacniają. W pierwszej kolejności wykorzystywane są przepisy, które mają na celu zapewnić bezpieczeństwo oraz ochronę praw podstawowych ograniczając ryzyko, którego jednak nie mogą wyeliminować zupełnie. Z kolei, jeżeli ryzyko się urzeczywistni to może mieć miejsce powstania szkody, a wtedy zastosowanie będą mogły mieć przepisy, które dotyczą odpowiedzialności określonej we wniosku Komisji Europejskiej. Jednocześnie zwraca się uwagę, że w skuteczność przepisów, o których wprowadzenie wnioskuje Komisja, będzie impulsem do przestrzegania przepisów w zakresie bezpieczeństwa, co z kolei pozwoli na przyczynianie się do zapobiegania powstawaniu szkód [9].

W swoich założeniach Komisja przyjęła holistyczne podejście do odpowiedzialności proponując jednocześnie dostosowania dotyczące odpowiedzialności producenta za produkt wadliwy na podstawie dyrektywy w sprawie odpowiedzialności za produkty oraz ukierunkowaną harmonizację w ramach składanego wniosku co do odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję. W ocenie pomysłodawców obie inicjatywy polityczne są ściśle powiązane oraz tworzą pakiet, bowiem roszczenia, które wchodzą w zakres ich stosowania dotyczą różnych rodzajów odpowiedzialności. Dla porównania warto zauważyć, że dyrektywa w przedmiocie odpowiedzialności za produkty obejmuje swoim zakresem niezależną od winy odpowiedzialność producenta, co generuje konieczność zapłaty odszkodowania za określone rodzaje szkód, które są ponoszone głównie przez osoby fizyczne. Z kolei wniosek Komisji Europejskiej w odniesieniu do uregulowania odpowiedzialności za szkody wyrządzone przez sztuczną inteligencję jest zdecydowanie szerszy, bowiem opiera się na zasadzie winy dowolnego podmiotu (w tym osoby fizycznej) i ma na celu zapewnienie odszkodowania bez względu na rodzaj szkody oraz osobę poszkodowanego. Wymienione wyżej instrumenty prawne uzupełniają się wzajemnie oraz tworzą ogólny skuteczny system odpowiedzialności cywilnej [9].

Jak słusznie zauważa D. Szostek problematyka odpowiedzialności za sztuczną inteligencje nie jest prosta do rozwiązania czy też uregulowania, natomiast Unia Europejska podchodzi do wybranego zagadnienia w sposób kompleksowy, biorąc za podstawę nie tylko AI Act, ale również istotne zmiany w dyrektywie maszynowej oraz jej rozszerzenie nie tylko na urządzenia, maszyny czy też roboty, ale również urządzenia będące wyłącznie algorytmem [6].

Wprowadzone przepisy pozwalają na regulowanie odpowiedzialności wynikającej z winy, jak i zaniedbania po stronie różnych podmiotów uczestniczących w procesie wdrożenia systemu czy urządzenia wykorzystujące AI, a więc zarówno dostawców, autorów oprogramowania, jak i użytkowników. Ponadto ofiary będą mogły dochodzić odpowiedzialności za szkodę doznaną na życiu, zdrowiu, mieniu, jak i w zakresie prywatności. Właśnie dlatego w nowych przepisach zostały wprowadzone dwa główne zabezpieczenia:

  • dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję złagodziła ciężar dowodu, który spoczywa na ofiarach dzięki wprowadzeniu „domniemania istnienia związku przyczynowego”, dzięki czemu wystarczające jest tylko wykazanie przez ofiarę, że ktoś ponosi odpowiedzialność za niedopełnienie obowiązku, który ma znaczenie z punktu widzenia szkody i co najważniejsze istnieje związek przyczynowo skutkowy pomiędzy szkodą a wykorzystaniem sztucznej inteligencji. W takich sytuacjach sąd może założyć, że niedopełnienie tego obowiązku jest przyczyną szkody,

  • dyrektywa pozwala ofiarom na uzyskanie dostępu do odpowiednich dowodów w sytuacji, gdy doszło do nieprzestrzegania instrukcji użytkowania czy też wymogów przy korzystaniu z określonych usług. Dzięki temu sąd ma możliwość nakazania podmiotom ujawnienia informacji na temat systemów sztucznej inteligencji wysokiego ryzyka, co umożliwi poszkodowanym na zidentyfikowanie osoby odpowiedzialnej, a następnie do pociągnięcia jej do odpowiedzialności [1].

Zgodnie z istniejącymi regulacjami prawnymi można wdrożyć dwa główne reżimy odpowiedzialności za sztuczną inteligencję, a mianowicie na zasadzie winy i ryzyka. W odniesieniu do okoliczności, które warunkowałyby powstanie obowiązku naprawienia szkody na gruncie zasady winy są następująco: wyrządzenie szkody, zdarzenie, z którego wystąpieniem ustawodawca łączy powstanie odpowiedzialności odszkodowawczej oraz istnienie adekwatnego związku przyczynowo-skutkowego pomiędzy szkodą a zaistniałym zdarzeniem. Zasadę winy wprowadzono do unijnego porządku prawnego dyrektywa Rady 85/374/EWG z 25.07.1985 r. w sprawie zbliżania przepisów ustawowych, wykonawczych i administracyjnych Państw Członkowskich dotyczących odpowiedzialności za produkty wadliwe. Zasada winy opiera się w tym wypadku na odpowiedzialności producenta oraz jest niezależna od wykazania jego winy w przypadku szkody wyrządzonej przez wyprodukowany przez niego produkt niebezpieczny [5].

Jednogłośne zdanie w sprawie regulacji prawnej sztucznej inteligencji ma K. Rębisz, który wprost wskazuje, że w jego ocenie regulacja prawna sztucznej inteligencji nie budzi żadnych wątpliwości. Konieczność uregulowania prawnego AI w ocenie autora na szczeblu narodowym wynika z potrzeby utrzymania jednolitości rynku wewnętrznego UE, zwiększenia konkurencyjności Unii Europejskiej na rynku globalnym czy też zapewnienia bezpieczeństwa oraz ułatwienia procedury dochodzenia roszczeń cywilnoprawnych związanych przede wszystkimi ze szkodami, które mogą wynikać z zastosowania sztucznej inteligencji, w tym przede wszystkim roszczenia konsumentów [4].

Tym samym regulacja unijna AI ma zarówno swoich zwolenników, jak i przeciwników. Obecnie koncepcja jest na wysokim poziomie zaawansowania. Projekt stworzony przez Komisję Europejską musi zostać zaakceptowany przez Parlament Europejski i Radę. Jednocześnie wysnuwane są wnioski zgodnie, z którymi po kilku latach od wprowadzenia dyrektywy ocenić, czy istnieje potrzeba wprowadzenia dodatkowo przepisów w przedmiocie odpowiedzialności na zasadzie ryzyka w odniesieniu do roszczeń wiążących się ze sztuczną inteligencją.

W literaturze przedmiotu można również spotkać poglądy negujące zarówno konieczność uregulowania prawnego sztucznej inteligencji, jak i negatywnie odnoszące się do pomysłu Unii Europejskiej w przedmiocie podziału sztucznej inteligencji na: AI wysokiego ryzyka, jak i „pozostałą” sztuczną inteligencję. W ocenie P. Staszczyka podział warunkują odpowiedzialność za sztuczną inteligencję jest oparty na całkowicie nieefektywnej technice dopisywania sztucznej inteligencji wysokiego ryzyka na specjalną listę. Sposób rozróżnienia wspomnianych dwóch rodzajów AI jest zbyt kazuistyczny, co może prowadzić do tego, że „nowy” przejaw sztucznej inteligencji, która w końcu rozwija się w bardzo szybkim tempie, nie zdąży zostać wpisany na listę Komisji. Ze względu również na samą procedurę wpisywania przypadków AI wysokiego ryzyka na listę i jej aktualizację co sześć miesięcy w ocenie autora jest to niepotrzebny sztuczny twór, który nie będzie stosowany zgodnie z przyjętymi założeniami. Stąd ewentualny podział sztucznej inteligencji, jeżeli ma zostać wprowadzony, powinien opierać się na konkretnych, wyraźnie ustalonych przesłankach i nie powinien przede wszystkim zależeć od wpisywania danego systemu na specjalną listę. Dla rozróżnienia poszczególnych systemów uwagę powinno koncentrować się przede wszystkim na autonomiczności danego systemu, bowiem od jego stopnia zależy w dużej mierze to czy istnieje ryzyko związane z konsekwencjami jego używania [5].

W ocenie badaczy negujących konieczność uregulowania prawnego sztucznej inteligencji odpowiedzialność za szkody wyrządzone przez AI jest w wystarczający sposób regulowania przez dyrektywę 85/374/EWG, które reguluje odpowiedzialność na zasadzie winy. Reżim opracowany w dyrektywie nie odnosi się tylko do tradycyjnych produktów oraz modeli biznesowych, w których przedmiotem transakcji są przedmioty materialne wprowadzone na rynek na skutek jednorazowego działania producenta, po którym utracona została kontrola nad wytworzonym produktem. W odniesieniu do AI, mimo że posiada ona zdolność do uczenia , a więc również do zmiany to w rzeczywistości producent jest nadal podmiotem, który stworzył dany system sztucznej inteligencji, a więc to on w pierwszej kolejności powinien ponosić odpowiedzialność za powstałą szkodę wywołaną na skutek działania systemu. Dodatkowo negatywną przesłanką uregulowania AI ma być w ocenie autorów to, że stanowi ona zjawisko ciągle nowe oraz szybko rozwijające się, stąd nawet próba jego zdefiniowania może nie mieć racji bytu ze względu na ciągłe aktualizacje i powstające nowe programy AI. Ze względu na to, że trudno jednoznacznie określić w którym kierunku będzie się rozwijać sztuczna inteligencja i jakie będą pola jej zastosowania do jej regulacji prawnych powinno się podchodzić z dużą ostrożnością, bowiem wady nowej regulacji mogą zdecydowanie przewyższać jej zalety [4].

Reasumując powyższe rozważania należy stwierdzić, że bez wątpienia próba uregulowania zagadnienia sztucznej inteligencji na poziomie unijnym na zarówno swoich zwolenników, jak i przeciwników. Jednakże w obliczu istniejących zmian i ciągłego rozwoju sztucznej inteligencji, która znajduje zastosowanie na coraz to nowszych polach zasadne jest jej kompleksowe uregulowanie celem zapewnienia możliwości dochodzenia odpowiedzialności w przypadku wyrządzenia przez AI szkody. Biorąc pod uwagę obowiązujące normy można zauważyć, że w przypadku niektórych ze szkód wyrządzonych przez sztuczną inteligencję istnieją normy chroniące ofiary, jednak nie jest prawdą, że we wszystkich. Przykładem jest naruszenie zasady dyskryminacji w sytuacji, gdy rekrutacja jest przeprowadzona przez system wykorzystujący sztuczną inteligencje. Obecnie ofiara dotknięta dyskryminacją miałaby utrudnioną drogę w udowodnieniu odpowiedzialności za doświadczenie, którego doznała, bowiem ciężko byłoby jej wskazać, kto tak naprawdę ponosi odpowiedzialność z tym związaną. Czy w takiej sytuacji zastosowanie koniecznie musiałaby znaleźć dyrektywa nr 85/374/EWG? Wydaje się, że poszkodowany nie miałby wystarczających argumentów do udowodnienia winy producenta systemu sztucznej inteligencji.

W związku z tym ze względu na coraz to nowe okoliczności, które mogą skutkować wyrządzeniem szkody przez sztuczną inteligencję zasadne jest wręcz uregulowanie w sposób kompleksowy odpowiedzialności za szkody, które może wyrządzić. Dodatkowo regulacja w tym zakresie pozwoliłaby na zdefiniowanie AI na poziomie prawa unijnego, co byłoby ważne z punktu ujednolicenia stosowania pojęć przez państwa członkowskie Unii. Jednocześnie należy zaznaczyć, że w wprowadzonych normach prawnych uwaga powinna zostać poświęcona przede wszystkim kwestii autonomiczności sztucznej inteligencji, bowiem bez wątpienia od tego stopnia zależy czy może wystąpić szkoda, gdy AI wyjdzie spod kontroli osoby fizycznej.

Bibliografia

  1. Bujalski R., Odpowiedzialność za sztuczną inteligencję [projekt UE], LEX/el 2022.
  2. Luigi L., Świerczyński M., (red) Prawo sztucznej inteligencji, Beck, Warszawa 2020, s. 7 {za:] Artificial intelligence (AI) refers to systems that display intelligent behaviour by analysing their environment and taking actions – with some degree of autonomy – to achieve specific goals.
  3. Płocha E., O pojęciu sztucznej inteligencji i możliwościach jej zastosowania w postępowaniu cywilnym, „Prawo w działaniu sprawy cywilne”, 44/2020, s. 275.
  4. Rębisz K., Wybrane zagadnienia prawa cywilnego w propozycjach regulacyjnych dotyczących sztucznej inteligencji w Unii Europejskiej, EPS 2021/10/22-27, LEX/el. [dostęp online 28.05.2023 r.]
  5. Staszczyk P., Czy unijna regulacja odpowiedzialności za sztuczną inteligencje jest potrzeba,  EPS 2022/6/24-30, lex.pl [dostęp online 29.05.2023 r.].
  6. Szostek D., To nie takie proste. System odpowiedzialności za algorytmy, w tym AI, z perspektywy prawa unijnego [w:] B. Fischer, A. Pązik, M. Świerczyński (red.), Prawo sztucznej inteligencji i nowych technologii, WKP 2022.
  7. Sztuczna inteligencja, słownik PWN, https://encyklopedia.pwn.pl/haslo/sztuczna-inteligencja;3983490.html [dostęp online 30.05.2023 r.]
  8. Wilk A., Sztuczna inteligencja – wyzwaniem XXI wieku, „Przegląd Telekomunikacyjny”, Rocznik XCI nr 5/2018, a. 106-107.
  9. Wniosek Dyrektywa Parlamentu Europejskiego i Rady w sprawie dostosowania przepisów dotyczących pozaumownej odpowiedzialności cywilnej do sztucznej inteligencji, https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX% 3A52022 PC0496&qid=1665410785599 [dostęp online 28.05.2023 r.]
  10. Zalewski T., Definicja sztucznej inteligencji [w:] L. Luigi, M. Świerczyński (red) Prawo sztucznej inteligencji, Beck, Warszawa 2020