Prawo nie nadąża zwykle za rozwojem nowych technologii. Ekspansja sztucznej inteligencji z pewnością odmieni nasze codzienne życie, ale oprócz niewątpliwych korzyści, nowe systemy mogą powodować rozmaite szkody. „Złożoność, autonomia i brak przejrzystości systemów sztucznej inteligencji wymagają ostrożnej regulacji ułatwiającej dochodzenie odszkodowań, lecz jednocześnie takiej, która nie zabije innowacyjności. Przed ustawodawcą stoi niezwykle trudne zadanie” – mówi adwokat Dariusz Kiełb, członek zespołu Rozwiązywania Sporów w warszawskim biurze kancelarii Wolf Theiss.
W chwili obecnej brak jest w prawie polskim, jak również w prawie unijnym, szczególnych mechanizmów prawnych w zakresie odpowiedzialności za działanie systemów AI. Trwają jednak zaawansowane prace nad nowymi przepisami na poziomie Unii Europejskiej. We wrześniu ub. r. zaprezentowane zostały projekty istotnych aktów prawnych: nowej dyrektywy w sprawie odpowiedzialności za produkty wadliwe oraz dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję. Pierwszy ze wskazanych aktów dotyczy odpowiedzialności na zasadzie ryzyka, podczas gdy drugi obejmuje odpowiedzialność deliktową na zasadzie winy, co pociąga za sobą dalej idące wymogi dowodowe dla poszkodowanego.
W przypadku kolizji autonomicznych samochodów, osoby poszkodowane dochodzące odszkodowania mogą stanąć przed trudnym wyzwaniem identyfikacji osoby odpowiedzialnej oraz wykazania przesłanek odpowiedzialności odszkodowawczej. Dochodzenie rekompensaty za szkodę wyrządzoną przez systemy AI może wymagać wykazania winy osoby mającej ponieść odpowiedzialność, czy też związku przyczynowego pomiędzy działaniem systemu AI a szkodą. Już samo zidentyfikowanie osoby odpowiedzialnej za szkodę wyrządzoną przez sztuczną inteligencję może być dla poszkodowanego istotnym problemem, nie mówiąc już o wykazaniu nieprawidłowości po stronie producenta oprogramowania. – mówi mec. Dariusz Kiełb z kancelarii Wolf Theiss.
Jak do tych wyzwań rysujących się na horyzoncie szykuje się polski i unijny prawodawca? Proponowane rozwiązania dają się w pewnym stopniu sprowadzić do dwóch zagadnień: transparentności systemów AI oraz zwiększonego ryzyka działalności producentów systemów AI. Przepisy przewidują możliwość wnioskowania do osoby potencjalnie odpowiedzialnej o
udostępnienie dokumentacji oprogramowania, zaś w przypadku bezpodstawnej odmowy ujawnienia takiej dokumentacji dowodowej kreują domniemanie winy takiej osoby. W pewnych przypadkach zastosowanie znajdzie również domniemanie związku przyczynowego pomiędzy winą pozwanego a rezultatem działania systemu AI, czy też domniemanie wadliwości oprogramowania jako produktu oraz związku przyczynowego pomiędzy wadliwością produktu a szkodą.
Zastosowanie szeregu wspomnianych rozwiązań przerzuci ciężar dowodowy na producentów systemów sztuczniej inteligencji, którzy potrzebować będą dowodów na wyłączenie własnej odpowiedzialności. W rezultacie, przepisy wymuszać będą na producentach większą transparentność systemów AI. Większa transparentność teoretycznie może zaradzić efektowi czarnej skrzynki, gdyż możliwe będzie odtworzenie procesów zachodzących w systemie AI. Na pewnym etapie rozwoju tych systemów praktyczna realizacja prawnych wymogów może okazać się trudna lub niemożliwa. – dodaje mec. Dariusz Kiełb.
Problem tzw. czarnej skrzynki (black box effect) odnosi się do sposobu podejmowania decyzji przez systemy sztucznej inteligencji. W wielu wypadkach znane są dane wejściowe dostarczone oprogramowaniu (input) oraz dane wyjściowe otrzymane na skutek działania programu (output), jednakże działania programu, które znajdują się pomiędzy, pozostają niewyjaśnialne i trudne do odtworzenia. Część systemów AI działa na podstawie ogromnej sieci neuronowej, w której zachodzące procesy nie dają się sprowadzić do zestawu instrukcji, jak ma to miejsce w tradycyjnym oprogramowaniu. W przypadku oprogramowania AI niejednokrotnie nawet inżynierowie nie są w stanie odtworzyć ani zrozumieć, w szczegółach procesu decyzyjnego systemu sztucznej inteligencji.
Problem efektu czarnej skrzynki jest zagadnieniem natury technicznej, na który jak się wydaje, nie mamy aktualnie odpowiedzi. Ustawodawca może podjąć próbę wymuszenia transparentności na dostawcach oprogramowania, jednakże to od postępu technicznego zależeć będzie odpowiedź na pytanie, czy realizacja nałożonych wymogów będzie w ogóle możliwa do wyegzekwowania w praktyce. Jeśli wymogi okażą się niemożliwe do spełnienia, producentów oprogramowania czekać mogą głośne spory sądowe lub perspektywa celowego ograniczania rozwiązań innowacyjnych ze względu na zbyt duże ryzyka biznesowe. Wiele wskazuje na to, że postęp technologiczny skutkować będzie wręcz mniejszą transparentnością systemów sztucznej inteligencji. Im bowiem bardziej zaawansowane rozwiązania techniczne osiągniemy, tym trudniejsze będą one do opisania czy odtworzenia w sposób czytelny dla ludzkiego odbiorcy, którego zdolności poznawcze, w przeciwieństwie do zdolności systemów AI, pozostaną w gruncie rzeczy niezmienione. – podsumowuje mec. Dariusz Kiełb.
Według szacunków Polskiej Agencji Rozwoju Przedsiębiorczości wartość globalnego rynku sztucznej inteligencji do 2025 r. wzrośnie do przeszło 190 mld USD. Według raportu International Data Corporation z 2022 r. wartość rynku sztucznej inteligencji miała sięgnąć nawet 450 mld USD. Jak podkreślają specjaliści, wypracowanie mechanizmów prawnych przyczyniających się do kontroli nad systemami AI przy jednoczesnym umożliwieniu rozwoju technologii będzie w najbliższych latach kluczowym wyzwaniem.