„Formalna kontrola rozwoju technologii jest kluczowa”

epoint

Karolina Słowińska z Iron Mountain Polska, w komentarzu dla ISBtech o działaniach  mających na celu sformalizowanie zasad funkcjonowania i pracy ze sztuczną inteligencją.

Nic dziwnego, jak pokazują badania, do 2025 r. rynek rozwiązań opartych na tej technologii będzie wart ponad 190 mld dolarów. Nie może więc pozostać niekontrolowany. Na początku roku Komisja Europejska przygotowała Białą Księgę AI, która miała być pierwszym krokiem do ujednolicenia przepisów dotyczących tej gałęzi IT.

W tym roku zostało również powołane do życia Globalne Partnerstwo ds. Sztucznej Inteligencji, które zostało zawiązane przez 14 krajów m.in. Japonię. Meksyk, Koreę Południową czy Stany Zjednoczone, a do którego niebawem ma dołączyć również Unia Europejska. Jakie są główne wątpliwości przy ustanawianiu prawa dotyczącego sztucznej inteligencji?

Niezwykle ważne jest, aby istniała formalna kontrola rozwoju technologii cyfrowej, w tym sztucznej inteligencji. Coraz więcej procesów oddajemy w ręce systemów, które stają się odpowiedzialne za nasze codzienne funkcjonowanie, w tym nawet za nasze zdrowie czy życie.

Sztuczna inteligencja praktycznie niezauważalnie wtapia się w kolejne obszary naszej codzienności – wykorzystujemy ją w naszej pracy, dla rozrywki, a także przy organizacji i planowaniu naszego codziennego funkcjonowania. Niekontrolowany rozwój sztucznej inteligencji jest procesem niebezpiecznym.

Dlatego uważam, że powinny zostać opracowany aparat kontroli, w tym zwłaszcza ramy formalno-prawne rozwoju i doskonalenia sztucznej inteligencji. Kluczowym czynnikiem jest  transparentność działania oraz zachowanie czynnika ludzkiego, który będzie sprawował ostateczną kontrolę nad opracowywaniem, rozwijaniem, wdrażaniem i funkcjonowaniem nowych technologii, w tym zwłaszcza sztucznej inteligencji.

Często mówi się o tzw. zjawisku czarnej skrzynki sztucznej inteligencji – oznacza to, że sposób działania SI często jest niezrozumiały, nawet dla samego twórcy oprogramowania, stąd konieczność ciągłej kontroli. Priorytetem w tej kwestii powinno być odpowiednie sformalizowanie sposobu tworzenia i pracy ze sztuczną inteligencją, abyśmy mogli bezpiecznie i komfortowo korzystać z rozwoju technologii.

Sztuczna inteligencja, która ustawicznie się rozwijaudoskonalając swoje działanie niejako bez ingerencji człowieka, staje się potężną siłą. Wydaje się, że brak ram formalno prawnych dodatkowo komplikuje kontrolę nad rozwojem technologii. Obecnie bardzo trudno jest mówić o prawie odnoszącym się do odpowiedzialności czy poczynańsztucznej inteligencji w momencie, w którym nie mamy definicji samej SI.

Dlatego wydaje się, że pierwszym krokiem powinno być dokładne wyjaśnienie, co z punktu widzenia prawa określa i charakteryzuje tę technologię. W sensie materialnym sztuczna inteligencja jest z reguły składnikiem przedsiębiorstwa. Na tym tle pojawia się ważne pytanie – mianowicie czy działanie SI może stanowić przejaw woli danej osoby prawnej (lub jednostki nieposiadającej osobowości prawnej).

Wreszcie, czy SI można uznać za odrębny byt prawny istniejący niejako niezależnie od ww. osoby prawnej. To rozwiązanie wiązałoby się z koniecznością dopasowania podstawowych pojęć cywilistycznych adekwatnych dla osoby fizycznej do SI. Dla uzupełnienia warto dodać, że pojawiały się nawet koncepcje stworzenia odrębnej „elektronicznej osoby prawnej” jako nowego bytu prawnego.

Nadanie zdolności prawnej SI na ten moment wydaje się zbyt daleko idącym posunięciem. Wydaje mi się, że wątpliwe jest, abyśmy jako społeczeństwo zaakceptowali odrębność SI rozumianą jako powielenie koncepcji osoby prawnej. Jednak z drugiej strony nieuniknionym wydaje się przyznanie SI możliwości reprezentowania w obrocie prawnym osób prawnych lub fizycznych (lub też jednostek organizacyjnych pozbawionych osobowości prawnej).

Jest to potrzebne dla zapewnienia wygody uczestników obrotu oraz gwarancji skuteczności czynności prawnej. Na samym początku trzeba poczynić kroki, które pozwolą na zdefiniowanie podmiotu odpowiedzialnego za działania lub zaniechania sztucznej inteligencji. Odwołując się do przykładu autonomicznych samochodów – kto będzie odpowiedzialny za wypadek takiego pojazdu?

Można nim obarczyć, jeśli nie samą technologię, to twórcę oprogramowania, producenta, a także właściciela. Warto przytoczyć tutaj przykład testów pojazduUbera z marca 2018 r. w USA. To wtedy doszło do pierwszego śmiertelnego wypadku spowodowanego przez autonomiczny samochód. Jak się okazało – oskarżyciel nie miał możliwości postawienia komukolwiek zarzutów. Przykład ten był ważnym precedensem. Pokazał, że prawo w tym aspekcie jest niekompletne.

Warto również przytoczyć przykłady SI, które dostały swoje obywatelstwoShibuya Mirai, który otrzymał oficjalny status mieszkańca Tokio oraz Sophia będąca od 2017 roku obywatelką Arabii Saudyjskiej. Oczywiście nadane obywatelstwa były symboliczne i nie wiązały się z nadaniem żadnych praw samej SI, jednak wydarzenie to spowodowało szeroki dyskurs w opinii publicznej.

Należy także pamiętać, że stworzenia ram prawnych dotyczących autonomicznych systemów powinno posiadać wymiar międzynarodowy jak sama technologia będąca przedmiotem regulacji. Istotne jest, by przy rozwoju technologii uwzględniać również aspekt etyczny. Chodzi o sytuację, gdy z postępu technologicznego będzie mieć szansę skorzystać całe społeczeństwo.

W tym kontekście istotne jest ustanowienie ram prawnych określających, które zasady etyczne powinny być brane pod uwagę przy opracowywaniu, rozwijaniu, wdrażaniu i funkcjonowaniu nowych technologii.

Rozwój sztucznej inteligencji to dla nas zarówno szansa, jak i zagrożenie. Podstawą dynamicznie rozwijającej się technologii powinna być edukacja – zarówno w aspekcie jej funkcjonowania, jak i wykorzystywania. Tylko wtedy, na bazie świadomego społeczeństwa, będzie można zadbać o bezpieczne działania oraz o ich odpowiednie unormowanie przepisami prawa.

Iron Mountain Polska to lider rynku zarządzania informacją, archiwizacji i digitalizacji dokumentów. Zapewnia kompleksową obsługę firm w zakresie: consultingu procesów po stronie klienta, cyklu życia dokumentów w organizacji oraz ich digitalizacji. Jest także dostawcą systemów do zarządzania procesami oraz informacją w efektywny i bezpieczny sposób. Prowadzi działania z zakresu bezpiecznego przechowywania, składowania, archiwizacji oraz niszczenia dokumentacji tradycyjnej i cyfrowej. Firma oferuje dedykowane rozwiązania sektorowe, m.in.: dla branży finansowej i ubezpieczeniowej, służby zdrowia, kancelarii prawnych, a także instytucji publicznych oraz firm geodezyjnych i kartograficznych.

Iron Mountain Polska to 25 lat doświadczenia, ponad 1800 klientów, a także 9 milionów przechowywanych pudeł z dokumentami i prawie 100 milionów skanowanych stron rocznie.

Iron Mountain Polska jest częścią Iron Mountain Inc. – globalnego lidera w branży zarządzania informacją, złożonego w 1951 roku w Livingstone w USA. Firma działa w kilkudziesięciu krajach na 6 kontynentach i notowana jest na Nowojorskiej Giełdzie Papierów Wartościowych (IRM).

Iron Mountain Polska Services Sp. z o.o. zostało wyróżnione tytułem Gepardy Biznesu 2018, przyznawanym przez Instytut Europejskiego Biznesu najdynamiczniej rozwijającym się firmom na polskim rynku.