Równość i inne aspekty prawne dostępu do systemów sztucznej inteligencji

Dostęp do sztucznej inteligencji – równość i inne aspekty prawne dostępu do systemów sztucznej inteligencji

Autorzy: dr Aleksandra Auleytner, dr Marcin Jan Stępień

Znaczną część uwagi wokół aspektów prawnych sztucznej inteligencji (ang. artifical intelligence1 ) poświęca się zagadnieniom zasadności przyznania jej podmiotowości prawnej, odpowiedzialności za działania SI czy kwestii praw do SI lub do rezultatów jej działań. Mniejszą uwagę natomiast zwraca się na kwestie dostępności do SI. Wiąże się to zapewne z przewagą obaw przed możliwościami SI oraz potencjalnymi zagrożeniami, jakie płynąć mogą z braku kontroli nad systemami SI. Obawy te nie są bezpodstawne. Wydaje się jednak, że w dyskusji nad określeniem ram prawnych funkcjonowania SI, obok rozważań poświęconych zapewnieniu kontroli i odpowiedzialności przy korzystaniu z systemów SI, równocześnie powinny przebiegać analizy nad określeniem zasad dostępu do nich. Analizy te powinny uwzględniać zasady równości dostępu do systemów SI, a przede wszystkim dostępu osób, które są szczególnie narażone na wykluczenia społeczne. Skumulowanie dostępu do SI wokół wąskiej grupy osób może być równie (a może nawet bardziej) niebezpieczne, co brak kontroli nad działaniami samej SI. Wynika to z tego, że dobre lub złe zamiary cechować mogą człowieka, a nie SI, która z założenia, jako artefakt, pozbawiona jest sfery afektywnej2 . Zbalansowana polityka dostępu do SI może przyczynić się do optymalnego wykorzystana jej potencjału oraz korzyści dla człowieka i społeczeństwa. Niniejszy artykuł ma na celu nakreślenie problemu dostępu do SI z punktu widzenia nauki prawa, ze szczególnym uwzględnieniem niebezpieczeństwa wykluczenia osób z niepełnosprawnościami oraz kobiet. Zawiera propozycje rozwiązań de lege ferenda. Wreszcie, intencją autorów jest pobudzenie debaty w polskim dyskursie prawniczym nad problemem dostępu do SI.

 

Pojęcie sztucznej inteligencji

Sztuczna inteligencja jako system komputerowy

Pomimo różnych propozycji ujęcia SI formułowanych w piśmiennictwie, brak jest zgodnego stanowiska odnośnie do jej pojęcia3 . W komunikacie Komisji do Parlamentu Europejskiego, Rady Europejskiej, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów, zatytułowanym „Sztuczna inteligencja dla Europy” czytamy, że: „[t]ermin »sztuczna inteligencja« odnosi się do systemów, które wykazują inteligentne zachowanie dzięki analizie otoczenia i podejmowaniu działań – do pewnego stopnia autonomicznie – w celu osiągnięcia konkretnych celów”4 . Z kolei w glosariuszu „Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji” Grupy Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji powołanej przez Komisję Europejską w czerwcu 2018 r. sformułowano wyjaśnienie, zgodnie z którym: „[s]ystemy sztucznej inteligencji (SI) to oprogramowania komputerowe (i ewentualnie również sprzęt komputerowy) stworzone przez człowieka, które, biorąc pod uwagę złożony cel, działają w wymiarze fizycznym lub cyfrowym poprzez postrzeganie ich otoczenia dzięki gromadzeniu danych, interpretacji zebranych ustrukturyzowanych lub nieustrukturyzowanych danych, rozumowaniu na podstawie wiedzy lub przetwarzaniu informacji pochodzących z tych danych oraz podejmowaniu decyzji w sprawie najlepszych działań, które należy podjąć w celu osiągnięcia określonego celu. Systemy SI mogą wykorzystywać symboliczne reguły albo uczyć się modelu numerycznego, a także dostosowywać swoje zachowanie, analizując wpływ ich poprzednich działań na otoczenie”5 .

Jak podnosi J. Janowski6 , celem SI jest „automatyzowanie intelektualnych działań człowieka w zakresie wnioskowania, kojarzenia i doboru informacji”. Dla tego autora automatyzacja to samoczynne działania, uruchamiane dzięki wykorzystaniu praw fizycznych lub opracowaniu algorytmów informatycznych7 . W całym łańcuchu działań modernizacyjnych po fazie automatyzacji rysuje się faza „autarkii” (autonomiczności), rozumiana jako zdolność do samodzielnej realizacji zadań: „[s]taje się to możliwe za sprawą samoprogramowania, polegającego na programowaniu przez same programy, wyposażone w zdolność uczenia się na bazie zbieranych doświadczeń i uprzednio znanych celów”8 .

W oparciu o powyższe uprawniona wydaje się konstatacja, że SI stanowią systemy komputerowe obejmujące oprogramowania, które dzięki analizie otoczenia i podejmowaniu działań w celu osiągniecia konkretnych celów wykazują inteligentne zachowania.

Słabsza (wąska) i silniejsza (ogólna) sztuczna inteligencja

Wyróżnia się dwa rodzaje systemów SI: słabszą (niekiedy określaną również jako „wąska”) oraz silniejszą (niekiedy określaną również jako „ogólna”). Europejski Komitet Ekonomiczno-Społeczny w opinii „Sztuczna inteligencja: wpływ sztucznej inteligencji na jednolity rynek (cyfrowy), produkcję, konsumpcję, zatrudnienie i społeczeństwo” wskazuje, że: „[z]asadniczo rozróżnia się dwa rodzaje sztucznej inteligencji: wąską sztuczną inteligencję (narrow AI) i ogólną sztuczną inteligencję (general AI). Wąska sztuczna inteligencja jest w stanie wykonywać konkretne zadania. Ogólna sztuczna inteligencja jest zdolna wykonać każde zadanie umysłowe, jakie może wykonać człowiek”9 . To bardzo opisowe ujęcie wąskiej (słabszej) i ogólnej (silniejszej) SI, jakkolwiek trafne, nie wydaje się dostatecznie wyjaśniać granicy podziału pomiędzy rodzajami SI.

Na gruncie polskiej literatury prawniczej A. Chłopecki10  wskazuje, że słaba SI „w interakcjach w obrocie gospodarczym działa w sposób samodzielny w tym rozumieniu, że posiada wbudowane algorytmy samouczące się, powodujące, że jej faktyczna pozycja i działanie stają się autonomiczne i nie podlegają lub podlegają ograniczonej (i z reguły następczej) kontroli osób fizycznych. Silna SI to taka (…), która przejawia zdolności samopoznawcze”. Z kolei M. Uliasz11  granice podziału na słabą i silną SI ujmuje w następujący sposób: „[s]łaba sztuczna inteligencja jest zazwyczaj postrzegana, jako taka, która ma zdolność samouczenia się, działa w sposób samodzielny (autonomiczny) i nie podlega pełnej kontroli osoby lub osób fizycznych. Silna (ogólna) sztuczna inteligencja ma dodatkowo zdolności samopoznawcze, czyli ma tzw. samoświadomość”.

Nie bez powodu nasuwają się w tym miejscu porównania działania silnej SI do działania ludzkiego mózgu12 . Jak pisze M. Janowska13 : „[s]ilna SI polega natomiast na sieciach modelowanych na wzór ludzkiego mózgu. Systemy te przetwarzają informację, która nie jest składowana w konkretnym miejscu, lecz przepływa przez sieć, dzięki czemu system ma zdolności uczenia się i skutkiem tego przetwarzania nieustrukturyzowanej informacji”.

Nie jest to jednak maksimum możliwości systemów SI. Za możliwościami samopoznawczymi SI podążają zdolności tych systemów do rozwijania i poszerzania własnych umiejętności i to bez ingerencji człowieka. Dowodzi tego stworzenie w 2017 r. systemu, który sam modyfikuje własny kod i tworzy nowy, który nie podlega weryfikacji człowieka14 .

Reasumując, cechą systemów SI (zarówno słabej, jak i silnej) jest pewna autonomiczność (samodzielność) działania i brak (lub ograniczona) kontrola człowieka. Elementem granicznym pomiędzy słabą a silną SI, pozwalającym zakwalifikować dany system jako silną SI, są zdolności samopoznawcze systemu, a co za tym idzie – umiejętność samodzielnego uczenia się systemu i rozwijania15 bez ingerencji człowieka16 .

Dostępność systemów sztucznej inteligencji

Równość dostępu do systemów SI

Na wstępie pojęcie równości dostępu do SI należy wyraźnie odróżnić od pojęcia równości wobec SI.

Równość wobec SI sprowadza się do aspektów dokonywania wyborów przez samą SI. Przy dokonywaniu takich wyborów SI może kierować się determinantami, które pomijają pewne osoby lub grupy osób. Podział ten może prowadzić do nierównego traktowania przez systemy pewnych kategorii osób (grup osób), wprowadzając tym samym nierówności społeczne. W konsekwencji przez pojęcie równości wobec SI należy rozumieć równe traktowanie osób przez samouczące się systemy informatyczne. Problematyka prawnego uregulowania równości wobec SI ogniskuje się zatem wokół problemu stronniczości i dyskryminacji w działaniach systemów17 .

Stronniczość (dokładnie – stronniczość algorytmiczna18 ) rodzi szczególne niebezpieczeństwo w sferach, gdzie podejmowanie decyzji jest podstawą działania, jak np. orzekanie w postępowaniu sądowym19 . W literaturze przedmiotu wskazuje się na wiele sytuacji, w których stronniczość systemów SI może negatywnie wpływać na równe traktowanie osób, np. powierzenie SI doboru

osób do pracy w procesie rekrutacji (wybór mężczyzny zamiast kobiety), ustalanie osób w trakcie wykrywania sprawców przestępstwa, weryfikacja osób ubiegających się o udzielenie pożyczki lub kredytu czy udzielenie zgody na objęcie ubezpieczeniem20 .

Natomiast równość dostępu do systemów SI sprowadza się do kwestii możliwości korzystania z systemów SI przez pewne kategorie osób lub grupy osób. Europejski Komitet Ekonomiczno-Społeczny w opinii „Sztuczna inteligencja: wpływ sztucznej inteligencji na jednolity rynek (cyfrowy), produkcję, konsumpcję, zatrudnienie i społeczeństwo” wskazuje na jedenaście dziedzin, w których SI stwarza aktualne wyzwania społeczne. Pośród nich wymienia m.in. nierówność i wyłączenie społeczne21 .

W tej opinii, Europejski Komitet Ekonomiczno-Społeczny podnosi, że: „[d]uże podmioty gospodarcze podjęły już różne inicjatywy na rzecz otwartego, bezpiecznego i społecznie odpowiedzialnego rozwoju sztucznej inteligencji (…). Jednakże decydenci polityczni nie mogą pozostawiać tego zadania przedsiębiorstwom i mają w tym zakresie swoją rolę do odegrania. Konieczne są celowe środki działania i wsparcie na rzecz badań naukowych nad wyzwaniami społecznymi związanymi ze sztuczną inteligencją oraz na rzecz rozwoju bezpiecznych i odpornych systemów sztucznej inteligencji”22 .

W tym miejscu wydaje się zasadne stwierdzenie, że zwrócenie uwagi przez Europejski Komitet Ekonomiczno-Społeczny na ww. dwie grupy podmiotów, tj. producentów systemów SI i decydentów politycznych, w kontekście zapewnienia optymalnego dostępu do systemów SI, jest w pełni uzasadnione.

Producenci, a szerzej – podmioty uprawnione z praw wyłącznych do systemów SI, stanowią tę grupę podmiotów, której z faktu powzięcia inicjatywy lub działań prowadzących do powstania systemu SI powinno przysługiwać prawo do decydowania w pierwszej kolejności o tym, kto i w jakim zakresie uprawniony jest do dostępu i korzystania z systemu SI. Oczywiście, tak w przypadku systemów SI, jak i w przypadku każdych dóbr społecznie pożądanych, wyłączność decydowania, o której mowa powyżej, nie powinna być nieograniczona. Zwraca na to uwagę w wyżej przywołanej opinii Europejski Komitet Ekonomiczno-Społeczny, wskazując, że: „[l]wia część procesów rozwoju sztucznej inteligencji i wszystkie powiązane z tym elementy (platformy rozwoju, dane, wiedza, know-how) znajdują się w rękach pięciu wielkich firm technologicznych (Amazon, Apple, Facebook, Google, Microsoft). Choć spółki te opowiadają się za otwartym rozwojem sztucznej inteligencji, a niektóre z nich udostępniają swoje platformy rozwoju sztucznej inteligencji jako otwarte oprogramowanie, nie gwarantuje to pełnej dostępności systemów sztucznej inteligencji. UE, decydenci międzynarodowi i organizacje społeczeństwa obywatelskiego mają tutaj do odegrania ważną rolę polegającą na dopilnowaniu, aby systemy sztucznej inteligencji były dostępne dla wszystkich i by ich rozwój odbywał się w otwartym środowisku”23 . Tym sposobem dochodzimy do drugiej grupy, jaką są decydenci polityczni. Powinni oni bowiem dążyć do uregulowania polityki dostępu do systemów SI, która, przy poszanowaniu interesów podmiotów uprawnionych z praw wyłącznych do systemów SI, uwzględniać będzie również interesy użytkowników takich systemów, w szczególności tych, dla których wykorzystanie systemów SI daje szansę na poprawę sytuacji życiowej i równy udział w życiu społecznym.

Mając na uwadze powyższe, można stwierdzić, że jednym z elementów optymalnego wykorzystania możliwości SI jest właśnie polityka równego dostępu do takich systemów pośród poszczególnych grup społecznych. Dostęp ten powinien mieć miejsce już na wczesnych etapach tworzenia systemów SI, jak projektowanie. Jak podaje Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji w „Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji” w aspekcie zapewnienia różnorodności, niedyskryminacji i sprawiedliwości w przypadku systemów SI konieczne jest unikanie niesprawiedliwej stronniczości, dostępność oraz zasada „projektowania dla wszystkich”: „[p]rzy tworzeniu systemów SI nie należy stosować podejścia uniwersalnego, należy natomiast uwzględniać zasady »projektowania dla wszystkich«, obejmując jak najszersze grono użytkowników, zgodnie z odpowiednimi normami dostępności. Zapewni to równy dostęp i aktywny udział wszystkich ludzi w już istniejących i wyłaniających się obszarach działalności człowieka realizowanej za pośrednictwem komputerów, a także w odniesieniu do technologii wspomagających”24 . Nie uprzedzając dalszych wywodów, już na etapie kreowania systemów SI de facto dochodzić może do tworzenia rzeczywistych barier w dostępie do tych systemów. Systemy SI projektowane tylko dla pewnych kategorii osób lub grup osób (wręcz chciałoby się rzec – projektowane pod pewne kategorie osób lub grupy osób) prowadzić mogą do ograniczania dostępu do SI i rzeczywistego wykluczenia innych kategorii osób (grup osób).

Kategorie osób narażone na wykluczenie w dostępie do systemów SI

W przywołanych powyżej „Wytycznych w zakresie etyki dotyczących godnej zaufania sztucznej inteligencji” Grupy Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji sformułowano pojęcie „osób wymagających szczególnego traktowania i grup szczególnie wrażliwych”. W glosariuszu do ww. Wytycznych wyjaśniono, że: „[n]ie istnieje powszechnie przyjęta ani szeroko uzgodniona definicja prawna osób wymagających szczególnego traktowania ze względu na ich niejednorodność. Wyznaczniki osoby wymagającej szczególnego traktowania lub grupy szczególnie wrażliwej często zależą od kontekstu. Znaczenie mogą mieć: tymczasowa sytuacja życiowa (np. dzieciństwo lub choroba), czynniki rynkowe (np. asymetria informacyjna lub władza rynkowa), czynniki gospodarcze (np. ubóstwo), czynniki związane z tożsamością (np. płeć, religia lub kultura) lub inne czynniki. (…) Grupa szczególnie wrażliwa to grupa osób, które współdzielą jedną lub kilka cech decydujących o ich wrażliwym statusie”.

Następnie Grupa Ekspertów, powołuje się na art. 21 Karty Praw Podstawowych Unii Europejskiej25 .

Zgodnie z ust. 1 powyższego artykułu, zakazana jest wszelka dyskryminacja w szczególności ze względu na płeć, rasę, kolor skóry, pochodzenie etniczne lub społeczne, cechy genetyczne, język, religię lub przekonania, poglądy polityczne lub wszelkie inne poglądy, przynależność do mniejszości narodowej, majątek, urodzenie, niepełnosprawność, wiek lub orientację seksualną.

W innym miejscu wytycznych Grupa Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji wskazuje, że grupy szczególnie wrażliwe to m.in. dzieci, osoby niepełnosprawne i inne grupy, „które z racji uwarunkowań historycznych znajdują się w mniej korzystnej sytuacji, które są narażone na ryzyko wykluczenia”26 . Podkreśla ona, że szczególne znaczenie ma dostępność technologii SI dla osób niepełnosprawnych. Przy czym należy zwrócić uwagę, że osoby niepełnosprawne występują we wszystkich grupach społecznych27 .

Popieranie dostępu osób niepełnosprawnych do nowych technologii (a zatem również systemów IT) expressis verbis wynika z art. 9.2. lit. g Konwencji o prawach osób niepełnosprawnych z 13.12.2006 r. Realizacja powyższego zobowiązania międzynarodowego przez państwo-stronę konwencji powinna polegać nie tylko na promowaniu dostępności do najnowszych technologii i systemów komputerowych dla osób z niepełnosprawnościami, ale również uwzględniać potrzeby tych osób przy ich projektowaniu, aby były one dostępne dla nich od samego początku28 .

Konwencja z 13.12.2006 r. częściowo wdrożona jest w państwach członkowskich Unii Europejskiej dyrektywą Parlamentu Europejskiego i Rady (UE) 2016/2012 z 26.10.2016 r. w sprawie dostępności stron internetowych i mobilnych aplikacji organów sektora publicznego29 . Na podstawie dyrektywy 2016/2012 państwa członkowskie Unii Europejskiej zostały zobowiązane do zapewnienia, aby organy sektora publicznego podjęły środki niezbędne do zwiększenia dostępności swoich stron internetowych i aplikacji mobilnych w drodze uczynienia ich bardziej postrzegalnymi, funkcjonalnymi i zrozumiałymi30 . W Polsce dyrektywę 2016/2012 wdraża ustawa z 4.4.2019 r. o dostępności cyfrowej stron internetowych i aplikacji mobilnych podmiotów publicznych31 .

Na wykorzystanie sztucznej inteligencji w dziedzinie medycyny i pomocy osobom niepełnosprawnym uwagę zwrócono w rezolucji Parlamentu Europejskiego z 16.2.2017 r. zawierającej zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki (2015/2103(INL)32 . I tak „mając na uwadze, że rozwiązania w dziedzinie robotyki i sztucznej inteligencji mogą i powinny być projektowane w sposób pozwalający zachować godność, autonomię i samookreślenie człowieka, szczególnie w dziedzinie opieki nad człowiekiem i dotrzymywania mu towarzystwa, oraz w kontekście urządzeń medycznych, »naprawiania« lub usprawniania organizmu ludzkiego”.

Inną szczególną kategorią osób (grupą osób) wymagającą wsparcia w zakresie dostępu do systemów SI są kobiety. Grupa ta wskazywana jest często jako mająca mniejszy dostęp do nowoczesnych technologii, w tym systemów SI33 . Wspomniana rezolucja Parlamentu Europejskiego zawierająca zalecenia dla Komisji w sprawie przepisów prawa cywilnego dotyczących robotyki zwraca uwagę na potrzebę zainteresowania większej liczby kobiet karierą w dziedzinie robotyki i informatyzacji, w tym na potrzebę zatrudniania większej liczby kobiet na stanowiskach w sektorze cyfrowym. W ocenie Parlamentu Europejskiego przyniosłoby to znaczne korzyści temu sektorowi, samym kobietom i gospodarce europejskiej. Finalnie Parlament Europejski wzywa Komisję i państwa członkowskie Unii Europejskiej do podjęcia inicjatyw, które mają na celu wspieranie kobiet w dziedzinie technologii informatycznych oraz poprawę ich umiejętności w sektorze cyfrowym34 .

Na sytuację kobiet jako osób, które wymagają w szczególności uwzględnienia w polityce równego dostępu do SI, zwrócił uwagę również Wysoki Komisarz ds. Praw Człowieka Organizacji Narodów Zjednoczonych, m.in. w raporcie z 5.5.2017 r. „Promotion, protection and enjoyment of human rights on the Internet: ways to bridge the gender digital divide from a human rights perspective”. W tym dokumencie czytamy, że: „w miarę jak stosowanie systemów SI staje się coraz bardziej powszechne, mogą wystąpić nieproporcjonalne i zróżnicowane skutki dla niektórych grup, które obecnie borykają się z nierównościami systemowymi, w tym dla kobiet”35 .

Nie są to oczywiście jedyne kategorie osób (grupy osób), które wymagają szczególnego uwzględnienia przy zapewnieniu równego dostępu do systemów SI, a które moglibyśmy zaliczyć do grup szczególnie wrażliwych. Dotyczy to również osób, które ze względu na uwarunkowania historyczne, wiekowe czy ekonomiczne mogą znajdować się w grupie wykluczenia, a szczegółowe ustalenia takich osób (grup osób) często zależeć będą od kontekstu, do którego za Grupą Ekspertów Wysokiego Szczebla ds. Sztucznej Inteligencji można zaliczyć: tymczasową sytuację życiową, czynniki rynkowe, czynniki gospodarcze, czynniki związane z tożsamością.

Podmioty uprawnione z praw wyłącznych do systemów SI

Względem systemów SI, jako rezultatów działalności intelektualnej człowieka, mogą przysługiwać prawa wyłączne. Jeżeli składające się na systemy SI programy komputerowe stanowią rezultat działalności twórczej o indywidualnym charakterze, to oprogramowanie takie może stanowić przedmiot praw autorskich (por. art. 1 ust. 1 i 2 pkt 1 ustawy z 4.2.1994 r. o prawie autorskim i prawach pokrewnych36 ). W pewnych przypadkach elementy systemu SI mogą być również przedmiotem ochrony patentowej czy know-how37 . Cechą ochrony praw wyłącznych jest to, że przyznanie ochrony z jednego tytułu prawnego nie wyklucza przyznania ochrony także na podstawie innego tytułu prawnego. W rezultacie, w przypadku praw wyłącznych może dochodzić do skumulowania ochrony rezultatu własności intelektualnej na podstawie różnych tytułów prawnych (np. dany rezultat działalności intelektualnej spełnia przesłanki ochrony autorskoprawnej i patentowej). Złożoność systemów SI sprzyjać będzie powstawaniu właśnie tak rozumianej ochrony skumulowanej po stronie podmiotów uprawnionych. Korzystanie z systemów SI będzie w przeważającej większości przypadków wymagać zezwolenia podmiotów uprawnionych w zależności od zakresu wyłączności przyznanej przez obowiązujące przepisy prawne dla danego prawa wyłącznego.

Jednak zarówno na gruncie prawa autorskiego, jak i prawa własności przemysłowej, sfera wyłączności przyznana podmiotowi prawa nie ma charakteru absolutnego i podlega pewnym ograniczeniom. Na gruncie prawa autorskiego, gdzie granica wyłączności autorskich praw majątkowych jest bardzo szeroko zakreślona (obejmuje prawo do korzystania z utworu i rozporządzania nim na wszystkich polach eksploatacji – art. 17 PrAut), obowiązują również przepisy o dozwolonym użytku utworu, które wyznaczają granicę praw wyłącznych do utworu38 . W ramach przepisów o dozwolonym użytku utworów wyróżniamy te, które dotyczą dozwolonego użytku prywatnego (osobistego) lub dozwolonego użytku publicznego39 . Dozwolony użytek prywatny przyznany jest na rzecz osób fizycznych i zapewnia im korzystanie z utworu bez zezwolenia twórcy lub innego podmiotu uprawnionego dla własnego użytku osobistego (por. art. 23 ust. 1 PrAut). Dozwolony użytek publiczny obejmuje natomiast przypadki, w których interesy pewnych kategorii osób lub grup osób wymagają umożliwienia im dostępu do utworu w ściśle określonych sytuacjach, zaś interesy te są istotne z punktu widzenia całego społeczeństwa, co uzasadnia poczynienie wyjątku w zakresie wyłączności korzystania z utworu na rzecz tych osób (grup osób)40 .

Taką szczególną kategorią osób (grupą osób), których interesy uwzględniają przepisy PrAut o publicznym dozwolonym użytku utworu, są osoby niepełnosprawne. Zgodnie z art. 331 ust. 1 PrAut, wolno korzystać z już rozpowszechnionych utworów dla dobra osób niepełnosprawnych, jeżeli to korzystanie odnosi się bezpośrednio do ich upośledzenia, nie ma zarobkowego charakteru i jest podejmowane w rozmiarze wynikającym z natury upośledzenia. Co istotne, przepis powyższy nie przesądza, że z utworu na jego podstawie mogą korzystać wyłącznie osoby niepełnosprawne. Sformułowanie, zgodnie z którym wolno korzystać z utworów „dla dobra osób niepełnosprawnych” oznacza, że na jego postanowienia mogą powoływać się wszelkie podmioty zamierzające korzystać z rozpowszechnionych utworów. Co równie istotne, art. 331 ust. 1 PrAut nie wprowadza rozróżnienia ze względu na rodzaj niepełnosprawności. W konsekwencji bez znaczenia na rodzaj niepełnosprawności można korzystać z utworu z powołaniem na powyższy przepis. Ważne, aby korzystanie odnosiło się bezpośrednio do upośledzenia osób niepełnosprawnych i było podejmowane w rozmiarze wynikającym z natury upośledzenia, a także nie miało charakteru zarobkowego.

Regulacja art. 331 ust. 1 PrAut stanowi implementację dyrektywy 2001/29/WE Parlamentu Europejskiego i Rady z 22.5.2001 r. w sprawie harmonizacji niektórych aspektów praw autorskich i pokrewnych w społeczeństwie informacyjnym41 . Zgodnie z art. 5 ust. 3 dyrektywy 2001/29, państwa członkowskie Unii Europejskiej mogą przewidzieć wyjątki lub ograniczenia w odniesieniu do praw wyłącznych, o których mowa w art. 2 i 3 dyrektywy, tj. wyłącznego prawa do zwielokrotniania utworu, wyłącznego prawa do publicznego udostępniania utworów oraz wyłącznego prawa podawania do publicznej wiadomości utworów. Jeden z powyższych wyjątków dotyczy właśnie korzystania z rezultatów działalności intelektualnej dla dobra osób niepełnosprawnych, tj. jeżeli korzystanie odnosi się bezpośrednio do upośledzenia i nie ma handlowego charakteru oraz następuje w rozmiarze, który wynika z tego upośledzenia (art. 5 ust. 3 lit. b dyrektywy 2001/29). Artykuł 5 ust. 3 lit. b dyrektywy 2001/29 dodatkowo stanowi, że jego stosowanie powinno następować z zastrzeżeniem obowiązków państw członkowskich wynikających z dyrektywy Parlamentu Europejskiego i Rady (UE) 2017/1564. Z kolei dyrektywa Parlamentu Europejskiego i Rady (UE) 2017/1564 z 13.7.2017 r. w sprawie niektórych dozwolonych sposobów korzystania z określonych utworów i innych przedmiotów chronionych prawem autorskim i prawami pokrewnymi z korzyścią dla osób niewidomych, osób słabowidzących lub osób z niepełnosprawnościami uniemożliwiającymi zapoznawanie się z drukiem oraz w sprawie zmiany dyrektywy 2001/29/WE w sprawie harmonizacji niektórych aspektów praw autorskich i pokrewnych w społeczeństwie informacyjnym42  stanowi rezultat realizacji zobowiązań, które Unia Europejska musi wypełnić na mocy traktatu z Marrakeszu o ułatwieniu dostępu do opublikowanych utworów osobom niewidomym, słabowidzącym i osobom z niepełnosprawnościami uniemożliwiającymi zapoznawanie się z drukiem43  oraz ww. Konwencji Organizacji Narodów Zjednoczonych o prawach osób niepełnosprawnych sporządzonej 13.12.2006 r.44 .

Wyżej omówiona regulacja prawa autorskiego (art. 331 ust. 1 PrAut) odnosi się jedynie do osób niepełnosprawnych. Poza tą kategorią pozostaje natomiast liczna grupa osób, która również może zostać zakwalifikowana do ww. grupy osób szczególnie wrażliwych w kontekście dostępu do systemów SI. Tym samym uzasadnione jest stanowisko, że na dzień dzisiejszy brak regulacji w prawie polskim, która uwzględniałaby interesy grupy osób szczególnie wrażliwych i realizowałaby na ich rzecz zasadę równości dostępu do systemów SI.

Podsumowanie

Optymalne wykorzystanie możliwości SI wymaga nie tylko uwzględnienia regulacji prawnej funkcjonowania samego systemu SI, lecz również zasad dostępu do takich systemów. Mając na względzie, że podmioty uprawnione z praw wyłącznych do systemów SI będą dążyć do maksymalnego utrzymania sfery wyłączności decydowania o możliwości korzystania z SI, to zapewnienie właściwych instrumentów prawnych gwarantujących dostęp osób niepełnosprawnych, kobiet i innych grup osób szczególnie wrażliwych do systemów SI leży po stronie ustawodawcy.

Zapewnienie dostępu powinno odbywać się na zasadach równości dostępu do systemów SI. Regulacja urzeczywistniająca zasady równości dostępu do systemów SI wymaga zbalansowania interesów dwóch grup podmiotów, tj. podmiotów praw wyłącznych do systemów SI oraz użytkowników systemów SI, pośród których szczególną grupę stanowią ww. osoby należące do grup szczególnie wrażliwych.

Przyjęcie właściwej regulacji poprzedzone powinno być szeroką debatą społeczną w ramach ww. grup podmiotów zainteresowanych w dostępie do systemów SI. Właściwym miejscem dla przyszłej regulacji mogłyby być przepisy PrAut o dozwolonym użytku utworów, gdyż to one – co do zasady – wyznaczają w polskim prawie granice praw wyłącznych do utworów. Niewykluczone jednak, że potrzeba szerszego uregulowania problematyki SI i dostępu do takich systemów przywiedzie do wniosku o potrzebie przyjęcia regulacji sui generis, opartej na odrębnym akcie normatywnym niż PrAut.

Istotne jest również określenie zakresu dostępu do systemów SI. Mając na względzie zgłoszone powyżej uwagi, wydaje się zasadne umożliwienie dostępu do systemów SI jak najszerszej grupie osób, reprezentatywnej w tym sensie, że będzie ona przedstawiać różne interesy społeczne, w tym interesy osób należących do grupy szczególnie wrażliwej. Dostępność ta powinna być zapewniona możliwie na każdym etapie powstawania i rozwijania systemu SI. Już na samym etapie projektowania systemów SI może bowiem dochodzić do (zamierzonego lub nie) faktycznego ustanawiania barier w dostępie do takich systemów. Zasada projektowania dla wszystkich systemów SI powinna niwelować przypadki wykluczeń w znacznym stopniu. Również na etapie rozwoju systemów SI powinno się dążyć do uczestnictwa najszerszej (najbardziej reprezentatywnej) grupy osób, tak aby systemy SI wzbogacone o nowe elementy uwzględniały największy możliwy wachlarz przypadków i działały z korzyścią dla jak największej liczby osób.

 

 

Summary:

Access to artificial intelligence – equality and other legal aspects of access to AI systems

A lot of attention as regards legal aspects of artificial intelligence (AI) is devoted to the issues of legitimacy of granting legal personality to it, responsibility for AI actions or the issue of rights to AI or the results of its operation. Less attention is drawn to the issues of AI accessibility. This is certainly due to the fact that there are more fears as regards AI possibilities and potential threats that may arise from the lack of control over AI systems. Those fears are by no means groundless. It seems, however, that in the debate on defining the legal framework for the functioning of AI, the discussion on ensuring control and responsibility when using AI systems should be accompanied by analyses concerning the rules of access to those systems. Those analyses should take into account the principles of equal access to AI systems, specifically by persons who are particularly vulnerable as regards social exclusion. The cumulated access to AI by a narrow group may be equally (and perhaps even more) dangerous than the lack of control over AI activities. This is due to the fact that good or bad intentions may be entertained by man, not AI, which by definition as an artefact is devoid of affections. The balanced policy of access to AI may contribute to optimal utilisation of its potential as well as benefits for man and society. The article is aimed at outlining the problem of access to AI from the viewpoint of the science of law, with special focus on the danger of exclusion of disabled persons and women. It also provides de lege ferenda solution proposals. Finally, it is the intention of the authors to stimulate a debate in the Polish juridical discourse on the problems of access to AI.

 

Autorzy: dr Aleksandra Auleytner, dr Marcin Jan Stępień

Artykuł pochodzi z dodatku do Monitora Prawniczego Dostęp do sztucznej inteligencji – równość i inne aspekty prawne dostępu do systemów sztucznej inteligencji (MOP 2019, Nr 21)

 

 

 


 1   Dalej jako: SI.

 2   Jak słusznie zauważa A. Bieliński, „[t]echnologia nigdy nie jest dobra albo zła. Ważne jest co z nią robimy” (A. Bieliński, Potencjalny obszar zastosowania sztucznej inteligencji w postępowaniu cywilnym – czy obecnie ma to rację bytu i czy jesteśmy na takie rozwiązania gotowi? [w:] Sztuczna inteligencja, blockchain, cyberbezpieczeństwo oraz dane osobowe. Zagadnienia wybrane, por. red. K. Flagi-Gieruszyńskiej, J. Gołaczyńskiego, D. Szostka, Warszawa 2019, s. 57).

 3   D. Lubasz, M. Namysłowska, Zasady dotyczące przetwarzania danych osobowych a sztuczna inteligencja w kontekście europejskim [w:] Sztuczna inteligencja, blockchain…, op. cit., s. 201; M. Rojszczak, Prawne aspekty systemów sztucznej inteligencji [w:] Sztuczna inteligencja, blockchain…, op. cit., s. 3; M. Uliasz, Sztuczna inteligencja jako sztuczna osoba prawna [w:] Sztuczna inteligencja, blockchain…, op. cit., s. 23.

 4   Komunikat do Parlamentu Europejskiego, Rady Europejskiej, Europejskiego Komitetu Ekonomiczno-Społecznego oraz Komitetu Regionów „Sztuczna inteligencja dla Europy” 25.4.2018 r., COM(2018) 237 final, s. 1, dostępny na: https://eur-lex.europa.eu/legal-content/PL/TXT/?uri= CELEX:52018DC0237 (dostęp: 7.10.2019 r.).

 5   Wytyczne w zakresie etyki dotyczącej godnej zaufania sztucznej inteligencji, Bruksela 2019, s. 48.

 6   J. Janowski, Trendy cywilizacji informacyjnej. Nowy technototalitarny porządek świata, Warszawa 2019, s. 43.

 7   Ibidem, s. 39.

 8   Ibidem.

 9   Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Sztuczna inteligencja: wpływ sztucznej inteligencji na jednolity rynek (cyfrowy), produkcję, konsumpcję, zatrudnienie i społeczeństwo” z 31.5. i 1.6.2017, s. 3, dostępna na: https://eur-lex.europa.eu/legal-content/PL/ALL/?uri=CELEX:52016IE5369 (dostęp: 7.10.2019 r.).

 10   A. Chłopecki, Sztuczna inteligencja – szkice prawnicze i futurologiczne, Warszawa 2018, s. 5.

 11   M. Uliasz, Sztuczna inteligencja jako sztuczna osoba prawna [w:] Sztuczna inteligencja, blockchain…, op. cit., s. 23. Por. inne ujęcia silnej i słabszej SI: P. Juściński, Prawo autorskie w obliczu rozwoju sztucznej inteligencji „Zeszyty Naukowe Uniwersytetu Jagiellońskiego. Prace z Prawa Własności Intelektualnej” Nr 1(143)/2019, s. 6–8.

 12   A. Bieliński, Potencjalny obszar zastosowania sztucznej inteligencji… [w:] op. cit., s. 60; J. Janowski, op. cit., s. 43; A. Kasperska, Problemy zastosowania sztucznych sieci neuronalnych w praktyce prawniczej, „Przegląd Prawa Publicznego” Nr 11/2017, s. 27; M. Rojszczak, Prawne aspekty systemów sztucznej inteligencji [w:] Sztuczna inteligencja, blockchain…, op. cit., s. 3.

 13   M. Jankowska, Podmiotowość prawna sztucznej inteligencji [w:] O czym mówią prawnicy, mówiąc o podmiotowości, pod red. A. Bielskiej-Brodziak, Katowice 2015, s. 176.

 14   P. Księżak, Zdolność prawna sztucznej inteligencji [w:] Czynić postęp w prawie. Księga jubileuszowa poświęcona profesor Birucie Lewaszkiewicz-Petrykowskiej, pod red. W. Robaczyńskiego, Łódź 2017, s. 65.

 15   Jak zauważa J. Byrski, wyposażenie programów komputerowych składających się na systemy SI w umiejętności uczenia się i samokreacji przyczyniło się do powstania nowego typu narzędzia do pracy koncepcyjnej i projektowej (J. Byrski, Oprogramowanie zawierające elementy sztucznej inteligencji. Wybrane zagadnienia prawne [w:] Experientia docet. Księga jubileuszowa ofiarowana Pani Profesor Elżbiecie Traple, pod red. P. Kostańskiego, P. Podreckiego, T. Targosza, Warszawa 2017, s. 1334). Por. I. Olesiuk, Założenia aksjologiczne autorskoprawnej ochrony twórczości w świetle rozwoju sztucznej inteligencji, „Acta Iuris Stetinensis” Nr 2(18)/2017, s. 249.

 16   Ingerencja człowieka zasadniczo kończy się na etapie projektowania (por. A. Kasperska, op. cit., s. 27).

 17   D. Lubasz, M. Namysłowska, Zasady dotyczące przetwarzania danych osobowych… [w:] Sztuczna inteligencja, blockchain…, op. cit. s. 203–204.

 18   A. Auleytner, Równość dostępu do sztucznej inteligencji, „Automatyka” Nr 11/2018, s. 28.

 19   Por. A. Bieliński, Potencjalny obszar zastosowania sztucznej inteligencji… [w:] op. cit., s. 61–65; A. Kasperska, op. cit., s. 28–30.

 20   Por. B. Smith, H. Shum, The Future Computed. Artificial Intelligence and Its Role in Society, Redmond 2018, s. 57–59.

 21   Opinia Europejskiego Komitetu Ekonomiczno-Społecznego „Sztuczna inteligencja…, op. cit., s. 2.

 22   Ibidem, s. 8.

 23   Ibidem, s. 7.

 24   Wytyczne w zakresie etyki dotyczącej godnej zaufania sztucznej inteligencji, Bruksela 2019, s. 18 i 23.

 25   Dz.Urz. C Nr 326 z 26.10.2012 r., s. 391–407.

 26   Wytyczne w zakresie etyki…, op. cit., s. 17.

 27   Ibidem, s. 23.

 28   Tak M. Radziejowska, A. Mazurczak, Konwencja o prawach osób niepełnosprawnych. Poradnik RPO, „Biuletyn RPO” 2013, Materiały Nr 82, s. 25.

 29   Dyrektywa Parlamentu Europejskiego i Rady (UE) 2016/2102 z 26.10.2016 r. w sprawie dostępności stron internetowych i mobilnych aplikacji organów sektora publicznego, Dz.Urz. L Nr 327 z 12.2.2016 r., s. 1; dalej jako: dyrektywa 2016/2012.

 30   A. Auleytner, op. cit., s. 29.

 31   Dz.U. poz. 848.

 32   Dz.Urz. C Nr 252 z 18.7.2018 r., s. 239.

 33   A. Auleytner, op. cit., s. 29.

 34   Rezolucja Parlamentu Europejskiego z dnia 16 lutego 2017 r , op. cit., s. 29.

 35   Źródło: https://www.google.pl/url?sa=t&rct=j&q=&esrc=s&source=web&cd=3&ved=2ahUKEwi-req38OTkAhXDpIsKHQGpBNcQFjACegQIAxAC&url=https%3A%2F%2Fwww.ohchr.org%2FEN%2FHRBodies%2FHRC%2FRegularSessions%2FSession35%2FDocuments%2FA HRC 35 9 AEV.docx&usg=AOvVaw2uBOzIMDGItqgi3qUCNqiS (dostęp: 22.9.2019 r.).

 36   T. jedn.: Dz.U. z 2019 r. poz. 1231 ze zm.; dalej jako: PrAut.

 37   Por. M. Rojszczak, Prawne aspekty systemów sztucznej inteligencji [w:] Sztuczna inteligencja, blockchain…, op. cit., s. 13.

 38   J. Preussner-Zamorska, Rozdział VII. Dozwolony użytek chronionych utworów [w:] System Prawa Prywatnego. T. 13. Prawo autorskie, pod red. J. Barty, Warszawa 2019, s. 599.

 39   J. Błeszyński, Prawo autorskie, Warszawa 1988, s. 132–133; J. Preussner-Zamorska, Rozdział VII. Dozwolony użytek chronionych utworów [w:] System… T. 13, op. cit., s. 569.

 40   Por. J. Błeszyński, Prawo autorskie…, op. cit., s. 133.

 41   Dz.Urz. L Nr 167 z 22.6.2001 r., s. 10 ze zm.; dalej jako: dyrektywa 2001/29.

 42   Dz.Urz. L Nr 242 z 20.9.2017 r., s. 6.

 43   Traktat z Marrakeszu z 27.6.2013 r. o ułatwieniu dostępu do opublikowanych utworów osobom niewidomym, słabowidzącym i osobom z niepełnosprawnościami uniemożliwiającymi zapoznawanie się z drukiem, Dz.Urz. L Nr 48 z 21.2.2018 r., s. 3.

 44   Celem traktatu z Marrakeszu jest wprowadzenie międzynarodowego standardu w zakresie korzystania przez osoby niepełnosprawne z utworów opublikowanych za pomocą druku (A. Urbański [w:] Prawo autorskie i prawa pokrewne. Komentarz, pod red. W. Machały, R. Sarbińskiego, Warszawa 2019, s. 699–700.

Długość okresu testowego dostosowana do potrzeb Twojej kancelarii

W polu numeru telefonu należy stosować wyłącznie cyfry (min. 9).

W polu numeru NIP należy stosować wyłącznie cyfry (min. 10).

Wyślij
Okres testowy jest bezpłatny. Oferta kierowana jest do kancelarii prawnych, firm, instytucji i nie jest dostępna dla osób fizycznych.

Administratorem danych osobowych jest Wydawnictwo C.H.Beck sp. z o.o., Warszawa, ul. Bonifraterska 17, kontakt: daneosobowe[at]beck.pl. Dane przetwarzamy w celu marketingu własnych produktów i usług, w celach wskazanych w treści zgód, jeśli były wyrażane, w celu realizacji obowiązków prawnych, oraz w celach statystycznych. W sytuacjach przewidzianych prawem, przysługują Ci prawa do: dostępu do swoich danych, otrzymania ich kopii, sprostowania, usunięcia, ograniczenia przetwarzania, przenoszenia, cofnięcia zgody oraz wniesienia sprzeciwu wobec przetwarzania danych. Pełne informacje w Polityce prywatności.