• Temat numeru
  • Artykuł pochodzi z numeru IUSTITIA 2(44)/2021, dodano 25 sierpnia 2021.

Sztuczna inteligencja w służbie polskiego sądu – propozycje rozwiązań

Michał Kotalczyk
(inne teksty tego autora)

Cele długoterminowe (po 2027 r.): sztuczna inteligencja asystentem sędziego oraz referendarzem sądowym

Przedstawione powyżej propozycje wdrażania sztucznej inteligencji w polskim sądownictwie dotyczyły nowych programów, w większości niebędących jeszcze sztuczną inteligencją35. Czytelnik niezaznajomiony z tą tematyką powinien dowiedzieć się, co kryje się pod pojęciem sztucznej inteligencji. Nie ma jednej uniwersalnej definicji, jednak na potrzeby niniejszego artykułu przyjmijmy, że sztuczna inteligencja to system, który pozwala na wykonywanie zadań wymagających procesu uczenia się i uwzględniania nowych okoliczności w toku rozwiązywania danego problemu i który może w różnym stopniu – w zależności od konfiguracji – działać autonomicznie oraz wchodzić w interakcję z otoczeniem36. „Uczenie się” polega na tym, że programy oparte na sztucznej inteligencji porządkują duże ilości danych, znajdują w nich powtarzalności, a następnie na bieżąco uaktualniają swój sposób działania. Takie oprogramowanie wdraża się m.in. w chińskich sądach. System 206 to program, który podczas rozprawy reaguje na słowne polecenia sędziego i wyświetla żądane strony akt sądowych, protokołuje rozprawę, rozpoznając głosy uczestników oraz samodzielnie analizuje materiał dowodowy i w oparciu o dane z poprzednich spraw wyciąga wnioski dla sędziego37. Oczywiście sposoby wykorzystywania sztucznej inteligencji przez Chiny budzą spore wątpliwości (zob. wdrażany tam System Zaufania Społecznego38), ponieważ służą do ograniczania praw obywatelskich, a nie ich upodmiotowienia. Jednak powyższy przykład pokazuje dobitnie, że na świecie dostrzeżono już potencjał zastosowania sztucznej inteligencji w wymiarze sprawiedliwości. Z kolei Brazylijski Sąd Najwyższy dysponuje programem VICTOR39, który jeszcze przed przedłożeniem akt sędziemu automatycznie analizuje dokumenty i przygotowuje sprawozdanie, by sędziowie mogli krócej zapoznawać się ze sprawą.

Ciekawym przykładem sprawy, w jakiej już teraz sztuczna inteligencja mogłaby być przydatna, są procesy tzw. frankowiczów. Program komputerowy dużo lepiej niż człowiek przeanalizowałby umowę pod kątem występowania w niej niedozwolonych postanowień umownych. Być może w przyszłości inteligentny algorytm przygotuje dla sędziego adekwatne w sprawie orzecznictwo oraz wskaże które fragmenty umów były przywoływane w uzasadnieniach rozstrzygniętych spraw. Następnie zaproponuje pytania dla świadków oraz sporządzi projekt wyroku. Po wdrożeniu e-protokołu potrafiącego automatycznie sporządzać protokół pisemny z rozprawy, algorytmy sformułują stan faktyczny sprawy40 wraz z informacją które zeznania świadków są ze sobą spójne, a które sprzeczne. Dzięki algorytmom możliwe jest zrealizowanie postulatu, by identyczne sprawy były tak samo rozstrzygane bez względu na to, do którego sędziego trafią.

Należy jednak pamiętać o zagrożeniu wynikającym z technologii samouczących się algorytmów. W USA wykorzystywane jest oprogramowanie Compas, służące przewidywaniu prawdopodobieństwa ponownego popełnienia przestępstwa przez oskarżonego. Zarzuca się mu, że jest dużo surowszy wobec osób czarnoskórych niż białych41. Wynika to z faktu, że amerykańscy sędziowie są dużo surowsi wobec mniejszości rasowych, wyroki się uprawomocniają, a następnie stanowią bazę danych dla tego typu programów. Zjawisko to może nastąpić także w mniej kontrowersyjnych sprawach, w razie „nakarmienia” sztucznej inteligencji błędnymi wyrokami lub prezentującymi nieaktualne linie orzecznicze. Stąd jeszcze przed wdrażaniem sztucznej inteligencji w sądownictwie konieczne jest przewidzenie takiej możliwości i rzetelna selekcja danych, na podstawie których w przyszłości program będzie analizował sprawę.

Wydaje się, że wraz z upływem czasu algorytmy sztucznej inteligencji powinny zostać udostępnione za darmo społeczeństwu, by każda osoba chcąca wnieść sprawę do sądu mogła wcześniej poddać ją „ocenie” sztucznej inteligencji i otrzymać informacje, jaka jest prognoza wygrania sprawy42. Szczególnie przydatna byłaby prognoza co do wysokości należnego zadośćuczynienia. Częstym zarzutem ubezpieczonych wobec zakładów ubezpieczeń jest to, że wypłacają zaniżone świadczenia, licząc, że uprawniony nie wytoczy powództwa. Udostępnienie prognozy wysokości należnego zadośćuczynienia mogłoby wpłynąć na ubezpieczycieli, by wypłacali świadczenia w tej samej wysokości. Skutkiem byłoby zmniejszenie liczby spraw w sądach.

Powyższe propozycje zakładają, że program komputerowy przeanalizuje sprawę, a ostateczną decyzję nadal będzie podejmował człowiek. Wydaje się, że kolejnym krokiem powinno być rozważenie zastąpienia referendarzy sądowych przez sztuczną inteligencję.

W niektórych szwedzkich urzędach wdrożono oprogramowanie, które samodzielnie rozpatruje wnioski o zasiłek socjalny. Algorytmy wydają decyzje w oparciu o dane wnioskodawcy z urzędów skarbowych oraz urzędów pracy. Cały proces trwa średnio minutę, czyli nieporównywalnie szybciej niż gdy pracę wykonuje człowiek. Co ciekawe, sztuczna inteligencja jest bardziej surowa od człowieka i częściej odmawia przyznania zasiłku43. Wśród możliwych wytłumaczeń surowości programu jest schematyczność myślenia komputera i brak możliwości przekonania go do zmiany zdania podczas osobistej rozmowy. Z drugiej strony, algorytm być może częściej odmawia zasiłku, ponieważ nie bierze pod uwagę czynników indywidualizujących lub nie rozumie błędnego sformułowania we wniosku, zrozumiałego dla człowieka, ale mylącego dla komputera. Niemniej unaocznia to, że współczesna technologia pozwala na wydawanie orzeczeń kształtujących ludzkie prawa, o ile program dysponuje odpowiednimi danymi. Niestety, są to rozwiązania nieznane jeszcze polskiemu sądownictwu. Jak mawiał znany pisarz science-fiction William Gibson: „przyszłość jest teraz, tylko nierówno rozłożona44”. Wydaje się, że reformowanie polskiego sądownictwa powinno polegać na wskazaniu konkretnych żmudnych czynności wykonywanych przez człowieka, a następnie zleceniu programistom ich zautomatyzowania w oparciu o już istniejące technologie.

Sztuczna inteligencja mogłaby samodzielnie rozstrzygać wnioski o zwolnienie strony od ponoszenia kosztów sądowych oraz o przyznanie pełnomocnika albo obrońcy z urzędu. Obecnie referendarze sądowi rozstrzygają wnioski w oparciu o informacje co do sytuacji majątkowej wnioskującego, co program komputerowy również jest w stanie zrobić. Celowe byłoby także zintegrowanie programu z bazą danych urzędów skarbowych na temat dochodów wnioskodawcy w poprzednich latach. Nie można jednak tracić z pola widzenia ryzyka, że wnioskodawca w chwili składania wniosku byłby w znacznie gorszej sytuacji majątkowej niż rok wcześniej. Wówczas powinien to wykazać we wniosku (o czym powinien być wcześniej pouczony), a sztuczna inteligencja poza danymi z urzędu uwzględniałaby również inne prawidłowo wykazane okoliczności. Sztuczna inteligencja powinna weryfikować także deklaracje wnioskodawcy o jego wydatkach. Wydaje się, że program powinien dysponować danymi z Głównego Urzędu Statystycznego co do średnich wysokości wydatków polskich gospodarstw domowych45 i weryfikować czy wnioskodawca ich nie zawyża. W razie wątpliwości – wzywałby wnioskodawcę do przedstawienia odpowiednich rachunków lub przekazywał rozpoznanie sprawy człowiekowi. Z kolei w przypadku przyznania pełnomocnika albo obrońcy z urzędu program musiałby uwzględnić przesłankę „trudności sprawy” w oparciu o posiadane informacje o sprawie.

Zaletą takiej automatyzacji byłoby natychmiastowe rozstrzygnięcie wniosku kilka sekund po jego złożeniu. Jednak w razie zaskarżenia orzeczenia „cyfrowego referendarza”, sprawę rozstrzygałby człowiek. Jest to konieczne wobec konstytucyjnego prawa do sądu. Taki wymóg zawarła również Komisja Europejska w Białej księdze sztucznej inteligencji, gdzie napisano, że: „cel, jakim jest wiarygodna, etyczna i ukierunkowana na człowieka sztuczna inteligencja, można osiągnąć jedynie poprzez zapewnienie odpowiedniego zaangażowania człowieka w odniesieniu do zastosowań AI wysokiego ryzyka46”. Kontrola wyników działania algorytmów przez człowieka jest konieczna szczególnie w początkowej fazie wdrażania projektu, aby ocenić jak wysoką „stabilność orzecznictwa” będzie miała sztuczna inteligencja.

Oprócz powyższych, łatwych do ustandaryzowania, wniosków referendarz sądowy wydaje także nakazy zapłaty. W Estonii wdrażany jest projekt wydawania orzeczeń przez sztuczną inteligencję nakazujących zapłatę do wysokości 7 tys. euro. Od orzeczenia można wnieść sprzeciw do sądu będącego człowiekiem47. Projekt jest obecnie w początkowej fazie rozwoju, zatem warto ocenić jego działanie w niedalekiej przyszłości i zastosować tę samą technologię do polskich nakazów zapłaty.

Strona 4 z 7« Pierwsza...23456...Ostatnia »