W razie wątpliwości, sędzia powinien zrezygnować z użycia AI
Polska to nie Chiny, w których sztuczna inteligencja opracowuje całą sprawę i daje propozycję rozstrzygnięcia. Ludzki pierwiastek w sądach jest nie do przecenienia – podkreśla Karolina Rokita ze Stowarzyszenia Sędziów Polskich „Iustitia”.
Sztuczna inteligencja powoli wkracza do sądów. Czy może zakłócić wymierzanie sprawiedliwości?
Jeśli chodzi o polskie sądy – bardzo powoli. Obecnie sądownictwo nie dysponuje żadnymi narzędziami opartymi na sztucznej inteligencji. Pewne rozwiązania są na etapie wstępnych pilotaży. Jeśli chodzi o sferę technologiczną, jesteśmy niestety w europejskim i światowym ogonie. Natomiast zawsze warto z wyprzedzeniem myśleć o potencjalnych zakłóceniach, być na nie przygotowanym. Sztuczna inteligencja – tak jak każda technologia – może przynieść wiele korzyści, ale też zagrożeń. Przykładem mogą być uprzedzenia (bias) i halucynacje systemów czy chociażby materiały deepfake (wygenerowane lub zmanipulowane przez sztuczną inteligencję obrazy, treści dźwiękowe lub wideo) w postępowaniu dowodowym. Dlatego wszelkie innowacje związane z AI należy wprowadzać stopniowo, opierając się na przemyślanej strategii i z dochowaniem najwyższych standardów bezpieczeństwa. Mamy się od kogo uczyć, bo sztuczna inteligencja z powodzeniem wspiera wymiar sprawiedliwości w wielu krajach.
Kieruje pani zespołem do spraw cyfryzacji w Stowarzyszeniu Sędziów Polskich „Iustitia”, który opracował rekomendacje dla sędziów w zakresie stosowania sztucznej inteligencji. Jaki jest cel powstania rekomendacji?
Polskie sądy cały czas stoją przed wyzwaniem szerokiej...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)