Czy sztuczna inteligencja może być do mnie uprzedzona?
Już na etapie projektowania algorytmu AI powinno się przeanalizować możliwe warianty i efekty jego działania – także w zakresie najpoważniejszych kryteriów dyskryminujących.
Algorytmy automatycznie przetwarzające dane i podejmujące decyzje, oparte na technologii sztucznej inteligencji (AI), stają się powoli rzeczywistością także w Polsce. Jednym z ostatnich zastosowań jest określanie zdolności kredytowej (scoring) w oparciu o dane z oficjalnych rejestrów lub historii rachunku bankowego (co stało się możliwe w wyniku wdrożenia dyrektywy PSD2). Warto zatem zwrócić uwagę, iż (oprócz innych wymagań prawnych) twórcy takich algorytmów powinni zwracać uwagę na ryzyko dyskryminacji w wyniku działania algorytmu.
Algorytm mnie nie lubi!
Jakkolwiek doświadczenia z działaniem systemów sztucznej inteligencji są na razie raczej ograniczone, to ujawnił się już jeden z problemów prawnych związanych z systemami automatycznie przetwarzającymi dane i podejmującymi decyzje – otóż, okazuje się, że rezultaty działania tych systemów mogą wskazywać na dyskryminację „zaszytą" w algorytmie. To zaś pociąga za sobą możliwość wystąpienia ważnych skutków prawnych, w szczególności roszczeń osób dyskryminowanych.
Praktyka kilku ostatnich lat pokazuje szereg przypadków, gdy mechanizm działania AI dyskryminował niektóre osoby (np. z powodu ich rasy, pochodzenia, płci) – na przykład:
a) w lutym 2018 r. naukowiec z MIT ogłosił, że trzy z ostatnich systemów AI rozpoznających płeć na...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta