Ochrona praw osób kontra sztuczna inteligencja
Decyzje określane jako systemy wysokiego ryzyka nie mogą być podejmowane w sposób całkowicie zautomatyzowany – konieczny jest udział człowieka.
Sztuczna inteligencja (AI) wykorzystywana jest obecnie w wielu dziedzinach – od diagnostyki medycznej, przez personalizowane rekomendacje, do analizy ryzyka finansowego – usprawniając i ułatwiając różne działania w naszym życiu. Jednak, niesie ona ze sobą także potencjalne ryzyka, takie jak niewłaściwe wykorzystanie danych, profilowanie czy utrata kontroli nad decyzjami podejmowanymi przez systemy AI. Kluczowe staje się zatem zbalansowanie innowacji z ochroną praw osobistych.
Decyzje zautomatyzowane
Podstawowe pola, na których codziennie stykamy się z AI są związane ze zautomatyzowanym (bez udziału człowieka) podejmowaniem decyzji i profilowaniem. Kwestia uprawnień osoby w związku ze zautomatyzowanym podejmowaniem decyzji nie jest nowa, znajdziemy ją w RODO, obejmuje ją polska polityka dla rozwoju sztucznej inteligencji z 2020 roku. Ostatecznie, rozporządzenie UE w sprawie sztucznej inteligencji („AI ACT”), nakłada obowiązek nadzoru ze strony człowieka nad systemami sztucznej inteligencji wysokiego ryzyka.
Systemy...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta