Inteligencja sztuczna, ale ryzyko realne
Ryzyka AI powinny podlegać ocenie także w kontekście apetytu na ryzyko danej organizacji.
Gdy myślimy o ryzyku sztucznej inteligencji, to coraz rzadziej w naszej wyobraźni pojawiają się wizje rodem z terminatora, a częściej „uszkodzone” dane czy złośliwe oprogramowanie, które prowadzi do niewłaściwego działania naszego oprogramowania. Rozwój narzędzi i rozwiązań opartych na uczeniu maszynowym czy głębokim, ale i przetwarzaniu języka naturalnego, spowodował równoległy „rozwój” ryzyk związanych z ich funkcjonowaniem. Zależność od historycznych danych, pewien poziom autonomii czy poleganie na dostawcach będących podmiotami trzecimi powoduje, że decydując się na wdrożenie AI w organizacji, musimy co najmniej rozumieć jej specyfikę, a w idealnym – i docelowym – scenariuszu posiadać odpowiednie ramy pozwalające na zarządzanie ryzykiem AI przy jednoczesnej kontroli innych (szczególnie tych ICT), które również mogą nas dotykać w związku z poleganiem na technikach i podejściach określanych mianem sztucznej inteligencji.
AI Act to wymusi
Wielokrotnie wspominany AI Act (a konkretnie jego art. 9) będzie „wymuszał” posiadanie systemów zarządzania ryzykiem w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka, ale patrząc na cały obszar wykorzystania AI można przyjąć, że analogiczne działania należy podjąć także w przypadku „innych” systemów, które w dalszym ciągu mogą generować ryzyko dla organizacji lub jej klientów....
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta