Jak określić zakres wymogów dla „operatora” systemu AI
Organizacja powinna przeanalizować stan wykorzystywania AI. To pomoże jej w ustaleniu, czy będą jej dotyczyły przepisy AI Act, a jeśli tak, to w jakich sytuacjach.
Niedawno Komisja Europejska podjęła ważną decyzję o powołaniu biura ds. sztucznej inteligencji. Nie jest to wprawdzie organ, który ma być wyznaczony do realizacji obowiązków wynikających z AI Act, ale niewątpliwie dostajemy ważny sygnał, że projekt rozporządzenia w sprawie sztucznej inteligencji zostanie uchwalony zgodnie z planem i jeszcze w tym roku wejdzie w życie z różnymi terminami na dostosowanie, poczynając od sześciu miesięcy dla tzw. praktyk zakazanych. Oczywiście Unia Europejska może nas zaskoczyć, ale załóżmy, że wejście rozporządzenia w życie jeszcze w tym roku jest wysoce prawdopodobne.
Nie zachęcam do rzucania się do pogłębionej analizy luki, ale też nie zniechęcam. To, o czym piszę w dzisiejszym felietonie, to podejście do diagnozy stanu wykorzystania AI, która może nam posłużyć do budowania systemu zarządzania (np. na wzór tego określonego w ISO/IEC 42001:2023) będącego ważną częścią AI Governance. AI Governance to bowiem nie (tylko) compliance, ale także bardziej efektywne i bezpieczne wykorzystanie systemów sztucznej inteligencji.
AI Act budzi wiele emocji, najczęściej wynikających z braku wiedzy o tym, kogo będą obejmowały przepisy oraz w jakich sytuacjach. Rzeczywiście, patrząc na zakres podmiotowy i przedmiotowy, można dojść do wniosku, że zarówno dostawcy (twórcy) systemów sztucznej inteligencji, jak...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta