Przed zastosowaniem skontaktuj się... czyli o incydentach AI
Jednym z zadań w kontekście budowania AI Governance będzie „zarządzanie” procesem obsługi incydentów i takie jego skonstruowanie, aby odpowiadał on naszym potrzebom – prawnym, regulacyjnym czy operacyjnym.
Rozbieżności w zakresie rozumienia podstawowych pojęć powodują, że tworzenie wewnętrznej (spójnej) taksonomii to droga przez mękę. To, jak rozumiemy takie pojęcia jak „incydent”, „incydent związany z ICT”, „incydent AI” czy „poważny incydent”, ma znaczenie nie tylko w kontekście operacji czy w zakresie bezpieczeństwa, ale także prawa. Szereg przepisów nakładać będzie bowiem na nas obowiązek raportowania incydentów oraz zarządzania nimi w określony sposób.
Do napisania tekstu skłonił mnie ostatni dokument OECD – „Defining AI Incidents and Related Terms”, który w założeniu ma pomóc w stworzeniu wspomnianej jednolitej siatki pojęciowej w obszarze AI. Jest to o tyle istotne, że rozumienie incydentów AI będzie się bardzo różniło względem tego, co znajdziemy w przepisach i regulacjach odnoszących się do obszaru ryzyk ICT czy bezpieczeństwa. W konsekwencji praca, którą trzeba wykonać w celu skoordynowania wszelkich obowiązków związanych z incydentami, będzie znacznie większa.
Definicja OECD
Jak więc incydenty AI definiuje OECD?
Incydent związany ze sztuczną inteligencją to zdarzenie, okoliczność lub seria zdarzeń, w których rozwój, użytkowanie lub nieprawidłowe działanie jednego lub większej liczby systemów sztucznej inteligencji bezpośrednio lub pośrednio prowadzi do jednej z następujących...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta