Responsible AI – jak ustalić metryki wykonalności
Aby zbudować matrycę wskaźników etycznej AI, należy najpierw ustanowić zasady, które będą stosowane w procesie projektowania, rozwijania, wdrażania i stosowania sztucznej inteligencji. Powinny one wynikać z ducha organizacji i wartości, które są w niej przyjęte.
Kto właściwie powinien odpowiadać za monitorowanie wskaźników wykonalności (KPI) dla odpowiedzialnej (responsible) i godnej zaufania (trustworthy) sztucznej inteligencji? Sama odpowiedzialność za postępowanie organizacji (czy raczej jej pracowników) spoczywa na zarządzie, ale przecież operacyjnie ktoś musi zapewnić monitoring (także w zakresie jakości) i podejmować działania (corrective actions), które przywrócą stan pożądany. O tym „porozmawiamy” innym razem, dzisiaj natomiast zostanie poruszona tematyka wskaźników (KPI) „wykonalności” dla ResponsibleAI – koncepcji tzw. odpowiedzialnej sztucznej inteligencji.
Czy da się mierzyć poprawę dobrostanu
Znaczenie wskaźników etycznej AI jest ogromne, nawet jeżeli dzisiaj nie zdajemy sobie jeszcze z tego sprawy. Wyzwanie, przed którym stoimy w tym zakresie, to przełożenie, na pierwszy rzut oka, bardzo abstrakcyjnych oczekiwań na konkretne wymagania o charakterze organizacyjnym i technicznym.
Zapytajcie inżyniera oprogramowania czy specjalistę od danych, jak mierzy zasadę „przyczyniania się do poprawy dobrostanu społecznego i środowiskowego” albo odpowiedzialności i rozliczalności czy nawet przejrzystości. Pewnie jest jakieś prawdopodobieństwo, że pokaże, jak podchodzi do kwestii uczciwości (fairness) czy wskaźników wyjaśnialności, ale raczej będzie to coś, co wykorzystuje na własne...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta