Komu nerkę, komu przeszczep?
O ile pewne założenia można „skodyfikować” i przenieść na grunt algorytmu postępowania, o tyle indywidualne scenariusze, które wymagają oceny moralnej, są tak liczne (wręcz nieskończone) i wielowątkowe, że ich uchwycenie i ocena mogą nastręczać wiele problemów.
Czy moralność da się opisać i zakodować w sztucznej inteligencji? Da się! Wszystko można, trzeba tylko chcieć.
W sytuacji, w której chcemy zaprojektować system AI zgodny z jakimś kodeksem etycznym czy po prostu zasadami (w znaczeniu, że ten system będzie „postępował” w założony sposób), natrafimy na wiele pytań, na które dzisiaj może być nam trudno odpowiedzieć. Sam dobór danych, które będziemy chcieli wykorzystać do wytrenowania modelu, na którym oprzemy nasz system, może być problematyczny, szczególnie jeżeli zależy nam na zapewnieniu fairness, czyli swoistej sprawiedliwości i uczciwości (jakkolwiek z inżynieryjnego punktu widzenia jest to nadal wyzwanie).
W swoich felietonach często piszę o odpowiedzialnym i etycznym podejściu do projektowania, rozwijania, wdrażania i stosowania systemów sztucznej inteligencji, ale dzisiaj chciałbym pójść o krok dalej i „porozmawiać” o tym, czy same systemy możemy zaprogramować tak, aby ich działania i decyzje były zgodne z założonym i wybranym sposobem postępowania, który nazwijmy roboczo kodeksem etycznym dla AI. Nie ukrywam, że felieton powstał dzięki inspiracji książką „Moral AI: And How We Get There”, która nie tylko wskazuje wyzwania, ale także stara się podrzucić pomysły do rozwiązywania problemów.
AI jako wsparcie procesów decyzyjnych ...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta