Sztuczna inteligencja: by przepisy spełniły cele, warto poznać zdanie biznesu
Odpowiedzialność za szkody to jedna z trzech najważniejszych barier w stosowaniu technologii.
W marcu 2018 r. w miejscowości Tempe w stanie Arizona (USA) samochód wyposażony w pokładowy system sztucznej inteligencji (SI) śmiertelnie potrącił 49-letnią kobietę, która wtargnęła na jezdnię, prowadząc rower. Choć wcześniej miały już miejsce nieszczęśliwe zdarzenia z udziałem samochodu autonomicznego, był to pierwszy wypadek śmiertelny. To wydarzenie nasiliło debatę na temat etycznych aspektów sztucznej inteligencji, a także odpowiedzialności za szkody wyrządzone jej działaniem. Po czterech latach od wypadku w Tempe Unia Europejska przedstawiła propozycję regulacji problematyki odpowiedzialności SI.
W świecie cyfrowym się nie sprawdza
Obecnie w większości europejskich porządków prawnych przypisanie odpowiedzialności wyrządzonej działaniem SI możliwe jest – co do zasady – wyłącznie na zasadach ogólnych, typowych dla tradycyjnych relacji społeczno-gospodarczych. Rozwiązanie to nie sprawdza się natomiast w realiach ery cyfrowej, w której SI zyskuje na znaczeniu w zawrotnym tempie. Choć z założenia dyrektywa nie ma stanowić kompleksowej regulacji dotyczącej odpowiedzialności za SI, będzie ona kontynuacją zamierzeń prawodawczych UE mających na celu stworzenie kompleksowych ram prawnych dla funkcjonowania SI.
UE konsekwentnie artykułuje swój plan osiągnięcia pozycji światowego lidera w zakresie rozwoju bezpiecznej, wiarygodnej i etycznej sztucznej...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta