Sztuczna inteligencja a ochrona danych
Wiele systemów opartych na AI to technologie wysokiego ryzyka. Konieczne jest więc podjęcie dodatkowych środków technicznych i organizacyjnych, które ograniczą potencjalnie niebezpieczne skutki dla osób fizycznych.
W ostatnim czasie szerokim echem odbiło się wprowadzenie na rynek i udostępnienie narzędzia ChatGPT, które umożliwia wykorzystanie sztucznej inteligencji (AI) do tworzenia zaawansowanych tekstów (human-like texts). Szczególnie dużo mówi się o jego najnowszej wersji ChatGPT 4, która posiada możliwość analizowania nie tylko tekstu, ale również obrazu, dźwięku, czy nagrań wideo, dzięki czemu wielość potencjalnych zastosowań oprogramowania znacznie wzrosła. Nie ulega jednak wątpliwości, że wykorzystywanie narzędzi z zakresu sztucznej inteligencji może nieść za sobą różne ryzyka, w tym prawne, którym warto się bliżej przyjrzeć. Kwestia ta jest istotna, w szczególności mając na uwadze niedawną decyzję włoskiego organu ochrony danych (wł. Garante per la protezione dei dati personali, GPDP) tymczasowo zakazującą używania ChatGPT. Została ona wydana w związku z incydentem z dnia 20 marca 2023 roku, kiedy wyciekły dane użytkowników w zakresie rozmów oraz informacji dotyczących płatności za oprogramowanie. Administratorowi zarzucono również nieinformowanie użytkowników co do zakresu danych zbieranych przez program oraz podstawy prawnej ich gromadzenia i przetwarzania, w związku z czym urząd nakazał zaprzestanie przetwarzania danych użytkowników do czasu wyjaśnienia problematycznych kwestii. Spółka odpowiedzialna za ChatGPT podjęła...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta