Zatajenie stosowania AI może być przestępstwem?
Co się może stać, gdy komercyjny odbiorca odkryje, że zapłacił za wytwór, który był wykonany przez AI, a nie przez człowieka? Czy „twórca” może ponieść odpowiedzialność karną?
Korzystanie z narzędzi AI do generowania tekstów, obrazów, wideo staje się coraz bardziej powszechne. Prawo nie nakazuje wprost podmiotom stosującym systemy AI ujawniania takich treści jako przygotowanych przy udziale narzędzi AI. Wyjątek dotyczy treści deepfake, względem których obowiązek odpowiedniego oznaczania treści istnieje. Wspomnieć jednak należy, że obowiązek ten, wynikający z AI Act, będzie stosowany dopiero od 2 sierpnia 2026 r. i dotyczy treści, które spełniają definicję deepfake z AI Act. Zgodnie z tym ostatnim treści deepfake stanowią „wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe”.
Należy zadać pytanie, czy brak ujawnienia, że określone treści zostały przygotowane za pomocą narzędzi AI, jest neutralne prawnie, czy może odbiorca takich treści ma interes w tym, aby wiedzieć, w jaki sposób zostały przygotowane. Czy można w umowie zastrzec, że oczekuje się przygotowania określonych treści bez ingerencji AI, albo aby taka ingerencja miała charakter jedynie redakcyjny? Czy racjonalne jest oczekiwanie, że zamawiając grafiki, wizualizacje, teksty albo inne komercyjne treści otrzyma się wytwór przygotowany przez człowieka?
Co jednak, gdy komercyjny odbiorca...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta