Korzystając z AI, trzeba zadbać o bezpieczeństwo danych
Czy myśląc o systemach AI, bierzemy pod uwagę (cyber)bezpieczeństwo? I czy rozumiemy specyfikę tych systemów? Kwestie te w najbliższych latach zyskają na znaczeniu, co będzie wymagało nowych kompetencji i zasobów (ludzkich, technicznych).
Pewnie część z organizacji, które reprezentujecie, patrzy na wykorzystanie danych w połączeniu z systemami sztucznej inteligencji, dostrzegając potencjał, który tkwi w mądrym i bezpiecznym wykorzystaniu danych. Co do tego nie mam żadnych wątpliwości. Pytanie tylko, czy tak samo patrzą one na kwestie związane z cyberbezpieczeństwem AI, nawet jeżeli są już prawnie zobowiązane do wdrożenia systemu zarządzania bezpieczeństwem informacji (NIS2) czy zarządzania ryzykiem ICT (DORA). Innymi słowy, czy myśląc o systemach AI, myślimy też o kwestii (cyber)bezpieczeństwa? I jeżeli tak, to czy rozumiemy specyfikę, jaką takie systemy się charakteryzują. To kluczowe kwestie, które w najbliższych latach zyskają na znaczeniu, a dla tych, którzy je już uwzględniają, nabiorą rozpędu, co będzie wymagało nowych kompetencji (a co najmniej wiedzy) oraz zasobów (ludzkich, technicznych).
Główne wyzwanie dla organizacji
Tym bardziej że w badaniu przeprowadzonym przez PwC (https://www.pwc.com/gx/en/ceo-survey/2024/download/27th-ceo-survey.pdf) „na próbce CEO” wyraźnie widać, że cyberzagrożenia to jedno z głównych wyzwań dla organizacji (akurat tutaj w odniesieniu do generatywnej AI, ale uwaga jest znacznie szersza). Potwierdza to zresztą ostatni raport OWASP TOP 10 LLM 2025...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta