„Syndrom oszusta”. Boty prowadzą do groźnego zachowania w firmie
Tylko co trzecia firma w naszym kraju nadzoruje korzystanie z narzędzi sztucznej inteligencji w pracy, tymczasem pracownicy masowo jej używają, co więcej, skrzętnie ukrywają to przed szefami. A to poważny problem.
Zjawisko Shadow AI, czyli korzystanie z technologii sztucznej inteligencji poza wiedzą i kontrolą firm i instytucji, to coraz większe wyzwanie. Jak ostrzega Przemysław Wójcik, prezes AMP, spółki specjalizującej się w cyberbezpieczeństwie, niewłaściwe korzystanie z AI przez pracowników może prowadzić do strat finansowych, wycieku poufnych danych, a także do przygotowania fałszywych analiz lub porad na podstawie sfałszowanych danych. A najnowsze badania AMP są alarmujące – jedynie jedno na trzy przedsiębiorstwa w Polsce wprowadziło jakiekolwiek formalne zasady dotyczące używania AI. W sektorze publicznym – w samorządach, szpitalach i przychodniach – odsetek ten jest jeszcze niższy.
Co pracownicy wpisują w okna chatbotów?
Analizy AMP wskazują jasno – niemal 70 proc. pracowników w naszym kraju korzysta z narzędzi AI bez wiedzy działu IT. Co więcej, aż blisko trzy czwarte badanych wklejało treści firmowe do okien chatbotów, jak ChatGPT lub Gemini, bez niezbędnej oceny ryzyka. Alarmujące dane pokrywają się z wyliczeniami PwC – według nich odsetek polskich pracowników, którzy nie mają formalnej zgody na korzystanie z narzędzi generatywnej AI w pracy wynosi aż 80 proc.
Pracownicy sięgają po boty do wyszukiwania i weryfikowania informacji (69 proc.) oraz jako wsparcie...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)
