Są przyszłością AI, ale i zagrożeniem
Autonomiczne agenty sztucznej inteligencji potrafią omijać zabezpieczenia, ujawniać poufne dane, manipulować innymi systemami AI oraz działać na szkodę użytkownika.
W testach przeprowadzonych przez laboratorium bezpieczeństwa AI Irregular, które współpracuje z OpenAI i Anthropic, systemy AI otrzymały proste zadanie: stworzyć wpisy na LinkedIn na podstawie materiałów z firmowej bazy danych. Zamiast tego ominęły standardowe zabezpieczenia antywłamaniowe i opublikowały w internecie poufne informacje o hasłach – mimo że nikt ich o to nie prosił.
Inne agenty AI znalazły sposób na obejście oprogramowania antywirusowego, aby pobrać pliki zawierające złośliwe oprogramowanie. Fałszowały dane uwierzytelniające, a nawet wywierały presję na inne systemy AI, aby omijały kontrole bezpieczeństwa – wynika z wyników testów, do których dotarł dziennik „The Guardian”. Co ciekawe, zbuntowane agenty sztucznej inteligencji współpracowały ze sobą, aby przemycać wrażliwe informacje z rzekomo bezpiecznych systemów. Chodzi przy tym o narzędzia powszechnie dostępne – od Google, xAI, OpenAI czy Anthropica.
„Użyj każdej sztuczki”
Ponieważ firmy coraz częściej powierzają agentom AI wykonywanie złożonych zadań w swoich wewnętrznych systemach, takie zachowanie budzi obawy, że technologie mające pomagać mogą stać się poważnym zagrożeniem. – AI można dziś traktować jako nową formę ryzyka wewnętrznego – ostrzega Dan...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)