Bot otwiera drzwi do tajemnic firmy
Już 13 proc. przedsiębiorstw i instytucji zgłosiło naruszenia bezpieczeństwa modeli lub aplikacji AI. Niemal w każdym z tych przypadków brakowało kontroli dostępu do takich narzędzi.
Ledwie GPT-5 zadebiutował, a już ten najnowszy duży model językowy (LLM) od OpenAI został złamany, choć na szczęście nie przez hakerów, lecz badaczy bezpieczeństwa. Wystarczyły im ledwie 24 godziny. Premiera narzędzia pokazała, że sztuczna inteligencja stanie się codziennością i podstawą działalności praktycznie większości biznesów, ale działania ekspertów dowiodły, iż teraz istotne stają się kwestie zabezpieczeń systemów AI.
GPT-5 zhakowany
Błyskawiczne zhakowanie GPT-5 ujawniło krytyczne luki i poddało w wątpliwość gotowość technologii do wdrożeń w środowiskach korporacyjnych, gdzie bezpieczeństwo danych jest priorytetem. Za tym „eksperymentem” stały dwie znane firmy z branży cyberbezpieczeństwa – NeuralTrust i SPLX. Co ciekawe, niezależnie od siebie zademonstrowały, jak można ominąć wbudowane w model mechanizmy ochronne. Badacze z NeuralTrust wykorzystali autorską technikę „Echo Chamber” (z ang. komora echa), połączoną z...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)
