Korzystanie z AI to także ryzyko
Wielu użytkowników nie zdaje sobie nawet sprawy, że boty – jak każde oprogramowanie – bywają pełne luk.
O potencjalnych zagrożeniach mogli przekonać się np. użytkownicy DeepSeek, chińskiego modelu AI, który przebojem w styczniu wdarł się na rynek. Jak się okazuje, system posiada poważne luki w zabezpieczeniach. Wykryli je właśnie eksperci Palo Alto Networks. Ostrzegają, że te podatności stanowią ryzyko dla korzystających z niego przedsiębiorstw. Badacze twierdzą, że są niebezpieczne dla firmowych danych.
Groźne furtki w AI
DeepSeek miał podbić świat i zrewolucjonizować podejście do trenowania modeli językowych. Twórcy deklarowali, że jest tani i może uczyć się szybciej niż najlepsze dostępne na rynku rozwiązania. Specjaliści z Palo Alto Networks (PAN) odkryli jednak, że za tą fasadą kryje się oprogramowanie zawierające krytyczne luki bezpieczeństwa. Mogą one prowadzić nie tylko do wycieków danych użytkowników, ale również do wzrostu cyberprzestępczości. Badacze z jednostki Unit 42 PAN podkreślają, iż na pierwszy rzut oka DeepSeek wydaje się być tak samo wydajny jak najnowocześniejsze narzędzia oferowane przez OpenAI i Google, co więcej, został wydany na licencji open source, więc każdy programista może go modyfikować bez konieczności...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta