Boty otworzą drzwi hakerom?
Nieodpowiednie wdrażanie i wykorzystywanie narzędzi AI w przedsiębiorstwach może prowadzić do poważnych zagrożeń cybernetycznych. Ponad połowa ekspertów boi się, że wprowadzą one luki w zabezpieczeniach kodu.
Narzędzia AI są doceniane za liczne usprawnienia i optymalizacje w działalności firm, w tym również za możliwość wykrywania błędów w kodzie czy kontroli jego spójności. Ale sztuczna inteligencja może być też źródłem kłopotów w tym zakresie. Tomasz Dziedzic, chief technology officer w Linux Polska, mówi wprost: używanie AI na jej aktualnym etapie rozwoju wiąże się z wieloma wyzwaniami.
– Narzędzia AI do tworzenia kodu nadal wymagają ścisłej współpracy z programistą, który dokładnie określi założenia projektowe, będzie potrafił skontrolować uzyskane efekty, a także wyjdzie poza schematy, na podstawie których działa sztuczna inteligencja – tłumaczy.
Groźne luki winą AI
Choć większość deweloperów uważa, że sztuczna inteligencja przyczyniła się do poprawy bezpieczeństwa kodu, część ma w tym zakresie odmienną opinię. Głównym argumentem jest fakt, że narzędzia AI czasami wprowadzają luki w zabezpieczeniach kodu. Takie otwarte drzwi dla hakerów to przepis na problemy. Wizja ta budzi niepokój u ponad połowy specjalistów. Ci podkreślają, że – choć wiele procesów może zostać zautomatyzowanych – nadal nadzór nad nimi...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)
