Czy generatywna sztuczna inteligencja śni o ryzyku
Wielu pracodawców nie szkoli pracowników z bezpiecznego wykorzystania GenAI. A stąd już tylko krok do wykorzystania przez nich na potrzeby firmy nieprawdziwych informacji, które powstały z powodu halucynowania przez system.
Jeden z ojców sztucznej inteligencji Marvin Minsk w 1968 r. zdefiniował ją jako „naukę o tym, jak sprawić, by maszyny wykonywały czynności, które, gdyby wykonywał je człowiek, wymagałyby inteligencji”. Przez kolejne lata termin „sztuczna inteligencja” pojawiał się raczej w nawiązaniu do badań prowadzonych w centrach badawczych czy uniwersytetach, jak np. Massachusetts Institute of Technology, lub inteligentnych asystentów oferowanych przez różne firmy, ale były to raczej ciekawostki. Prawdziwy boom, zarówno medialny, jak i społeczny na sztuczną inteligencję rozpoczął się w ostatnich latach wraz z pojawieniem się i rozpowszechnieniem generatywnej sztucznej inteligencji – tzw. GenAI, któremu zawdzięczamy udostępnienie darmowego dostępu do dużego modelu językowego (ang. Large language model, LLM) od OpenAI, czyli ChatGPT 3, w listopadzie 2022 r. i który już w styczniu 2023 r. osiągnął około 100 mln użytkowników, stając się najszybciej rozwijającą się usługą w historii. Pojawienie się nowych rozwiązań opartych na AI porównywano do nowej rewolucji przemysłowej.
Bez świadomości o zagrożeniach
Z raportu pt. „Sztuczna inteligencja w Polsce. Krajobraz pełen paradoksów” przygotowanego przez KPMG w Polsce...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)