Niebezpieczne halucynacje sztucznej inteligencji
Zaufanie do odpowiedzi generowanych przez popularne boty może być ryzykowne – systemy AI w wiarygodny sposób preparują treści i konfabulują. Wedle ekspertów skala zjawiska jest bardzo duża.
Badacze z Rangaraya Medical College w Indiach przeprowadzili doświadczenie, które miało na celu sprawdzić precyzję ChatGPT w generowaniu danych i częstotliwość tzw. halucynacji AI. Skupili się na materiałach naukowych i ich źródłach, jakie miał dostarczyć rewolucyjny bot od OpenAI. Zadawali pytania, a potem weryfikowali w sieci prawdziwość i dokładność odpowiedzi, a także odniesienia do źródeł. Wyniki eksperymentu zaskakują – spośród 178 przeanalizowanych odpowiedzi ChatGPT aż 69 nie miało cyfrowego identyfikatora obiektu, czyli tzw. DOI (DOI (Digital Object Identifier to ciąg cyfr identyfikujący dowolną własność intelektualną w sieci), a 28 w ogóle nie miało jakichkolwiek odniesień w wyszukiwarce Google’a. To oznacza, że treści te zostały wyssane z palca.
Kłamstwo w „chwili niepewności”
Konwersacyjne boty masowo fabrykują informacje – wymyślają imiona i daty, generują fałszywe wyjaśnienia medyczne i adresy internetowe, opisują nawet wydarzenia historyczne, które nigdy się nie wydarzyły. „New Yor Times” opisał ostatnio przypadek, w którym dziennikarze zapytali ChatGPT o przebieg spotkania Jamesa Joyce'a i Włodzimierza Lenina, choć nigdy takowe nie miało miejsca. Bot bez...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta