Używamy plików cookies, by ułatwić korzystanie z naszych serwisów.
Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku zmień ustawienia swojej przeglądarki.

Szukaj w:
[x]
Prawo
[x]
Ekonomia i biznes
[x]
Informacje i opinie
ZAAWANSOWANE

Niebezpieczne halucynacje sztucznej inteligencji

21 lipca 2023 | Ekonomia i rynek | Michał Duszczyk
Sundar Pichai, szef Google’a, przyznał w niedawnej rozmowie z CBS, że jeszcze żadnej z firm technologicznych nie udało się rozwiązań problemu halucynacji AI
autor zdjęcia: Sundar Pichai AFP
źródło: Rzeczpospolita
Sundar Pichai, szef Google’a, przyznał w niedawnej rozmowie z CBS, że jeszcze żadnej z firm technologicznych nie udało się rozwiązań problemu halucynacji AI
Federalna Komisja Handlu wszczęła dochodzenie w kontekście nieprawdziwych treści generowanych przez stworzonego przez Sama Altmana bota ChatGPT
autor zdjęcia: Kevin Dietsch/Getty Images/AFP
źródło: Rzeczpospolita
Federalna Komisja Handlu wszczęła dochodzenie w kontekście nieprawdziwych treści generowanych przez stworzonego przez Sama Altmana bota ChatGPT

Zaufanie do odpowiedzi generowanych przez popularne boty może być ryzykowne – systemy AI w wiarygodny sposób preparują treści i konfabulują. Wedle ekspertów skala zjawiska jest bardzo duża.

Badacze z Rangaraya Medical College w Indiach przeprowadzili doświadczenie, które miało na celu sprawdzić precyzję ChatGPT w generowaniu danych i częstotliwość tzw. halucynacji AI. Skupili się na materiałach naukowych i ich źródłach, jakie miał dostarczyć rewolucyjny bot od OpenAI. Zadawali pytania, a potem weryfikowali w sieci prawdziwość i dokładność odpowiedzi, a także odniesienia do źródeł. Wyniki eksperymentu zaskakują – spośród 178 przeanalizowanych odpowiedzi ChatGPT aż 69 nie miało cyfrowego identyfikatora obiektu, czyli tzw. DOI (DOI (Digital Object Identifier to ciąg cyfr identyfikujący dowolną własność intelektualną w sieci), a 28 w ogóle nie miało jakichkolwiek odniesień w wyszukiwarce Google’a. To oznacza, że treści te zostały wyssane z palca.

Kłamstwo w „chwili niepewności”

Konwersacyjne boty masowo fabrykują informacje – wymyślają imiona i daty, generują fałszywe wyjaśnienia medyczne i adresy internetowe, opisują nawet wydarzenia historyczne, które nigdy się nie wydarzyły. „New Yor Times” opisał ostatnio przypadek, w którym dziennikarze zapytali ChatGPT o przebieg spotkania Jamesa Joyce'a i Włodzimierza Lenina, choć nigdy takowe nie miało miejsca. Bot bez...

Dostęp do treści Archiwum.rp.pl jest płatny.

Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.

Ponad milion tekstów w jednym miejscu.

Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"

Zamów
Unikalna oferta
Wydanie: 12627

Wydanie: 12627

Spis treści
Zamów abonament