Używamy plików cookies, by ułatwić korzystanie z naszych serwisów.
Jeśli nie chcesz, by pliki cookies były zapisywane na Twoim dysku zmień ustawienia swojej przeglądarki.

Szukaj w:
[x]
Prawo
[x]
Ekonomia i biznes
[x]
Informacje i opinie
ZAAWANSOWANE

Halucynacje algorytmów

21 lipca 2023 | Pierwsza strona | Michał Duszczyk

Jesteś tym, co jesz, a sztuczna inteligencja karmi się danymi. Jeśli bot uczy się na fałszywych informacjach, będzie generował kłamstwa – mówią eksperci AI.

Bot może oszukać lekarza, który chce skonsultować przypadek medyczny, wprowadzić w błąd studentów piszących pracę egzaminacyjną czy sfabrykować podstawę prawną dla uzasadnienia sądowego. Te wszystkie prawdziwe przypadki pokazują, że ChatGPT i Bard – przynajmniej na razie – nie są narzędziami, którym można bezgranicznie zaufać.

Eksperci potwierdzają, że sztuczna inteligencja fabrykuje treści, powołując się na nieistniejące źródła. Badacze z Rangaraya Medical College w Indiach pokazali, że bot w 38 proc. przypadków podawał wątpliwe odpowiedzi.

Dlaczego AI halucynuje? Piotr Biczyk z QED Software uważa, że niektóre wadliwe odpowiedzi mogą wynikać z celowych lub nieumyślnych błędów w danych wejściowych.

– AI karmi się danymi, a jak mawiają dietetycy, jesteś tym, co jesz. Sztuczna inteligencja musi się uczyć z wiarygodnych źródeł – przyznaje Piotr Kawecki, prezes ITBoom.

Wydanie: 12627

Wydanie: 12627

Spis treści
Zamów abonament