Halucynacje algorytmów
Jesteś tym, co jesz, a sztuczna inteligencja karmi się danymi. Jeśli bot uczy się na fałszywych informacjach, będzie generował kłamstwa – mówią eksperci AI.
Bot może oszukać lekarza, który chce skonsultować przypadek medyczny, wprowadzić w błąd studentów piszących pracę egzaminacyjną czy sfabrykować podstawę prawną dla uzasadnienia sądowego. Te wszystkie prawdziwe przypadki pokazują, że ChatGPT i Bard – przynajmniej na razie – nie są narzędziami, którym można bezgranicznie zaufać.
Eksperci potwierdzają, że sztuczna inteligencja fabrykuje treści, powołując się na nieistniejące źródła. Badacze z Rangaraya Medical College w Indiach pokazali, że bot w 38 proc. przypadków podawał wątpliwe odpowiedzi.
Dlaczego AI halucynuje? Piotr Biczyk z QED Software uważa, że niektóre wadliwe odpowiedzi mogą wynikać z celowych lub nieumyślnych błędów w danych wejściowych.
– AI karmi się danymi, a jak mawiają dietetycy, jesteś tym, co jesz. Sztuczna inteligencja musi się uczyć z wiarygodnych źródeł – przyznaje Piotr Kawecki, prezes ITBoom.