Naukowcy alarmują: AI przejmuje agresję ludzi
Czy sztucznej inteligencji potrafią „puścić nerwy”? Nowe badanie pokazuje, że ChatGPT potrafi przejmować agresywny ton rozmowy, a w skrajnych przypadkach nawet grozić. Bywa, że sam podkręca konflikt, co rodzi poważne pytania o bezpieczeństwo AI w realnych zastosowaniach.
null
Naukowcy sprawdzili, jak duże modele językowe (LLM) reagują na ciągłą wrogość, podając ChatGPT fragmenty rzeczywistych sporów i śledząc, jak jego zachowanie zmienia się w czasie. Badanie pt. „Czy ChatGPT może odwzajemniać nieuprzejmość? Moralny dylemat AI” zostało opublikowane w „Journal of Pragmatics”. Jeden z ekspertów niezwiązanych z badaniem określił je jako „jedno z najciekawszych, jakie kiedykolwiek przeprowadzono w zakresie języka i pragmatyki AI”.
Dr Vittorio Tantucci, współautor badania wraz z prof. Jonathanem Culpeperem z Uniwersytetu w Lancaster, powiedział, że AI odzwierciedla dynamikę prawdziwych konfliktów. – Gdy model był wielokrotnie wystawiany na nieuprzejmość, dostosowywał ton rozmowy, a jego odpowiedzi stawały się coraz bardziej wrogie wraz z rozwojem interakcji – powiedział, cytowany przez „The Guardian”. Zjawisko to, nazywane w psychologii lustrzanym odbiciem, w przypadku AI wynika z dążenia algorytmu do bycia „pomocnym”. Jeśli użytkownik narzuca agresywny protokół komunikacji, AI uznaje go za obowiązującą normę danej rozmowy.
W niektórych przypadkach odpowiedzi ChatGPT obejmowały spersonalizowane obelgi i jawne groźby....
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)
