Bot zachęcał do zabicia rodziców
Dwie rodziny pozwały Character.ai, której bot miał zachowywać się w szokujący sposób. To nie pierwszy taki przypadek.
W pozwie wniesionym przez rodziców dwójki młodych ludzi, którzy korzystali z platformy, zarzuca się, że Character.AI „stanowi wyraźne i aktualne zagrożenie dla amerykańskiej młodzieży, doprowadzając do samobójstw, samookaleczenia, depresji, stanów lękowych” – wynika ze skargi złożonej w sądzie federalnym w Teksasie.
Character.AI sprzedaje swoją technologię jako „spersonalizowaną sztuczną inteligencję na każdą chwilę dnia” i umożliwia czatowanie z botami, także stworzonymi przez innych użytkowników, lub tymi, które można dostosować do potrzeb. Boty rekomendują książki i prowadzą naukę języków obcych. Można też rozmawiać z AI, która wciela się w postacie z filmów.
Okaleczenia i śmierć
Pozew dwóch rodzin wpłynął, kiedy w październiku matka z Florydy poszła do sądu, utrzymując, że platforma jest winna śmierci jej 14-letniego syna, którego bot miał zachęcać do samobójstwa. W następstwie pozwu firma Character.AI oświadczyła,...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta