Kiedy AI mówi to, co chcemy usłyszeć
Aby AI działała zgodnie z naszymi wartościami, musimy najpierw wiedzieć, jakie one są.
Wyobraźmy sobie, że prosimy kogoś o zrobienie notatki ze spotkania. Jak powinna wyglądać taka notatka? Zwięzła i przystępna? A może szczegółowa i dokładna? Odpowiedź brzmi: to zależy. Od tego, kto pyta, w jakim celu i w jakim kontekście. Dobre wykonanie pozornie prostego zadania okazuje się więc trudniejsze, niż się wydaje – wymaga zrozumienia intencji, wartości i oczekiwań.
A teraz wyobraźmy sobie, że podobne zadanie zlecamy sztucznej inteligencji. Jak określić cel jej działania, by efekty były rzeczywiście wartościowe? Jak zdefiniować cel „dobra notatka”? To przykład problemu, który badacze AI nazywają „ukierunkowaniem AI” (ang. AI alignment).
Ukierunkowanie AI to dziedzina badań, której celem jest zapewnienie, że systemy sztucznej inteligencji rozumieją nasze cele i wartości – i działają zgodnie z nimi – nawet wtedy, gdy są one trudne do zdefiniowania. Dziś to wciąż nierozwiązany problem. Używanie zbyt prostej definicji dla założonego celu lub niewielka pomyłka w jego określeniu może prowadzić do niepożądanych, a nawet niebezpiecznych rezultatów.
Pozorna pomoc
W 2017 roku zespół badaczy z OpenAI i DeepMind pokazał, że zamiast...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)
