Potrzebne jest centrum kompetencji do ochrony wyborów
Doświadczenia tegorocznych wyborów pokazały, że potrzebny jest jeden, apolityczny organ, który umie reagować na problemy z moderacją treści, z weryfikacją i oznaczaniem kont czy z nadzorem nad reklamą polityczną – mówi Jakub Szymik z Obserwatorium Demokracji Cyfrowej.
Jakie zagrożenia dla procesu wyborczego wynikają z rozwoju nowych technologii? Rozumiem, że największy problem stanowi tu sztuczna inteligencja?
AI faktycznie wpływa na to, jak treści wyborcze rozchodzą się w internecie. Daje możliwość masowej produkcji treści, co bardzo przyspiesza tworzenie różnych informacji, które nie zawsze są w pełni zgodne z rzeczywistością. Tak naprawdę jednak jest to naturalna kontynuacja wcześniejszych problemów. Przestrzeń internetowa jest bardzo sfragmentaryzowana, a państwo nie nadąża za nowymi technologiami i taktykami stosowanymi w reklamie politycznej czy skrzywień algorytmów pod kątem politycznym. Warto, żeby nasze państwo lepiej sobie radziło z takimi rzeczami w kontekście kolejnych wyborów.
Przecież mamy cały pakiet regulacji w kwestii nowych technologii, które mają temu zapobiegać. Co prawda nie zostały one jeszcze w Polsce wdrożone, ale jest przecież akt o usługach cyfrowych, akt o sztucznej inteligencji, rozporządzenie ws. reklamy politycznej…
Brak implementacji jest istotnym problemem, choćby dlatego, że Polska jest spóźniona z wyznaczeniem działającego w pełnym wymiarze koordynatora ds. usług cyfrowych. Tymczasem na poziomie unijnym są już podejmowane kolejne działania w tym zakresie. Komisja Europejska wytoczyła postępowania przeciwko niektórym platformom za nieobiektywne...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta


![[?]](https://static.presspublica.pl/web/rp/img/cookies/Qmark.png)