Jak nauczyliśmy maszyny mówić?
Tworzenie narzędzi do syntezy mowy opartych na mechanice było trudne i mało skuteczne. Przekonało się o tym wielu badaczy, m.in. Alexander Graham Bell, wynalazca telefonu. W dodatku stosowane urządzenia mechaniczne wytwarzały mowę kiepskiej jakości i trudno było nimi sterować. Przełom w tej dziedzinie przyniosła elektronika.
Przywykliśmy już do tego, że różne urządzenia techniczne przekazują nam informacje głosem. Po prostu mówią do nas! Obecnie nikogo to ani nie dziwi, ani nie zastanawia – przecież systemy elektroniczne ustawicznie karmią nas jakimiś dźwiękami: korzystamy z elektronicznie serwowanej muzyki, słyszymy w telefonie głos rozmówcy, nawet jeśli jest on oddalony o setki kilometrów, GPS głosowo uprzedza o skrzyżowaniach – po prostu rutyna.
Czym innym jest jednak odtworzenie wcześniej zarejestrowanego nagrania, a czym innym jest wygenerowanie głosowego komunikatu na całkowicie nieoczekiwany temat. Jednym z obszarów, w których to bywa niezbędne, jest tzw. tyfloinformatyka – czyli udostępnianie osobom niewidomym (lub słabo widzącym) informacji, które człowiek widzący czyta na ekranie. Tu nie pomoże nagrany głos lektora – tę wypowiedź trzeba wytworzyć. Do tego celu służą specjalne systemy, tzw. syntezatory mowy, o których historii chcę dziś opowiedzieć.
Pierwsze urządzenia mechaniczno- -pneumatyczne
Pierwsze urządzenie wytwarzające sygnały na podobnej zasadzie jak w systemie głosowym człowieka zostało zbudowane w 1779 r. przez Christiana Gottlieba Kratzensteina. Było to pięć rezonatorów akustycznych tak skonstruowanych, że kiedy przedmuchiwano przez nie powietrze (z miecha), to wytwarzała się fala...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta