Leszek Tasiemski - wiceprezes działu badań i rozwoju w firmie F-Secure - opisuje w jaki sposób sztuczna inteligencja może zagrażać prywatności. Wśród przykładów rozwiązań AI mających wpływ na anonimowość w sieci znalazły się między innymi: rozpoznawanie twarzy czy głosu, łączenie danych gromadzonych przez portale społecznościowe czy pojawienie się nowych metod manipulacji.
"Prawdopodobnie w najbliższych latach będziemy świadkami rozwoju metod manipulacji opartych na sztucznej inteligencji. Możliwe jest opracowanie algorytmów potrafiących perfekcyjnie udawać głos danej osoby (na podstawie kilkusekundowej próbki), a nawet generujących wideo osoby mówiącej swoim głosem i robiącej rzeczy, których nigdy nie zrobiła, ani nie powiedziała. To bardzo potężne narzędzia, które mogłyby trafić w ręce zarówno pospolitych oszustów, jak i agencji państwowych manipulujących opinią publiczną. Odróżnienie prawdy od fałszywej informacji (fake news) będzie coraz trudniejsze, może nawet niemożliwe".
Oprócz potencjalnych niebezpieczeństw w tekście przedstawione zostały również korzyści płynące z rozwoju systemów sztucznej inteligencji.
Zapraszamy do lektury:
-> Sztuczna Inteligencja: użyteczność kontra prywatność