Nowa era manipulacji. Deepfake testuje odporność biznesu
Niska świadomość deepfake wśród pracowników
Coraz więcej pracowników nie potrafi rozpoznać materiałów wideo lub dźwiękowych wygenerowanych przez sztuczną inteligencję. Jak wynika z raportu, 30 proc. badanych uznaje takie materiały za autentyczne. Interesujące jest również to, że 29 proc. osób nie potrafi ocenić, czy są one prawdziwe. Co więcej, 27 proc. respondentów wierzy, że nagrania audio stworzone przez algorytmy są wiarygodne.
- Tymczasem, jak wynika z badania, tylko 42 proc. pracowników deklaruje, że zna to pojęcie. Niska rozpoznawalność takich zjawisk zwiększa ryzyko, że fałszywe komunikaty nie zostaną zidentyfikowane jako potencjalne zagrożenie, które może mieć realne konsekwencje, zarówno na poziomie operacyjnym, jak i reputacyjnym - zauważyli autorzy.
Edukacja w zakresie cyberbezpieczeństwa
Pomimo rosnącego zagrożenia ze strony technologii deepfake, szkolenia z zakresu cyberbezpieczeństwa wśród polskich pracowników pozostawiają wiele do życzenia. Z badania wynika, że 55 proc. pracowników nie miało okazji uczestniczyć w żadnym szkoleniu związanym z cyberbezpieczeństwem w ciągu ostatnich pięciu lat. Zamiast tego, szkolenia koncentrują się na takich tematach, jak procedury wewnętrzne (59 proc.) oraz ochrona danych osobowych (56 proc.).
Brak odpowiedniego szkolenia w zakresie cyberbezpieczeństwa może prowadzić do nieświadomego udostępniania wrażliwych danych. Aż 19 proc. ankietowanych przyznało, że udostępnia narzędziom AI wrażliwe dane firmowe, co stwarza dodatkowe ryzyko dla bezpieczeństwa firm.
Raport został przygotowany na podstawie badania przeprowadzonego metodą CAWI na próbie ponad 1000 Polaków.
Źródło: PAP