Przestępcy znaleźli pomoc. AI ułatwia przekręty nie tylko "na wnuczka"
W tym artykule:
Sztuczna inteligencja w rękach przestępców
Aktywnym elementem strategii cyberprzestępców stały się deepfake'i, które to sztuczna inteligencja potrafi generować w różnych formach. Takie fałszywe informacje mogą przybierać formę filmików lub plików dźwiękowych.
Tutaj nie docierają tłumy turystów. Jedno z najbardziej fotogenicznych miejsc Lizbony
- Standardowe wirusy typu Botnet, ransomware, czy malware nadal są wykorzystywane przez cyberprzestępców, jednak obecnie sporym zagrożeniem są deepfake'i, które m.in. potrafi wygenerować sztuczna inteligencja. Obecnie nie są jeszcze bardzo powszechne, ale wydaje się, że z czasem będzie ich coraz więcej. Deepfake, czyli generalnie fałszywa informacja, np. filmik, czy plik dźwiękowy wygenerowany przez AI, czyli tzw. phishing 2.0., polega głównie na tym, że jest on tworzony w taki sposób, by zmanipulować ofiarę i nakłonić ją do wpłacenia pieniędzy na wskazane konto, lub by kliknęła w link, za pomocą którego pobierze wirus dający możliwość przejęcia kontroli nad komputerem lub telefonem pokrzywdzonego - mówi Patryk Kuczerek.
Organizowane konferencje na temat cyberprzestępczości ukazują, w jakim kierunku rozwijają się zagrożenia związane z internetem. Podczas spotkania na Uniwersytecie Opolskim eksperci wymieniali nowe technologie wykorzystywane przez cyberprzestępców, w tym AI.
Manipulacje i modyfikacje przy użyciu AI
- Jednym z bardziej niebezpiecznych sposobów manipulowania są techniki zbliżone do fałszowania tożsamości, często powiązane z komunikatorami i social media. Przestępcy niejednokrotnie wykorzystują cudze numery telefonów, aby żądać pieniędzy lub kodów, takich jak BLIK. "Przestępcy potrafią podszyć się pod cudzy numer telefonu na Whatsappie. To, że czytamy wiadomość od naszego członka rodziny z prośbą o pilny przelew czy kod BLIK, może więc okazać się tak naprawdę próbą oszustwa. Dlatego, jeżeli mamy jakiekolwiek wątpliwości w tego typu sytuacjach, warto po prostu zadzwonić na normalny numer naszego rozmówcy, by to sprawdzić - dodaje Kuczerek.
Niektóre z tych sytuacji dotyczą także generowania kodów źródłowych przez sztuczną inteligencję. AI, korzystając z zaawansowanych modeli, jest w stanie tworzyć programy, które z łatwością łamią komercyjne zabezpieczenia, omijając przy tym standardowe oprogramowanie antywirusowe. W ten sposób cyberprzestępcy zdobywają nielegalny dostęp do zabezpieczonych systemów.
Świadomość i edukacja jako ochrona przed oszustwami
Przemiany technologiczne zmieniają rzeczywistość w każdym aspekcie naszego życia, a AI bywa narzędziem o dwojakim zastosowaniu - zarówno dla dobra, jak i zła.
- Świat się zmienia we wszystkich aspektach naszego życia. Sztuczna inteligencja jest narzędziem, które może być - niestety - wykorzystana zarówno w dobrych, jak i złych celach. Musimy być tego świadomi i przygotować się także na nowego typu zagrożenia, z podszywaniem się pod cudzą tożsamość przy wykorzystaniu technik AI i wykorzystywaniu autorytetu nieświadomych tego osób publicznych np. do wyłudzania danych, pieniędzy lub innego rodzaju oszustw. Na pewno doradzam, żeby zanim klikniemy w jakiś link oferujący rzekomo rewelacyjną inwestycją polecaną przez znanego ekonomistę czy celebrytę, pomyśleć o ryzyku jakie się z tym wiąże - ostrzega Kuczerek.
Edukacja w zakresie cyfrowej świadomości staje się kluczowym elementem ochrony przeciw zagrożeniom nowej ery. Często najmocniejszym zabezpieczeniem przed oszustwami w sieci jest po prostu rozwaga w działaniach i świadomość potencjalnych ryzyk związanych z nowoczesnymi technologiami.
Źródło: PAP
Jesteśmy na Google News. Dołącz do nas i śledź Strefę Biznesu codziennie. Obserwuj StrefaBiznesu.pl!