Tracą majątki życia. Metoda na wnuczka, na którą nabierze się każdy
W tym artykule:
Klasyczne oszustwo, nowe narzędzia. AI zmienia zasady gry
Schemat "na wnuczka" znamy od lat: dramatyczny telefon, prośba o pilne pieniądze, wywieranie presji, brak czasu na zastanowienie. Tylko w 2024 roku policja odnotowała blisko 4000 takich przestępstw, a rozbita pod koniec roku grupa działająca w ośmiu krajach Europy wyłudziła 5 milionów euro. Problem w tym, że dziś scenariusz ten nabiera nowej jakości - i to wyjątkowo groźnej.
Świadek podniósł alarm. Spójrzcie na nagranie ze Śląska
Sztuczna inteligencja umożliwia generowanie fałszywych głosów, obrazów i nagrań, które brzmią i wyglądają jak znajomy wnuczek, córka, policjant czy bankowiec. Deepfake'i stają się tak dobre, że ofiary nie mają szans odróżnić prawdy od manipulacji. Według badań, pojęcie deepfake zna 42% Polaków, a 40% miało z nim realny kontakt - to przestrzeń, w której przestępcy rosną w siłę.
Jak działa "fałszywy wnuczek" w wersji AI?
Coraz więcej przypadków wskazuje, że oszuści nie tylko opowiadają historię o wypadku. Dziś stają się bliską osobą dzięki technologii klonowania głosu i wizerunku, wykorzystując:
- nagrania pozyskane z internetu,
- głos z social mediów,
- przejęte konta komunikatorów,
- spreparowane nagrania audio i wideo,
- zhakowane dane osobowe.
Gdy senior słyszy autentyczny głos wnuczka lub widzi jego twarz w rozmowie wideo, naturalnie angażuje emocje. Zaskoczenie i panika sprawiają, że oszuści osiągają to, czego chcą: natychmiastowego przelewu, podania kodów autoryzacyjnych lub przekazania gotówki kurierowi. Coraz częściej pojawiają się też próby szantażu oparte na fałszywych kompromitujących nagraniach.
Problem pogłębia fakt, że nawet kontakt z "prawdziwymi bliskimi" bywa utrudniony - przestępcy potrafią przejmować konta w komunikatorach i blokować komunikację.
Banki na celowniku. Deepfake wchodzi do phishingu
Do tego dochodzi masowa fala phishingu z wykorzystaniem materiałów generowanych przez AI. W ciągu ostatnich 18 miesięcy zgłoszono 488 poważnych incydentów, a to prawdopodobnie jedynie niewielka część realnej skali. W 2024 roku zablokowania wymagało ponad 51 tys. phishingowych domen, co stanowi wzrost o 70% względem 2022 roku.
Przestępcy tworzą materiały wideo i nagrania audio podszywające się pod banki, kurierów, operatorów komórkowych czy urzędy. Sygnały ostrzegawcze są subtelne: nienaturalna intonacja, lekkie zniekształcenia obrazu, nienaturalne ruchy ust lub dłoni.
Eksperci alarmują: zgłaszać, weryfikować, nie działać w emocjach
Zdaniem specjalistów podstawą bezpieczeństwa jest:
- Ustalenie pytań bezpieczeństwa z rodziną - takich, których nie da się znaleźć w internecie. Takich, gdzie odpowiedź zna tylko bliska osoba.
- Zachowanie zimnej krwi - jeśli "bliski" prosi o przelew natychmiast, to jest to automatycznie podejrzane.
- Natychmiastowa weryfikacja - w innym kanale komunikacji, np. telefon, SMS, wiadomość do kogoś z rodziny.
- Uważna analiza nagrań - AI nadal generuje błędy: dziwna mimika, zmieniona liczba palców, artefakty obrazu, nienaturalna intonacja.
- Kontakt z bankiem i blokada konta - jeśli choć przez chwilę coś wzbudzi podejrzenia.
- Oszustwa finansowe są dziś niemal niewidoczne dla przeciętnego klienta, a konsekwencje mogą być dramatyczne - od utraty środków, przez przejęcie tożsamości, po zagrożenie zdrowia - podkreśla Michał Pyziołek, ekspert Intrum.