Sztuczna inteligencja (AI) w ostatnich latach znalazła zastosowanie w niemal każdej dziedzinie życia – od medycyny, przez edukację, po rozrywkę. Niestety, postęp technologiczny niesie ze sobą również zagrożenia. AI stało się narzędziem wykorzystywanym przez oszustów do manipulacji, wyłudzania danych i pieniędzy, a także tworzenia fałszywych tożsamości. W tym artykule przyjrzymy się najczęstszym metodom oszustw opartych na AI oraz konkretnym przypadkom, które wstrząsnęły opinią publiczną.
Najczęstsze rodzaje oszustw wykorzystujących AI
- Deepfake – fałszywe filmy i głosy
Deepfake to technologia oparta na sztucznej inteligencji, która umożliwia tworzenie realistycznych, ale fałszywych obrazów, filmów i nagrań głosowych. Dzięki tej technologii można „podłożyć” twarz i głos dowolnej osoby do filmu, czynąc go niezwykle wiarygodnym.
Przykład: W 2020 roku w Niemczech oszuści wykorzystali deepfake głosowy, aby podszyć się pod dyrektora firmy. W wyniku tego wyłudzili 220 tysięcy euro od pracownika, który był przekonany, że rozmawia ze swoim przełożonym. - Fałszywe profile w mediach społecznościowych
Sztuczna inteligencja umożliwia tworzenie zdjęć osób, które nigdy nie istniały, a także automatyzację interakcji na platformach społecznościowych. Takie fałszywe profile mogą być wykorzystywane do oszustw romantycznych, phishingu lub budowania wpływu.
Przykład: Jeden z głośnych przypadków dotyczył konta na Instagramie, które należało do rzekomej influencerki. Publikowała atrakcyjne zdjęcia i filmy, zyskując tysiące fanów, głównie mężczyzn. Po czasie okazało się, że „kobieta” w ogóle nie istnieje – była to twarz wygenerowana przez AI, a treści tworzyła osoba trzecia, by wyłudzać pieniądze i dane. - Romantyczne oszustwa (romance scams)
AI jest wykorzystywana do tworzenia fałszywych tożsamości na portalach randkowych. Generowane zdjęcia, wiadomości napisane z pomocą chatbotów oraz deepfake głosy sprawiają, że ofiary często dają się nabrać.
Przykład: W 2023 roku kobieta z USA straciła ponad 300 tysięcy dolarów, wierząc, że nawiązała romantyczną relację z żołnierzem służącym za granicą. W rzeczywistości zdjęcia i głos były w całości wygenerowane przez AI. - Wyłudzenia finansowe przy użyciu chatbotów
Chatboty wykorzystujące modele językowe, takie jak ChatGPT, mogą być używane do prowadzenia oszustw phishingowych. Z pomocą AI oszuści tworzyą przekonujące wiadomości e-mail czy SMS-y, które wyglądają jak oficjalna korespondencja od banków, instytucji rządowych lub firm.
Przykład: W Wielkiej Brytanii odnotowano przypadek, gdzie oszust podszywał się pod pracownika banku, używając AI do generowania przekonujących rozmów z ofiarą. Skutkiem było przejęcie oszczędności ofiary. - Generowanie fałszywych wiadomości i propagandy
AI jest wykorzystywana do masowego generowania fałszywych wiadomości i treści, które mają na celu manipulację opinią publiczną, wywoływanie zamieszania lub polaryzowanie społeczeństwa.
Przykład: W trakcie wyborów w USA w 2020 roku wykryto sieci botów, które masowo publikowały fałszywe informacje polityczne, wzbudzając nieufność wobec kandydatów i instytucji.
Głośne przypadki oszustw z użyciem AI
- „Influencerka, która nie istniała”
Jednym z najbardziej medialnych przypadków dotyczył profilu kobiety na Instagramie, która zyskała dużą popularność wśród mężczyzn. Publikowała zdjęcia, filmy i angażowała się w rozmowy z fanami. Okazało się, że cała jej postać była tworem AI – zdjęcia wygenerowano przy użyciu narzędzia „This Person Does Not Exist”, a treści były pisane z pomocą chatbotów. Właściciel konta wykorzystywał popularność profilu do promowania fałszywych produktów i zbierania datków. - Lil Miquela – wirtualna influencerka
Lil Miquela to 21-letnia „robotyczna” dziewczyna mieszkająca w Los Angeles, która zdobyła ogromną popularność na Instagramie. Jej profil (@lilmiquela) obserwuje ponad 2 miliony osób, a ona sama angażuje się w kampanie reklamowe, promuje produkty i uczestniczy w wirtualnych wydarzeniach. Mimo że jest w pełni wytworem technologii, jej obecność w mediach społecznościowych wywołuje dyskusje na temat granicy między rzeczywistością a fikcją. - Deepfake Elona Muska
W 2022 roku w mediach społecznościowych zaczęły krążyć filmy, na których Elon Musk promował inwestycje w kryptowaluty. Nagrania wyglądały bardzo wiarygodnie, ale szybko okazało się, że były to deepfaki. Oszuści wykorzystali autorytet miliardera, by skłonić ludzi do wpłacania pieniędzy na fałszywe konta. - Atak na firmę technologiczną w Azji
W 2021 roku firma technologiczna w Azji straciła ponad 35 milionów dolarów, gdy oszuści podszyli się pod jej dyrektora. Przy użyciu deepfake głosowego zdołali przekonać pracowników do przelania środków na wskazane konto.
Jak się chronić przed oszustwami z wykorzystaniem AI?
- Weryfikacja informacji i profili
Korzystaj z narzędzi do analizy zdjęć i treści. Sprawdzaj, czy zdjęcia nie zostały wygenerowane przez AI (np. brak symetrii w twarzy, nienaturalne detale). - Ostrożność w kontaktach online
Nie udostępniaj osobistych danych ani pieniędzy osobom, które poznałeś/aś online, szczególnie jeśli ich profil wydaje się zbyt idealny. - Używanie technologii przeciwdziałającej deepfake’om
Narzędzia takie jak Deepware Scanner mogą pomóc w wykrywaniu fałszywych nagrań. - Edukacja i świadomość
Im więcej wiesz o możliwościach AI i metodach oszustów, tym trudniej będzie cię oszukać.
Podsumowanie
Rozwój sztucznej inteligencji przynosi wiele korzyści, ale jednocześnie otwiera drzwi dla nowych form oszustw. Przypadki fałszywych tożsamości, deepfake’ów i manipulacji są coraz częstsze, a ich skutki bywają dramatyczne – zarówno dla osób indywidualnych, jak i całych firm. Kluczem do ochrony przed tego typu zagrożeniami jest zwiększenie świadomości społecznej, weryfikacja informacji i rozwijanie technologii przeciwdziałających nadużyciom. Sztuczna inteligencja to potężne narzędzie – ważne, by używać jej odpowiedzialnie.
Fot. AI