
Image by Phạm Trần Hoàn Thịnh, from Unsplash
AI Napędza Wzrost Szantażu Seksualnego w Aplikacjach Randkowych
Sztuczna inteligencja ułatwia przestępcom przeprowadzanie schematów sekstorsji na aplikacjach randkowych, co budzi pilne obawy wśród nastolatków, studentów i przedstawicieli organów ścigania.
Spieszysz się? Oto najważniejsze fakty:
- Wzrost liczby oszustw związanych z sekstingiem jest gwałtowny, szczególnie wśród nastolatków i studentów.
- Oszuści udają zainteresowanie romantyczne, korzystając z botów i fałszywych profili.
- Prawie 8,000 przypadków szantażu związanego z sekstingiem zarejestrowano w Wielkiej Brytanii w 2023 roku.
Praktyka seksu wymuszeniowego istnieje już od pewnego czasu, ale technologia AI umożliwia przestępcom tworzenie bardziej wiarygodnych fałszywych tożsamości. Dzięki temu mogą przyspieszyć kontakt z ofiarami i tworzyć sztuczne treści seksualne za pomocą technologii deepfake, jak donosi Vice.
FBI definiuje sextortion jako metodę, w której przestępcy nakłaniają nieletnich do udostępniania eksplicytnych zdjęć, a następnie żądają dodatkowych obrazów lub pieniędzy jako zapłaty za nieujawnienie tych zdjęć.
Przestępcy korzystają teraz z profilów generowanych przez AI, aby tworzyć fałszywe zainteresowania romantyczne, często używając zdjęć deepfake i chatbotów. FBI ostrzega, że ofiary zazwyczaj mylą oszustów z rówieśnikami, którzy oferują romantyczne relacje lub prezenty, a w rzeczywistości są manipulowani.
Znacznie wzrosła liczba oszustw polegających na szantażowaniu studentów, jak podaje Narodowa Agencja ds. Przestępczości. Dane BBC pokazują, że liczba przypadków szantażu związanego z sekstingiem wzrosła do 8 000 w 2023 roku, podczas gdy w 2014 roku było ich zaledwie 23.
BBC donosi, że Jim Winters, szef działu ds. przestępczości gospodarczej w Nationwide, doradza młodym ludziom, aby nie milczeli: „Szantaż to jedna z najtrudniejszych rzeczy, z jakimi można się zmierzyć, a zdarza się coraz częściej. To nie jest łatwe, ale jeśli coś wydaje się nie w porządku, mów o tym głośno-”
Oszuści teraz wykorzystują technologię deepfake, aby nałożyć twarze ofiar na pornograficzne treści, mimo że ofiary nigdy nie udostępniły explicitowych materiałów. Ta nowa taktyka szantażu eliminuje potrzebę udostępniania treści przez ofiary zanim zacznie się szantaż.
BBC sugeruje, że oszustwo można zidentyfikować poprzez powtarzające się frazy w wiadomościach, idealne zdjęcia profilowe i nienaturalne wzorce dialogów. Eksperci z BPS sugerują używanie odwrotnych wyszukiwań do weryfikacji podejrzanych obrazów. Jednak te metody stają się mniej skuteczne przy radzeniu sobie z generowaną przez AI treścią.
Eksperci podkreślają potrzebę otwartego dialogu, edukacji i aktualizacji strategii zapobiegawczych, ponieważ istnieje ograniczona ilość badań na temat tego, jak sztuczna inteligencja wspiera te przestępstwa. Te działania są niezbędne dla ochrony najbardziej narażonych na cyfrowe zagrożenia.