
Новите престъпни схеми вече включват AI
Кибепрестъпници използват AI за да фалшифицират изображения и глас.
Изкуственият интелект (AI) симулира човешко мислене и се използва в различни сфери – медицина, транспорт, индустрия, сигурност, банкиране и развлечения. Примери са гласови асистенти като Алекса и приложения за пътуване. Наред с ползите, AI се използва и за измами – чрез клониране на гласове и създаване на фалшиви изображения и видеа. Такива технологии могат да имитират гласа, интонацията и поведението на реални хора, включително политици, известни личности и бизнес лидери.
Киберпрестъпници използват изкуствен интелект, за да клонират гласове с цел измама – искане на пари или лични данни, алармират от университета Верджиня. Само 3 секунди аудио са достатъчни, за да бъде гласът възпроизведен достоверно. Измамниците често се представят за близък в беда (например дете, попаднало в затвора) и искат спешно пари. Понякога умишлено разговарят дълго с жертвата, за да запишат гласа ѝ и после да го използват за достъп до финансови и други услуги изискващи гласова верификация.
Има някои признаци по които измамата би могла да бъде разпозната. Въпреки напредъка на технологиите, клонираният глас често звучи монотонно или прекалено гладко с неестествени паузи или рязка смяна на интонацията. Внимавайте за неадекватно емоционално спрямо ситуацията поведение (например „спешен“ тон, но без реална паника в гласа).
Ако човекът на линията използва изрази, които не са характерни за него или говори неестествено подредено или с фрази, които сякаш са събрани от различни разговори и повтаря определени думи или фрази по странен начин има голяма вероятност да сте в контакт с бот, а не с истинския човек.
Клонираните гласове често се използват в предварително подготвени записи или полуинтерактивни системи. Ако зададете неочакван въпрос и получите уклончив или безсмислен отговор,ако опитате да промените темата и гласът продължава по „скрипта“, ако има дълги паузи преди отговорите,това са силни индикации за фалшификация. Измамниците често използват непознати международни номера, които не можете да проследите, фалшиви Caller ID-та (подмяна на номера), гласови съобщения, които звучат „твърде добре“. Ако някой ви се обади и гласът звучи прекалено познат, но номерът не съвпада – бъдете внимателни.
Киберпрестъпниците използват AI, за да създадат фалшиви изображения или видеа на хора, които след това използват в измамите си. Техниката на AI може да промени лицето или тялото на човек и да го направи да изглежда като някой друг. AI изучава човека от снимки и видеоклипове. Киберпрестъпниците използват фалшиви видеа и изображения,за да разпоространяват невярна информация или за финансови измами.
При видеофалшификации, особено т.нар. deepfake видеа, често се забелязва липса на синхрон между устните и речта. При движение лицето остава статично или става замъглено, а при бързи движения на главата чертите се изкривяват. Очите се движат не естетвено или човека не мига. Тези несъвършенства може да са фини, но са първите признаци за намеса в оригиналното видео.
Фалшифицирани изображения и видеа често страдат от неправдоподобно осветление, като сенки, които падат в различни посоки, неестествен блясък върху кожата или очите или разминаване между светлината върху лицето и фона. Тези детайли издават, че е използвана технология за залепяне на едно лице или обект върху друго изображение.
Често остават следи от редактиране, включително замъглени контури около обекта, неестествена резолюция между различни части на изображението или повтарящи се текстури или „шум“ около изменени области. Ако дадена част от изображението изглежда твърде различно от останалите – има основание за съмнение.
Истински изображения и видеа имат ясен източник – новинарска агенция, проверим профил или сайт и последователност в контекста на другите публикувани материали. Когато съдържанието липсва в други източници или не може да се проследи, има голяма вероятност да е фалшиво.
Инструменти като Google Reverse Image и TinEye помагат да се установи дали снимката е използвана преди и в какъв контекст. Сайтове като InVID, FotoForensics и други анализират метаданни и визуални несъответствия. При съмнение за сериозна измама най-сигурен е експертен анализ.
Първи случай на измама с изкуствен интелект

Първият известен случай на измама с изкуствен интелект, при която е използван фалшив глас (вишинг), е струвал на британска енергийна фирма 243 000 долара по данни на Wall Street Journal. Престъпниците са използвали AI софтуер, за да имитират гласа на немски изпълнителен директор и да убедят британския CEO да направи спешен паричен превод към „унгарски доставчик“. Средствата са били прехвърлени по-късно в Мексико. Компанията е била застрахована и загубата е възстановена.
Случаят показва колко напреднала и опасна става технологията за гласови дийпфейкове. Израел и експерти по киберсигурност вече предупреждават за ръст на този вид атаки. Гласовите инструкции трябва винаги да се потвърждават с втори канал за комуникация. С развитието на AI, рискът от подобни измами само ще расте.