Дипфейки и мошенничество – новая реальность
Современные технологии стремительно меняют не только нашу повседневность, но и способы мошенничества. Искусственный интеллект позволяет преступникам создавать фальшивые голоса и изображения, которые выглядят настолько реалистично, что даже близкие люди не сразу могут отличить подделку от оригинала.
Редакция
14 февраля 2025 19:15
Манипуляция эмоциями
Представьте ситуацию: пожилой человек получает звонок с неизвестного номера, и на другом конце провода звучит голос его дочери, которая в панике сообщает о страшной аварии. Разговор резко прерывается, а следом поступает новый звонок – теперь уже от якобы очевидца происшествия, утверждающего, что за решетку могут отправить невиновного, если немедленно не перевести деньги. Такие схемы рассчитаны на мгновенную реакцию, когда человек не успевает критически осмыслить происходящее.
Технология дипфейка позволяет преступникам использовать поддельные голоса и видеозаписи для вымогательства. Причем жертвами могут стать не только пожилые люди, но и бизнесмены, топ-менеджеры, известные личности. Например, в Европе мошенники сумели обмануть предпринимателей, подделав голос высокопоставленного чиновника, и выманили у них миллионы евро.
Фальшивые руководители и шантаж
Еще одна популярная схема – подмена личности начальника компании. В корпоративных чатах или звонках сотрудники могут получить сообщение от своего руководителя с просьбой срочно перевести деньги на определенный счет. Не все сразу заподозрят подвох, особенно если спешка оправдана какими-либо рабочими обстоятельствами.
Помимо финансовых махинаций, дипфейки используются и для создания фальшивых компрометирующих материалов. Так, мошенники могут подделать видео, на котором жертва якобы делает скандальное признание или участвует в компрометирующих сценах. Это используется для шантажа и давления. Однако некоторые суды уже начали отказываться принимать подобные видеозаписи в качестве доказательств, если экспертный анализ выявляет признаки их искусственного создания.
Как выявить подделку?
Несмотря на развитие технологий, у дипфейков все еще есть слабые места. Если внимательно присмотреться, можно заметить, что движения губ иногда не совпадают с речью, а мимика кажется неестественной. Глаза могут выглядеть застывшими, а зрачки – двигаться несинхронно. Иногда на изображении появляются анатомические ошибки, такие как неестественные тени, изменяющееся положение родинок или даже лишние пальцы.
Специалисты советуют проверять подозрительные видео на специальных сервисах, таких как Deepware, McAfee Deepfake Detector или Sensity AI. Однако стопроцентной гарантии эти инструменты не дают, поэтому главным инструментом защиты остается бдительность.
Новая цифровая реальность
Одним из способов предотвратить использование вашего образа для создания дипфейков является ограничение доступа к личным фотографиям и видеозаписям в интернете. Особенно это касается публичных аккаунтов в социальных сетях, где злоумышленники могут без труда найти необходимый контент.
Таким образом, эпоха искусственного интеллекта требует пересмотра привычек. С одной стороны, технологии делают нашу жизнь удобнее, с другой – создают новые риски. Базовая цифровая гигиена становится не просто желательной, а необходимой для защиты личных данных и финансов.

