Злоумышленники выманивают деньги с помощью нейросетей, используя чужие фото и записи голоса.
Развитие современных технологий, к сожалению, не всегда приносит пользу обществу. Мошенники, например, используют популярные сейчас нейросети, чтобы обогатиться за чужой счет. Они взламывают аккаунт человека в социальных сетях, берут фото и записи голоса, а затем с помощью нейросетей создают реалистичное видеоизображение человека.
Потом мошенники рассылают это видеоизображение друзьям и родным через соцсети или мессенджеры. Виртуальный клон рассказывает, что он попал в беду и ему срочно требуется перевести деньги на счет. Иногда злоумышленники создают клонов работодателей, сотрудников госорганов или известных личностей.
При получении такого сообщения пользователям советуют не спешить с переводом денег. Стоит позвонить реальному человеку и уточнить, действительно ли ему требуется помощь. Если такой возможности нет, то задайте в переписке вопрос, ответ на который знает только ваш знакомый.
— Проверьте видеосообщение на предмет монотонной речи собеседника, неестественной мимики и дефектов звука — наиболее заметных признаков дипфейка, — сообщили в пресс-службе управления по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД России.