Банк России сообщает об увеличении случаев мошенничества с использованием дипфейков — технологии, позволяющей создавать реалистичные изображения и видео с помощью искусственного интеллекта. Злоумышленники получают доступ к фото, видео и голосовым записям через взломанные аккаунты в социальных сетях и мессенджерах.
С помощью дипфейков мошенники создают поддельные видеоролики, где виртуальный клон реального человека рассказывает друзьям или родственникам о якобы возникшей проблеме и просит перевести деньги на указанный счет. Такие фальшивки могут изображать не только знакомых, но и работодателей, сотрудников государственных органов или известных личностей.
Центробанк рекомендует не спешить с переводом денег. Лучше позвонить знакомому и уточнить ситуацию лично. Если звонок невозможен, задайте в сообщении личный вопрос, ответ на который знаете только вы и ваш знакомый. Также стоит обратить внимание на признаки дипфейка — монотонная речь, неестественная мимика и дефекты звука.
С помощью дипфейков мошенники создают поддельные видеоролики, где виртуальный клон реального человека рассказывает друзьям или родственникам о якобы возникшей проблеме и просит перевести деньги на указанный счет. Такие фальшивки могут изображать не только знакомых, но и работодателей, сотрудников государственных органов или известных личностей.
Центробанк рекомендует не спешить с переводом денег. Лучше позвонить знакомому и уточнить ситуацию лично. Если звонок невозможен, задайте в сообщении личный вопрос, ответ на который знаете только вы и ваш знакомый. Также стоит обратить внимание на признаки дипфейка — монотонная речь, неестественная мимика и дефекты звука.
Источник: телеграм-канал Банка России
https://t.me/centralbank_russia/1933
https://t.me/centralbank_russia/1933