Сбербанк рассказал: есть важные изменения для пользователей
В последнее время участились случаи, когда мошенники, используя технологии искусственного интеллекта, подделывают голоса знакомых или родственников, чтобы завладеть деньгами доверчивых жертв.
Эксперты рассказывают, как работает эта схема и как можно защититься от такого обмана. Суть мошенничества заключается в том, что злоумышленники получают доступ к аккаунту жертвы в мессенджере и находят там записи ее голоса. Используя эти образцы, они тренируют систему на базе искусственного интеллекта подражать особенностям речи человека. В результате мошенник может позвонить жертве и убедительно попросить ее перевести деньги под предлогом срочной необходимости.
Кроме того, мошенники детально изучают круг контактов жертвы, чтобы придумать максимально правдоподобный сценарий. Например, они могут позвонить от имени ребенка и попросить деньги на подарок другу, или от лица пожилого родственника — на покупку лекарств.
Эксперты предупреждают, что технологии развиваются, и вместо аудиозвонков вскоре могут появиться видеозвонки и DeepFake — поддельные видео с подмененными лицами. Пока такие фальсификации легко распознать, но в будущем они могут стать гораздо более совершенными.
Чтобы защититься от таких мошеннических схем, специалисты советуют соблюдать правила безопасности в мессенджерах: не поддаваться на манипуляции, всегда тщательно проверять информацию, особенно если она касается денег. Если вы подозреваете взлом своего аккаунта, немедленно примите меры по его восстановлению.