С каждым днем мошенничества с использованием технологий клонирования голоса становятся все более распространенными. Ситуация выглядит следующим образом: ваш телефон звонит, и на другом конце провода звучит знакомый голос. Вы начинаете делиться личной информацией, не подозревая, что это может быть обман. Такие схемы работают именно благодаря тому, что знакомый голос мгновенно снижает бдительность и создает ощущение срочности.
По данным Virlo.ai, контент, связанный с мошенничествами на основе ИИ, уже собрал 15,5 миллиарда просмотров на 4500 видео. Мошенники активно используют глубокое клонирование голосов, создавая сценарии, которые вызывают доверие и срочность. Примечательно, что около 25% взрослых по всему миру сообщают о том, что сталкивались с мошенничествами, связанными с ИИ, а убытки от таких преступлений уже превысили 1,5 миллиарда долларов.
Доступность технологий клонирования голоса также значительно возросла. Теперь для создания подделки мошенникам достаточно всего нескольких секунд аудиозаписи, часто взятых из социальных сетей. Как отмечает эксперт из isFake.ai, современные ИИ-голоса могут звучать слишком идеально, что и выдает их подделку. Люди ожидают, что искусственный интеллект будет делать ошибки, но на самом деле он может звучать слишком гладко и безупречно.
Традиционные методы защиты, такие как голосовая аутентификация, становятся менее надежными. Финансовые учреждения уже пересматривают свои системы, так как случаи мошенничества с подделкой голосов становятся все более частыми. Эксперты предупреждают, что основная угроза заключается в избыточной самоуверенности людей, которые полагают, что смогут распознать фальшивый голос.
Чтобы защитить себя от таких мошенничеств, рекомендуется установить семейное "секретное слово" для экстренных ситуаций, всегда проверять информацию через второй канал и быть осторожными с тем, сколько голосового контента вы делитесь публично. Мошенники рассчитывают на то, что ситуации будут казаться срочными и эмоционально реальными, что и приводит к успеху их схем.