APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Мошенничество с клонированием голоса ИИ: растет ли угроза?

Интерес к мошенничествам с использованием клонирования голоса на основе ИИ возрос на 130% за последний месяц, что свидетельствует о растущей обеспокоенности общества.

С каждым днем мошенничества с использованием технологий клонирования голоса становятся все более распространенными. Ситуация выглядит следующим образом: ваш телефон звонит, и на другом конце провода звучит знакомый голос. Вы начинаете делиться личной информацией, не подозревая, что это может быть обман. Такие схемы работают именно благодаря тому, что знакомый голос мгновенно снижает бдительность и создает ощущение срочности.

По данным Virlo.ai, контент, связанный с мошенничествами на основе ИИ, уже собрал 15,5 миллиарда просмотров на 4500 видео. Мошенники активно используют глубокое клонирование голосов, создавая сценарии, которые вызывают доверие и срочность. Примечательно, что около 25% взрослых по всему миру сообщают о том, что сталкивались с мошенничествами, связанными с ИИ, а убытки от таких преступлений уже превысили 1,5 миллиарда долларов.

Доступность технологий клонирования голоса также значительно возросла. Теперь для создания подделки мошенникам достаточно всего нескольких секунд аудиозаписи, часто взятых из социальных сетей. Как отмечает эксперт из isFake.ai, современные ИИ-голоса могут звучать слишком идеально, что и выдает их подделку. Люди ожидают, что искусственный интеллект будет делать ошибки, но на самом деле он может звучать слишком гладко и безупречно.

Традиционные методы защиты, такие как голосовая аутентификация, становятся менее надежными. Финансовые учреждения уже пересматривают свои системы, так как случаи мошенничества с подделкой голосов становятся все более частыми. Эксперты предупреждают, что основная угроза заключается в избыточной самоуверенности людей, которые полагают, что смогут распознать фальшивый голос.

Чтобы защитить себя от таких мошенничеств, рекомендуется установить семейное "секретное слово" для экстренных ситуаций, всегда проверять информацию через второй канал и быть осторожными с тем, сколько голосового контента вы делитесь публично. Мошенники рассчитывают на то, что ситуации будут казаться срочными и эмоционально реальными, что и приводит к успеху их схем.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

Искусственный интеллект от Google, OpenAI и Anthropic не смог заработать на ставках на матчи английской Премьер-лиги, согласно новому исследованию, подчеркивающему ограничения AI в анализе реальных событий.
Судебное разбирательство по поводу продажи Intel 10% акций правительству США переходит в федеральный суд. Министерство торговли США считает, что дело должно рассматриваться в окружном суде, а не в суде штата Делавэр.
Полицейский из Пенсильвании признал себя виновным по 15 обвинениям, включая использование служебных компьютеров для создания порнографии с помощью искусственного интеллекта и незаконную съемку коллег.
Написать нам