APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Может ли ИИ помочь в борьбе с "Вангири" и подделкой голосов?

Операторы связи внедряют технологии искусственного интеллекта для борьбы с телефонными мошенничествами, такими как "Вангири" и голосовое спуфинг, используя аудиофингерпринтинг для идентификации подозрительных звонков.

Современные телефонные мошенничества становятся все более изощренными благодаря доступности технологий клонирования голоса. Преступники могут создавать реалистичные синтетические голоса, что ставит перед операторами связи новые вызовы. Чтобы противостоять этому, компании начинают использовать искусственный интеллект (ИИ) для выявления и блокировки мошеннических звонков еще до того, как они дойдут до абонента.

Основой этой стратегии защиты является анализ аудиосигнала в реальном времени. Операторы связи внедряют системы, которые изучают все аспекты телефонного звонка, включая метаданные идентификации звонящего, характеристики голоса и сам аудиосигнал. Эти системы создают "фингерпринты" голосов и ищут характерные признаки синтетической речи, которые отличают клонированный голос от настоящего.

Однако фингерпринтинг голосов — это лишь часть решения. Системы также отслеживают подозрительные паттерны звонков, такие как резкие всплески коротких звонков с одного номера или быстрое набор номеров из разных кодов. Такие действия могут вызвать автоматические сигналы, которые блокируют звонки до их соединения.

Несмотря на все достижения, важно понимать, что ИИ не может полностью решить проблему. Технологии блокировки на уровне телефона и фильтрации сети действительно помогают снизить количество известных мошеннических звонков, но не могут поймать все. Новые мошеннические схемы, использующие свежие номера или необычные методы, могут легко обойти существующие системы.

Кроме того, целенаправленные атаки, такие как использование глубоких фейков для имитации голоса близкого человека, представляют собой серьезную угрозу. Такие звонки могут выглядеть совершенно иначе, чем массовые мошеннические схемы, и их сложнее распознать.

Регуляторные органы также начинают реагировать на эту проблему. Например, некоторые организации объявили, что звонки с использованием реалистичных ИИ-генерируемых голосов теперь считаются незаконными. Однако, как и в случае с другими законами, проблема заключается в их исполнении, особенно когда мошенники действуют из-за границы.

В конечном итоге, несмотря на все технологические достижения, человеческая бдительность остается важным элементом защиты. Проверка неожиданных запросов через надежные каналы и установление кодовых слов с близкими могут стать последней линией обороны против мошенников.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

Anthropic анонсировала Project Glasswing, объединяющий 12 крупных технологических компаний для разработки ИИ, способного находить и устранять уязвимости в программном обеспечении до того, как их смогут использовать злоумышленники. Это особенно актуально для энергетического сектора.
15 марта 2026 года в библиотеке Фремонта прошел форум "Secure Data & AI Forum", организованный DAMA International San Francisco Chapter, где эксперты обсудили стратегии управления данными и искусственным интеллектом.
На доме генерального директора OpenAI Сэма Альтмана произошел инцидент: мужчина бросил коктейль Молотова, что вызвало новые опасения среди технологических компаний о возможных угрозах и насилии в отношении их руководителей.
Написать нам