APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

AI-фреймворк SIDA устанавливает новый стандарт для обнаружения и объяснения дипфейков

Система SIDA, разработанная для обнаружения и объяснения глубоких фейков, использует набор данных из 300,000 изображений и демонстрирует высокую точность в выявлении манипуляций, что делает её важным инструментом в борьбе с дезинформацией.

В мире, где технологии глубокого обучения становятся всё более мощными, проблема глубоких фейков становится всё более актуальной. Недавно была представлена система SIDA, которая не только обнаруживает подделанные изображения, но и указывает на конкретные области манипуляций, а также объясняет свои выводы. Это значительное достижение в борьбе с цифровой дезинформацией.

SIDA использует новый набор данных под названием SID-Set, который включает 300,000 изображений, разделённых на 100,000 реальных, 100,000 полностью синтетических и 100,000 подделанных. Такой подход позволяет создать более разнообразную и точную базу для обучения моделей, что критически важно в условиях, когда фейковые изображения становятся всё более реалистичными благодаря достижениям в области генеративных моделей.

Система SIDA использует большие модели, которые способны выполнять три ключевые задачи: обнаружение подделок, локализация манипуляций и предоставление текстовых объяснений. Это делает её более универсальной по сравнению с существующими методами, которые часто ограничиваются только обнаружением или локализацией.

Результаты тестирования показали, что SIDA достигает точности 97.3% в обнаружении подделанных изображений, что подчеркивает её эффективность в выявлении даже самых тонких манипуляций. Кроме того, система предоставляет прозрачные объяснения своих решений, что является важным аспектом для пользователей и заинтересованных сторон, обеспокоенных последствиями использования глубоких фейков.

Применение SIDA может быть весьма разнообразным: от социальных медиа до новостных организаций и правоохранительных органов. Возможность в реальном времени обнаруживать и объяснять манипуляции делает её ценным инструментом для борьбы с дезинформацией и сохранения целостности цифрового контента.

В будущем планируется расширение набора данных SID-Set, чтобы включить ещё больше разнообразных сценариев и типов изображений, что поможет улучшить надёжность моделей обнаружения. Интеграция SIDA с существующими системами модерации контента также может повысить эффективность обнаружения дезинформации на платформах социальных медиа.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

Винод Хосла, один из первых инвесторов OpenAI, считает, что дети, родившиеся сегодня, могут вырасти в мире, где большинство профессий будет выполнять искусственный интеллект. Он прогнозирует, что к началу 2030-х годов 80% рабочих мест будут автоматизированы.
В условиях конфликта на Ближнем Востоке активно распространяются фейки, включая подделанные изображения и видео. Фактчекеры опровергают ложные утверждения, исходящие от про-иранских аккаунтов.
Ученые исследуют взаимодействия между искусственными интеллектами, создавая «AI-общества». Новые симуляции помогут понять, как AI может моделировать человеческое поведение в различных ситуациях, от разрешения конфликтов до потребительских рынков.
Написать нам