В условиях растущей популярности "глубоких фейков" исследователи из Университета Бингемтона и других учреждений разработали методы, позволяющие выявлять аномалии в изображениях, которые могут указывать на их искусственное происхождение. В своей статье они исследуют использование Generative Adversarial Networks Image Authentication (GANIA) для определения источника фотографий и предотвращения распространения дезинформации.
Команда создала тысячи изображений с помощью доступных инструментов генеративного ИИ, таких как Adobe Firefly и DALL-E, и проанализировала их с помощью методов обработки сигналов. Они обнаружили, что различия в характеристиках частотного домена между изображениями, созданными ИИ, и "естественными" изображениями позволяют эффективно выявлять подделки.
Кроме того, исследователи разработали новый инструмент под названием DeFakePro, который использует уникальные электрические сигналы для проверки подлинности аудио-видео записей. Этот метод показал высокую эффективность в выявлении глубоких фейков и может быть использован для защиты смарт-систем наблюдения от атак с использованием манипулированного видео.
"Мошенничество с дезинформацией — одна из самых серьезных проблем современности", — отмечают ученые, подчеркивая важность обеспечения надежности данных, особенно аудиовизуальных.