В последние две недели после сообщения о пропаже Гаса, который исчез в удаленной местности Южной Австралии, в интернете начали распространяться поддельные изображения, якобы созданные с помощью технологий искусственного интеллекта. Эти изображения, а также ложные сообщения, манипулирующие реальными фотографиями, вызывают серьезные опасения у экспертов в области технологий и права.
Некоторые посты в социальных сетях содержат фальшивые изображения мальчика, которые сопровождаются провокационными заголовками, такими как "Это случай похищения?". Несмотря на то, что не все такие публикации получили широкую огласку, их количество достаточно велико, чтобы вызвать беспокойство о легкости, с которой создается вредоносный контент.
Эксперты подчеркивают, что такие изображения могут причинить эмоциональный вред, создавая ложные надежды или, наоборот, усугубляя страдания семей, находящихся в бедственном положении. Важно понимать, что дезинформация может подрывать доверие к информации в целом.
Существуют некоторые признаки, которые могут помочь пользователям распознать фальшивые изображения. Например, искусственно созданные изображения часто имеют недостатки в освещении, глубине и тенях. Эти нюансы могут быть заметны даже непрофессионалам, что позволяет им распознавать так называемую "неуютную долину" — состояние, когда изображение выглядит неправдоподобно, но неясно, в чем именно проблема.
Мотивы создания дезинформации могут быть различными, включая желание заработать на трафике или просто желание привлечь внимание к себе. Некоторые эксперты считают, что необходимо ужесточить законы, касающиеся распространения ложной информации, особенно в контексте активных полицейских расследований.
В то время как некоторые меры по борьбе с дезинформацией уже существуют, эксперты призывают к более строгим правилам, которые могли бы ограничить использование генеративного ИИ в таких ситуациях. Важно также обучать пользователей критически относиться к источникам информации и проверять их надежность.