OpenAI продолжает развивать свое приложение Sora, которое позволяет пользователям создавать гиперреалистичные видео. С момента своего запуска оно быстро завоевало популярность в App Store в США и Канаде. Однако возникли вопросы о безопасности и контроле над контентом, особенно в контексте создания глубоких фейков.
Ранее пользователи могли разрешать другим использовать свои изображения в видео, но не имели возможности контролировать, как именно их образы будут использованы. Это могло привести к созданию контента, который противоречит личным убеждениям пользователей. В ответ на это OpenAI внедрила новые функции, позволяющие ограничивать использование изображений.
Теперь пользователи могут задавать конкретные инструкции, такие как "не включать меня в видео с политическим содержанием" или "не позволяйте мне произносить это слово". Эти настройки доступны в разделе редактирования камео, что дает пользователям больше контроля над тем, как их образы используются в видео.
Кроме того, OpenAI планирует улучшить видимость водяного знака, который накладывается на видео, созданные с помощью Sora, чтобы предотвратить его удаление. Это шаг к повышению прозрачности и ответственности в использовании технологий глубоких фейков.
Таким образом, обновления Sora направлены на то, чтобы сделать процесс создания видео более безопасным и контролируемым для пользователей, что является важным шагом в эволюции технологий искусственного интеллекта.