APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Новости

#глубокие_фейки

В последние годы технологии глубоких фейков стали доступнее, что создает серьезные угрозы для безопасности и репутации людей. Новые приложения позволяют создавать порнографические изображения с использованием чужих лиц, вызывая беспокойство среди правоохранительных органов и общества.
Сора 2 — новый инструмент генерации видео от OpenAI, который создает реалистичные видеоролики на основе текстовых подсказок. Однако он пока недоступен в Северной Ирландии и других регионах.
Правительство планирует ввести новые законы, направленные на борьбу с созданием и распространением сексуально откровенных дипфейков, использующих искусственный интеллект, после сообщений о злоупотреблениях в этой области.
На выборах в Ирландии и Нидерландах технологии глубоких фейков оказали значительное влияние на политическую обстановку, выявив уязвимости в системах безопасности и манипуляции общественным мнением.
Министерство информационных технологий Индии предложило изменения в правилах для социальных медиа, чтобы учесть влияние искусственного интеллекта, включая борьбу с глубокими фейками. Однако создатели контента выражают опасения по поводу новых требований.
Исследование показывает, что создание глубоких фейков, таких как видео с использованием OpenAI Sora, имеет значительное негативное воздействие на окружающую среду, требуя больших объемов электроэнергии и воды.
В Японии проблема с глубокими фейками в порно продолжает нарастать, несмотря на отсутствие соответствующих законов. В 2023 году было зафиксировано более 95 тысяч таких видео, 98% из которых содержат порнографию.
Подросток из Нью-Джерси подал иск против компании, разработавшей AI-инструмент для удаления одежды, который создал фальшивое обнаженное изображение. Дело привлекло внимание к проблемам конфиденциальности и безопасности в эпоху AI.
Искусственный интеллект создает музыкальные треки в стиле известных хитов, вызывая восторг у слушателей, но также порождает вопросы о правах артистов и будущем музыкальной индустрии.
С учетом роста фейковых новостей и контента, созданного с помощью ИИ, правительство предложило новые правила, требующие от создателей и платформ маркировки такого контента. Это может помочь в борьбе с дезинформацией, но полное регулирование может оказаться сложным.
OpenAI усиливает защиту прав знаменитостей на использование их образов после общественного недовольства, вызванного распространением глубоких фейков.
С ростом популярности технологий глубокого обучения, использование фейковых видео стало более распространенным, что вызывает опасения по поводу безопасности. Эксперты рекомендуют семьям устанавливать "безопасные слова" для защиты от мошенничества.
Написать нам