APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Новости

#уязвимости_ai

На этой неделе в мире кибербезопасности произошло множество инцидентов, связанных с уязвимостями и атаками, подчеркивающих важность соблюдения базовых мер безопасности. В частности, была обнаружена критическая уязвимость в платформе n8n, позволяющая удаленное выполнение кода.
В мире кибербезопасности наблюдается рост атак, использующих легитимные инструменты и технологии, такие как AI и открытые платформы. Новые угрозы требуют повышенного внимания и осведомленности для защиты от манипуляций и взломов.
Исследователи выявили более 30 уязвимостей в AI-инструментах разработки, которые могут привести к утечке данных и удаленному выполнению кода. Эти уязвимости затрагивают популярные IDE и расширения, такие как GitHub Copilot и Cursor.
Wallarm представил отчет о угрозах API за второй квартал 2025 года, в котором отмечается рост уязвимостей, связанных с AI, и необходимость проактивного подхода к безопасности API.
В интервью обсуждаются риски, связанные с использованием AI-агентов в организациях, и подчеркивается необходимость более строгих мер безопасности для предотвращения потенциальных угроз.
Trend Micro предупреждает о рисках безопасности, связанных с уязвимыми AI-серверами. Исследование компании выявило, что многие системы создаются на основе небезопасных компонентов, что открывает двери для кибератак.
В NVIDIA обнаружены критические уязвимости в Triton Inference Server, позволяющие злоумышленникам выполнять произвольный код и похищать AI-модели. Компания выпустила патчи и призвала пользователей обновить системы для защиты.
Исследование Zenity Labs выявило уязвимости в популярных AI-агентах, позволяющие злоумышленникам бесшумно захватывать их и манипулировать данными без взаимодействия с пользователями.
Хакер-белый шляпник нашел способ обмануть ChatGPT, заставив его выдавать ключи активации Windows, что подчеркивает уязвимости в безопасности AI.
DARPA запускает программу SABER для повышения безопасности и устойчивости искусственного интеллекта в военных операциях, разрабатывая методы оценки уязвимостей AI-систем на поле боя.
Современные системы искусственного интеллекта подвержены рискам, связанным с отравлением данных, что может привести к искажению их работы и опасным последствиям. Разберем, как защитить AI/ML модели от таких угроз.
На конференции Black Hat Europe 2024 обсуждали уязвимости AI-систем, которые могут быть использованы злоумышленниками для манипуляции и атак, включая создание бесконечных циклов запросов, что может привести к отказу в обслуживании.
Написать нам