Недавние исследования показали, что злоумышленники могут обойти защитные механизмы генеративного ИИ, переводя свои запросы в математические уравнения. Эта уязвимость, названная MathPrompt, позволяет обойти системы безопасности, которые обычно фильтруют подозрительные запросы на естественном языке. В экспериментах с 13 современными языковыми моделями, такими как ChatGPT и Google Gemini, удалось достичь успеха в 73,6% случаев.
Эксперты подчеркивают, что несмотря на эту уязвимость, важно продолжать применять базовые меры кибербезопасности и не допускать утечек конфиденциальной информации. Разработчики ИИ должны работать над улучшением защиты от подобных атак, чтобы обеспечить безопасность своих систем.