Недавнее исследование, проведенное в Германии и Португалии, изучило, как языковые модели, такие как GPT-3 и GPT-4, могут помочь в безопасной разработке программного обеспечения. В ходе экспериментов было установлено, что, несмотря на успехи в выявлении распространенных уязвимостей, модели испытывают трудности с более сложными и редкими проблемами. Например, GPT-3 успешно определил уязвимости, такие как переполнение буфера, но не смог выявить более сложные, такие как переполнение целого числа.
Исследование подчеркивает важность использования международных стандартов, таких как IEC 62443 и ISO/IEC 27001, в сочетании с AI для повышения безопасности. Несмотря на достижения, эксперты предупреждают о необходимости контроля со стороны специалистов, чтобы избежать распространения уязвимостей, созданных AI.