В условиях стремительного развития технологий искусственного интеллекта, безопасность остается на заднем плане. Новый отчет от Future of Life Institute, некоммерческой организации, занимающейся снижением глобальных рисков, выявил уязвимости в флагманских моделях ИИ, разработанных такими гигантами, как OpenAI и Google DeepMind.
Эксперты, включая лауреата премии Тьюринга Йошуа Бенгио, оценили компании по шести ключевым критериям: оценка рисков, текущие угрозы, безопасность, стратегия экзистенциальной безопасности, управление и подотчетность, а также прозрачность. Результаты оказались неутешительными: большинство компаний не обеспечивают должный уровень безопасности, несмотря на активные усилия в этой области.
Meta, разработчик популярных моделей Llama, получил наименьшую оценку — F. X.AI, компания Илона Маска, также не впечатлила, получив D-. OpenAI и Google DeepMind были оценены на D+ за свои подходы к безопасности. Даже Zhipu AI, единственный китайский разработчик, подписавший обязательство по безопасности ИИ, получил D.
На фоне этого, Anthropic, создатель чат-бота Claude, который делает безопасность своим приоритетом, оказался на вершине списка с оценкой C. Однако это также подчеркивает, что даже у самых безопасных игроков есть значительные возможности для улучшения.
Отчет также выявил, что все оцененные модели уязвимы к так называемым "jailbreaks", что ставит под сомнение их надежность. Эксперты подчеркивают необходимость независимого контроля и более строгих стандартов в области безопасности, чтобы избежать потенциальных катастрофических последствий.
В целом, отчет стал важным шагом к повышению ответственности компаний за свои технологии и может способствовать внедрению лучших практик в индустрии. В условиях растущих угроз со стороны ИИ, настало время для более серьезного подхода к безопасности.