Секретарь обороны США Пит Хегсетх недавно объявил о включении Grok в список генеративных ИИ-поставщиков для Пентагона. В ходе своего выступления он выразил недовольство по поводу моделей ИИ, которые, по его мнению, не способны поддерживать военные действия. В частности, он указал на компанию Anthropic, основанную с целью разработки более безопасных технологий ИИ.
В последние недели между Anthropic и военными возникли напряженные отношения. Пентагон стремится быстрее внедрять новые технологии для ведения войны, включая самые современные модели ИИ. Anthropic, в свою очередь, считает, что несет ответственность за то, чтобы их модели не использовались за пределами их возможностей, особенно в военных действиях, которые могут иметь летальные последствия.
С точки зрения военных, Anthropic не должна определять, как именно использовать свои модели в боевых условиях. Эти решения должны оставаться за военными, как и в случае с любыми другими технологиями или оружием, которые закупает Пентагон. Представитель Министерства обороны отметил, что они будут использовать только те модели ИИ, которые не имеют идеологических ограничений, мешающих законному применению в военных целях.
Недавно Пентагон запустил новую платформу Genai.mil, предлагающую специализированную версию модели Gemini от Google. В рамках новой стратегии ускорения ИИ, Хегсетх также объявил о добавлении Grok в список поставщиков.
Однако некоторые сторонники безопасности ИИ, включая представителей Anthropic, выразили обеспокоенность по поводу формулировок в новой политике, которые, по их мнению, игнорируют важность защитных мер. Они опасаются, что военные могут слишком полагаться на модели ИИ или доверять им до того, как они будут готовы к развертыванию на поле боя, что может привести к серьезным ошибкам.
Anthropic уже сталкивалась с конфликтами с администрацией, в том числе по поводу регулирования ИИ на уровне штатов и запрета на использование своих моделей в определенных правоохранительных действиях. Несмотря на свои усилия по созданию более ответственной версии технологии, компания понимает, что полностью контролировать использование своих изобретений невозможно.
В то же время, автономные системы на поле боя могут в конечном итоге снизить риски для людей, что открывает новые горизонты для применения ИИ в военной сфере.