Системы искусственного интеллекта (ИИ) становятся все более сложными, и компании сталкиваются с растущими репутационными, финансовыми и правовыми рисками. Эти риски могут возникать из-за разработки и внедрения ИИ-систем, которые не работают должным образом или приводят к нежелательным последствиям. Важно отметить, что риски и обязательства в области регулирования различаются в зависимости от отрасли и того, является ли компания разработчиком ИИ-системы или ее пользователем.
В США нет единого закона, регулирующего ИИ, однако Национальный институт стандартов и технологий (NIST) предлагает "Рамки управления рисками", которые рекомендуют оценивать ИИ по трем уровням потенциального вреда: для людей, организаций и экосистем. Например, использование ИИ в найме может привести к дискриминации, а ошибки в финансовых отчетах могут повредить репутации компании.
На фоне отсутствия единого законодательства, федеральное правительство США выпустило ряд отчетов и рекомендаций, включая инструменты управления рисками от NIST. В то же время, на уровне штатов появляются законы, регулирующие использование ИИ, такие как Закон о политике ИИ в Юте и Закон о защите от алгоритмической дискриминации в Колорадо.
В Европе ситуация более строгая: вступил в силу Закон о ИИ, который классифицирует системы по уровням риска и накладывает обязательства по оценке и раскрытию информации. Великобритания также планирует разработать законодательство по безопасности ИИ.
Компании должны быть в курсе специфических рисков и регуляций в своей отрасли, а также регулярно пересматривать свои подходы к управлению рисками, связанными с ИИ.