В условиях стремительного внедрения искусственного интеллекта в различные сферы жизни важно не только развивать технологии, но и обеспечивать их безопасность. Aspen Policy Academy представила новый политический каркас, который призывает государственные органы создать формализованные системы для расследования случаев, когда ИИ приводит к ошибкам или причиняет вред. Этот документ, разработанный для Офиса политики искусственного интеллекта штата Юта, предлагает стандартизированный подход к расследованию инцидентов, связанных с ИИ.
Юта уже зарекомендовала себя как один из немногих штатов с регулируемыми песочницами для тестирования ИИ-технологий. Эти песочницы позволяют тестировать новые технологии под контролем регуляторов, что обеспечивает соблюдение правовых норм и политик. Однако, как отмечается в новом руководстве, у агентства нет четких процессов для реагирования на случаи, когда ИИ может принимать предвзятые решения или давать небезопасные рекомендации, что может подорвать доверие общества.
С увеличением использования генеративного ИИ государственные чиновники сталкиваются с реальными рисками, такими как алгоритмическая дискриминация в найме, жилищном строительстве и государственных услугах. В Юте продолжаются обсуждения изменений в законодательстве, касающегося ИИ, включая распределение ответственности между разработчиками и пользователями технологий.
Предложенный каркас включает в себя структурированный процесс расследования, который объединяет правительственных чиновников, разработчиков и экспертов отрасли для анализа инцидентов, когда ИИ-системы наносят прямой вред. Этот подход был вдохновлен практиками безопасности в авиации и здравоохранении, которые акцентируют внимание на анализе причин и предотвращении инцидентов, а не на наказаниях.
Кроме того, компании, участвующие в южноамериканской песочнице, должны будут подписать обязательство о публичном раскрытии результатов расследований, что повысит уровень прозрачности и доверия со стороны общества. Это позволит всем заинтересованным сторонам учиться на ошибках и улучшать безопасность технологий.
Таким образом, новый каркас представляет собой следующий этап в управлении ИИ, который может помочь штатам перейти от реактивного регулирования к постоянному обучению и улучшению. Это может стать моделью для федеральных законодателей, стремящихся к более последовательному надзору за ИИ.