APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Должны ли государства рассматривать инциденты с ИИ как авиационные катастрофы и проводить расследования?

Новый политический каркас от Aspen Institute предлагает штатам создать системы для расследования инцидентов с искусственным интеллектом, чтобы минимизировать риски и повысить доверие общества к технологиям.

В условиях стремительного внедрения искусственного интеллекта в различные сферы жизни важно не только развивать технологии, но и обеспечивать их безопасность. Aspen Policy Academy представила новый политический каркас, который призывает государственные органы создать формализованные системы для расследования случаев, когда ИИ приводит к ошибкам или причиняет вред. Этот документ, разработанный для Офиса политики искусственного интеллекта штата Юта, предлагает стандартизированный подход к расследованию инцидентов, связанных с ИИ.

Юта уже зарекомендовала себя как один из немногих штатов с регулируемыми песочницами для тестирования ИИ-технологий. Эти песочницы позволяют тестировать новые технологии под контролем регуляторов, что обеспечивает соблюдение правовых норм и политик. Однако, как отмечается в новом руководстве, у агентства нет четких процессов для реагирования на случаи, когда ИИ может принимать предвзятые решения или давать небезопасные рекомендации, что может подорвать доверие общества.

С увеличением использования генеративного ИИ государственные чиновники сталкиваются с реальными рисками, такими как алгоритмическая дискриминация в найме, жилищном строительстве и государственных услугах. В Юте продолжаются обсуждения изменений в законодательстве, касающегося ИИ, включая распределение ответственности между разработчиками и пользователями технологий.

Предложенный каркас включает в себя структурированный процесс расследования, который объединяет правительственных чиновников, разработчиков и экспертов отрасли для анализа инцидентов, когда ИИ-системы наносят прямой вред. Этот подход был вдохновлен практиками безопасности в авиации и здравоохранении, которые акцентируют внимание на анализе причин и предотвращении инцидентов, а не на наказаниях.

Кроме того, компании, участвующие в южноамериканской песочнице, должны будут подписать обязательство о публичном раскрытии результатов расследований, что повысит уровень прозрачности и доверия со стороны общества. Это позволит всем заинтересованным сторонам учиться на ошибках и улучшать безопасность технологий.

Таким образом, новый каркас представляет собой следующий этап в управлении ИИ, который может помочь штатам перейти от реактивного регулирования к постоянному обучению и улучшению. Это может стать моделью для федеральных законодателей, стремящихся к более последовательному надзору за ИИ.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

Стивен Содерберг представил новый фильм "The Christophers", исследующий сложные отношения между искусством и коммерцией, а также поделился мнением о роли искусственного интеллекта в киноиндустрии.
73,7% японских старшеклассников используют искусственный интеллект, в основном как помощника для учебы, согласно недавнему опросу. AI становится важным инструментом в образовательном процессе.
Исследование Университета Пенсильвании с использованием ИИ проанализировало более 400,000 постов на Reddit и выявило недооцененные побочные эффекты препаратов GLP-1, таких как семаглутид и тирзепатид, включая репродуктивные симптомы и проблемы с температурой.
Написать нам