Калифорния делает шаг к повышению прозрачности в сфере искусственного интеллекта, подписав закон, известный как Закон о прозрачности в области передового искусственного интеллекта (TFAIA). Этот закон, принятый 29 сентября 2025 года, обязывает разработчиков крупных AI-моделей раскрывать информацию о своих системах и мерах по управлению рисками. Он вступит в силу 1 января 2026 года и станет самым масштабным законодательным актом в США, касающимся прозрачности в области AI.
Закон охватывает так называемых "разработчиков передовых моделей", которые обучают или инициируют обучение крупных AI-моделей. Крупные разработчики, чьи доходы превышают 500 миллионов долларов в год, должны будут публиковать на своих сайтах специальные отчеты о прозрачности, которые будут содержать информацию о моделях, их назначении и потенциальных рисках.
Ключевыми требованиями для крупных разработчиков являются создание и публикация "рамок передового AI", которые должны описывать технические и организационные протоколы для управления рисками. Эти рамки должны обновляться не реже одного раза в год, а любые значительные изменения должны быть опубликованы в течение 30 дней.
Кроме того, разработчики обязаны сообщать о "катастрофических рисках", которые могут возникнуть в результате использования их моделей, и о критических инцидентах безопасности, таких как несанкционированный доступ к данным моделей. Эти отчеты должны быть направлены в Офис по чрезвычайным ситуациям Калифорнии.
Закон также защищает сотрудников, которые сообщают о потенциальных угрозах безопасности, и создает консорциум для разработки общественного облачного вычислительного кластера, который будет способствовать безопасному и этичному развитию AI.
С введением TFAIA разработчики AI должны будут внимательно следить за соблюдением новых требований, что может оказать значительное влияние на всю индустрию. Это важный шаг к обеспечению безопасности и ответственности в быстро развивающейся области искусственного интеллекта.