APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Калифорнийский закон требует от разработчиков большей прозрачности для крупных AI-моделей

Калифорнийский закон о прозрачности в области искусственного интеллекта требует от разработчиков крупных моделей AI раскрытия информации о рисках и мерах безопасности. Закон вступает в силу с 1 января 2026 года и станет самым обширным в США.

Калифорния делает шаг к повышению прозрачности в сфере искусственного интеллекта, подписав закон, известный как Закон о прозрачности в области передового искусственного интеллекта (TFAIA). Этот закон, принятый 29 сентября 2025 года, обязывает разработчиков крупных AI-моделей раскрывать информацию о своих системах и мерах по управлению рисками. Он вступит в силу 1 января 2026 года и станет самым масштабным законодательным актом в США, касающимся прозрачности в области AI.

Закон охватывает так называемых "разработчиков передовых моделей", которые обучают или инициируют обучение крупных AI-моделей. Крупные разработчики, чьи доходы превышают 500 миллионов долларов в год, должны будут публиковать на своих сайтах специальные отчеты о прозрачности, которые будут содержать информацию о моделях, их назначении и потенциальных рисках.

Ключевыми требованиями для крупных разработчиков являются создание и публикация "рамок передового AI", которые должны описывать технические и организационные протоколы для управления рисками. Эти рамки должны обновляться не реже одного раза в год, а любые значительные изменения должны быть опубликованы в течение 30 дней.

Кроме того, разработчики обязаны сообщать о "катастрофических рисках", которые могут возникнуть в результате использования их моделей, и о критических инцидентах безопасности, таких как несанкционированный доступ к данным моделей. Эти отчеты должны быть направлены в Офис по чрезвычайным ситуациям Калифорнии.

Закон также защищает сотрудников, которые сообщают о потенциальных угрозах безопасности, и создает консорциум для разработки общественного облачного вычислительного кластера, который будет способствовать безопасному и этичному развитию AI.

С введением TFAIA разработчики AI должны будут внимательно следить за соблюдением новых требований, что может оказать значительное влияние на всю индустрию. Это важный шаг к обеспечению безопасности и ответственности в быстро развивающейся области искусственного интеллекта.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

Монашский университет запускает пилотный проект по использованию графовых баз данных для улучшения взаимодействия в исследовательской экосистеме, объединяя данные о научных публикациях и оборудовании.
Австралия стала лидером по использованию искусственного интеллекта, с более чем 5 миллионами обращений к AI на душу населения. В 2025 году глобальное использование AI увеличилось на 20%, что подчеркивает растущую зависимость от этих технологий.
Fetch.ai подала иск против Ocean Protocol, обвиняя его в неправомерной продаже 263 миллионов токенов FET, что привело к значительным рыночным колебаниям и падению цен. Этот случай поднимает вопросы о управлении токенами в децентрализованных проектах.
Написать нам