APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Как подготовиться к оценке соответствия по Закону ЕС об ИИ?

С 2026 года в Европе вступает в силу новый закон о регулировании искусственного интеллекта, требующий от компаний проводить оценку соответствия для высокорисковых AI-систем. Эксперты обсуждают, как подготовиться к этим изменениям.

С приближением 2026 года компании, работающие с искусственным интеллектом (AI) в Европе, готовятся к важным требованиям нового Закона о регулировании AI. В рамках этого закона вводятся оценки соответствия для высокорисковых AI-систем, что стало темой обсуждения на конференции AI Assurance, прошедшей в этом году.

Эксперты из юридической, технологической и сертификационной сфер объяснили, какие технологии подпадают под эти оценки и почему они так важны. Оценки соответствия предназначены для регулирования AI-систем, которые интегрированы в более широкий контекст, например, в веб-приложения или аппаратные устройства.

Согласно словам экспертов, оценки соответствия касаются высокорисковых систем, которые могут влиять на безопасность, таких как AI в автомобилях или медицинских устройствах, а также систем, используемых в таких сферах, как рекрутинг и образование. Компании должны будут соблюдать ряд требований, включая управление рисками, документацию и кибербезопасность. Если система пройдет оценку, она получит знак соответствия CE и должна будет быть зарегистрирована в единой базе данных ЕС.

Кроме того, эксперты отметили, что новый закон стремится установить стандарты, аналогичные тем, что были введены GDPR для защиты данных. Это означает, что компании, работающие с AI, должны будут адаптироваться к новым требованиям, что может быть непривычным для тех, кто ранее не сталкивался с подобным регулированием.

Важным аспектом является необходимость оценки рисков, связанных с использованием AI. Примером может служить случай в Нидерландах, когда AI-система, использованная для выявления мошенничества с пособиями, привела к серьезным последствиям для многих семей. Этот случай подчеркивает важность надлежащего тестирования и управления рисками.

Компании должны начать подготовку к новым требованиям, создавая инвентарь своих AI-систем и оценивая их риски. Это поможет им соответствовать новым стандартам и избежать возможных проблем в будущем. Важно помнить, что правила, касающиеся высокорисковых систем, могут измениться, и компании должны быть готовы к адаптации.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

SoundHound AI, Inc. (SOUN) продемонстрировала рост акций на 1.63%, превысив показатели S&P 500. Ожидается, что компания представит финансовые результаты с улучшением по сравнению с прошлым годом, что может привлечь внимание инвесторов.
Игроки Heartopia в шоке после недавнего объявления разработчиков о использовании AI в игре, что вызвало волну негативных отзывов и смешанную реакцию на платформе Steam.
EAERA и VIASM объявили о долгосрочном партнерстве, направленном на развитие прикладной математики, науки о данных и искусственного интеллекта в финансовом секторе Вьетнама в период с 2026 по 2028 год.
Написать нам