APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Waymo и Alphabet подали в суд за предвзятость после того, как ИИ ошибочно назвал врача террористом

Доктор Нассар Мохамед подал в суд на компании Alphabet и Waymo, утверждая, что их ИИ ошибочно идентифицировал его как террориста, что привело к отказу в доступе к услугам. Он требует компенсации и изменения алгоритмов проверки идентификации.

В мире технологий, где искусственный интеллект становится все более распространенным, случаи его неправильного применения вызывают серьезные вопросы. Один из таких случаев произошел в Сан-Франциско, где доктор Нассар Мохамед, врач и активист, подал в суд на компании Alphabet и Waymo. Он утверждает, что его имя, связанное с его этнической и религиозной принадлежностью, вызвало ошибочное срабатывание системы ИИ, которая идентифицировала его как террориста.

Доктор Мохамед, который два года пытался зарегистрироваться в сервисе Waymo, узнал от друзей внутри компании, что его имя стало причиной проблем с идентификацией. Несмотря на его попытки исправить ошибку, он не смог добиться человеческого вмешательства для устранения проблемы. В результате он подал иск в суд, утверждая, что компании дискриминировали его по этническому, религиозному и национальному признаку, что нарушает его права на равный доступ к услугам.

В своем иске он требует не только компенсации, но и изменения в алгоритмах, чтобы предотвратить подобные случаи в будущем. Он подчеркивает, что это не просто конфликт, а вопрос ответственности и ясности в использовании технологий, которые могут оказывать влияние на уязвимые группы населения.

Представитель Waymo заявил, что компания стремится обеспечить доступ для всех и не согласен с обвинениями. Однако, как отметил адвокат Мохамеда, это дело поднимает важные вопросы о том, как технологии могут воспроизводить предвзятости, если не будут должным образом контролироваться.

Ситуация с доктором Мохамедом подчеркивает необходимость более тщательного подхода к использованию ИИ в различных сферах, особенно когда речь идет о проверке идентификации и доступе к услугам. Важно, чтобы компании, использующие такие технологии, обеспечивали прозрачность и возможность человеческого вмешательства в случае ошибок.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

HR-отделы должны сосредоточиться на поддержке менеджеров для повышения эффективности команд. Использование ИИ может помочь, предоставляя менеджерам необходимые данные для обоснованных решений.
В январе 2026 года Управление информационного комиссара Великобритании опубликовало отчет о агентном ИИ, став первым регулятором, который рассмотрел его влияние на защиту данных. Документ подчеркивает важность ответственности организаций при использовании новых технологий.
AMD и OpenAI демонстрируют взаимосвязь в области искусственного интеллекта, требующую более глубокого анализа, особенно в контексте кругового финансирования.
Написать нам