В мире технологий, где искусственный интеллект становится все более распространенным, случаи его неправильного применения вызывают серьезные вопросы. Один из таких случаев произошел в Сан-Франциско, где доктор Нассар Мохамед, врач и активист, подал в суд на компании Alphabet и Waymo. Он утверждает, что его имя, связанное с его этнической и религиозной принадлежностью, вызвало ошибочное срабатывание системы ИИ, которая идентифицировала его как террориста.
Доктор Мохамед, который два года пытался зарегистрироваться в сервисе Waymo, узнал от друзей внутри компании, что его имя стало причиной проблем с идентификацией. Несмотря на его попытки исправить ошибку, он не смог добиться человеческого вмешательства для устранения проблемы. В результате он подал иск в суд, утверждая, что компании дискриминировали его по этническому, религиозному и национальному признаку, что нарушает его права на равный доступ к услугам.
В своем иске он требует не только компенсации, но и изменения в алгоритмах, чтобы предотвратить подобные случаи в будущем. Он подчеркивает, что это не просто конфликт, а вопрос ответственности и ясности в использовании технологий, которые могут оказывать влияние на уязвимые группы населения.
Представитель Waymo заявил, что компания стремится обеспечить доступ для всех и не согласен с обвинениями. Однако, как отметил адвокат Мохамеда, это дело поднимает важные вопросы о том, как технологии могут воспроизводить предвзятости, если не будут должным образом контролироваться.
Ситуация с доктором Мохамедом подчеркивает необходимость более тщательного подхода к использованию ИИ в различных сферах, особенно когда речь идет о проверке идентификации и доступе к услугам. Важно, чтобы компании, использующие такие технологии, обеспечивали прозрачность и возможность человеческого вмешательства в случае ошибок.