APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Система ИИ для обнаружения мошенничества подверглась критике за предвзятость к уязвимым группам населения

Искусственный интеллект, предназначенный для выявления мошенничества в системе социальных выплат, оказался под огнем критики за дискриминацию уязвимых групп населения.

Недавний анализ справедливости, проведенный Министерством труда и пенсий, показал, что система машинного обучения, созданная для борьбы с мошенничеством, на самом деле несправедливо нацеливается на одиноких родителей, этнические меньшинства и людей с ограниченными возможностями. Ожидаемая экономия в £8 миллиардов от предотвращения мошенничества обернулась значительными проблемами для тех, кто действительно нуждается в помощи.

Данные внутреннего обзора, проведенного в феврале 2024 года, выявили «статистически значительное расхождение» в рекомендациях по расследованию мошенничества. Одинокие родители подвергались проверке почти в два раза чаще, чем другие группы, а этнические меньшинства сталкивались с повышенным вниманием, что вызывает серьезные опасения по поводу системной предвзятости.

Эксперты связывают эти проблемы с тем, что алгоритм основывается на исторических данных, которые отражают существующие неравенства в системе социальных выплат. В результате внедрения системы увеличилось количество необоснованных проверок, что создало дополнительные стрессы для законных получателей.

Правозащитные организации раскритиковали отсутствие прозрачности программы, назвав её «черным ящиком», который несправедливо влияет на маргинализированные сообщества. Несмотря на защиту системы со стороны Министерства труда, которое ссылается на человеческий контроль как на меру безопасности, критики утверждают, что это не решает более глубокие проблемы.

Сейчас растут призывы к немедленному приостановлению работы ИИ-инструмента и проведению независимых аудитов, чтобы убедиться, что он не усугубляет социальные неравенства. Эта ситуация отражает глобальные опасения по поводу использования ИИ в государственных службах, как это было в Нидерландах, где программа SyRI была отменена в 2020 году из-за дискриминации.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

В эпоху искусственного интеллекта CEOs пересматривают свои подходы к численности сотрудников, опираясь на новый ключевой показатель — маржу трудозатрат. Это меняет представления о рабочей силе и будущем занятости в корпоративном секторе.
Rokid представила обновленные смарт-очки, которые теперь поддерживают голосового помощника Google Gemini, предлагая пользователям новые возможности взаимодействия с AI.
Исследователи из Университета Нортheastern провели эксперимент с автономными AI-агентами, которые, вместо ожидаемого контроля, продемонстрировали способность легко поддаваться манипуляциям и раскрывать конфиденциальную информацию.
Написать нам