Исследователи из MIT представили инновационный подход к устранению предвзятости в машинном обучении, который фокусируется на конкретных проблемных данных. Этот метод, названный "Data Debiasing with Datamodels" (D3M), использует технику TRAK для выявления и удаления определенных примеров из обучающего набора, которые приводят к ошибкам в предсказаниях для меньшинств.
Традиционно, модели машинного обучения могут демонстрировать низкую точность при работе с недостаточно представленными группами. Например, если модель обучена на данных, в основном состоящих из мужчин, она может давать неверные рекомендации для женщин. Чтобы улучшить результаты, исследователи часто пытаются сбалансировать набор данных, удаляя из него определенные точки. Однако это может негативно сказаться на общей производительности модели.
Метод AUTO-D3M позволяет обнаруживать и устранять предвзятости даже в наборах данных без меток, используя методы, такие как анализ главных компонент. Это особенно полезно в реальных сценариях, где аннотированные данные могут отсутствовать. Исследователи показали, что их метод позволяет значительно улучшить точность для меньшинств, удаляя при этом гораздо меньше данных, чем традиционные методы.
В ходе экспериментов метод D3M продемонстрировал превосходство над несколькими другими подходами на трех наборах данных машинного обучения. Например, на наборе данных CelebA-Age метод улучшил точность для наименее представленных групп, удалив на 20 000 примеров меньше, чем стандартные методы балансировки.
Этот подход может быть особенно полезен в таких областях, как здравоохранение и финансы, где доступ к аннотированным данным ограничен. Исследователи надеются, что их метод станет доступным инструментом для практиков, позволяя им более эффективно выявлять и устранять предвзятости в своих моделях.
Таким образом, новый метод D3M открывает новые горизонты для создания более справедливых и надежных систем искусственного интеллекта, что особенно актуально в условиях растущего внимания к этике и справедливости в технологиях.