APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Искусственный интеллект отражает человеческие предвзятости, но данные для обучения открывают путь к улучшению

Искусственные интеллект-системы, такие как GPT-4, демонстрируют предвзятости "свой против чужого", аналогичные человеческим. Однако, исследование показывает, что эти предвзятости можно уменьшить с помощью тщательной настройки обучающих данных.

Недавнее исследование, проведенное учеными из Нью-Йоркского университета, выявило, что современные искусственные интеллект-системы, включая популярные языковые модели, такие как GPT-4, подвержены тем же предвзятостям, что и люди. Эти системы склонны проявлять предпочтение к "своим" группам, в то время как к "чужим" относятся с негативом. Это открытие подчеркивает важность внимательного подхода к обучающим данным, чтобы избежать усиления социальных разделений.

В ходе исследования было проанализировано 77 различных языковых моделей. Ученые обнаружили, что при использовании фраз, начинающихся с "Мы", модели генерировали более положительный контент, тогда как фразы, начинающиеся с "Они", приводили к негативным результатам. В частности, предложения, относящиеся к "своей" группе, были на 93% более вероятны для положительных откликов, в то время как "чужие" предложения на 115% чаще вызывали негативные реакции.

Исследователи также изучили возможность изменения этих предвзятостей через модификацию обучающих данных. При дообучении моделей на основе партийного контента из социальных сетей, таких как Twitter, наблюдалось значительное увеличение как предпочтения к "своим", так и враждебности к "чужим". Однако, когда ученые отфильтровали предвзятые данные перед обучением, они смогли успешно снизить эти поляризующие эффекты.

Эти результаты открывают новые горизонты для улучшения разработки и обучения ИИ. Важно помнить, что без должного внимания к обучающим данным, ИИ может непреднамеренно усиливать существующие социальные разделения. Однако, как показывает исследование, даже небольшие, но целенаправленные изменения в обучающих данных могут существенно повлиять на поведение моделей, что открывает путь к созданию более справедливых систем ИИ.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

Volvo готовит к запуску новый электрический SUV EX60, который обещает стать настоящим прорывом для компании. Модель выделяется увеличенным запасом хода, скоростью зарядки и уникальными технологиями, включая AI-ассистента от Google.
Исследование Стэнфорда и Принстона показало, что китайские ИИ-системы чаще уклоняются от политических вопросов и дают неточные ответы по сравнению с западными аналогами. Это поднимает вопросы о точности и безопасности ИИ в разных странах.
Bilibili (BILI) объявила о своей первой годовой чистой прибыли за 2025 год, что стало результатом роста пользователей и монетизации на основе ИИ. Однако акции компании за последний месяц упали на 21.76%, что вызывает вопросы о ее оценке.
Написать нам