APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Когда вы просите ИИ вести себя как женщины, большинство становится более осторожными: исследование

Исследование показало, что языковые модели изменяют свою склонность к риску в зависимости от заданной гендерной идентичности. Некоторые ИИ становятся более осторожными, когда их просят действовать как женщины.

Недавнее исследование, проведенное в Университете Алламе Табатабаи в Тегеране, выявило интересные закономерности в поведении языковых моделей. Когда ИИ просят принимать решения, исходя из женской идентичности, они становятся более осторожными в отношении финансовых рисков. В то время как при задании мужской идентичности модели демонстрируют более рискованное поведение.

В ходе эксперимента использовалась стандартная экономическая задача, известная как задача Хольта-Лори, где участникам предлагались выборы между безопасными и рискованными лотереями. Результаты показали, что модели DeepSeek Reasoner и Google Gemini 2.0 Flash-Lite значительно увеличивали свою осторожность, когда их просили действовать как женщины, что отражает реальные поведенческие паттерны, согласно которым женщины чаще проявляют осторожность в финансовых решениях.

Интересно, что модели OpenAI, такие как GPT, не изменили своего подхода к риску в зависимости от гендерных подсказок, оставаясь нейтральными. Модели Meta Llama проявили непредсказуемое поведение, иногда следуя ожидаемым паттернам, а иногда наоборот.

Исследователи подчеркивают, что эти отклонения отражают существующие стереотипы в человеческом поведении. Они также отметили, что важно учитывать, как ИИ может непреднамеренно усиливать социальные предвзятости, адаптируя свои рекомендации в зависимости от гендерных сигналов в разговоре. Например, система одобрения кредитов, которая становится более консервативной при обработке заявок от женщин, может усугубить экономические неравенства.

В заключение, исследование подчеркивает необходимость разработки «биоцентрических мер» для оценки поведения ИИ, чтобы гарантировать, что они точно отражают человеческое разнообразие, не усиливая вредные стереотипы.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

Изменения в стратегии цифровой рекламы: издатели адаптируются к новым условиям, сосредоточившись на устойчивом росте и инвестициях в видео и AI.
Исследование показало, что профессионалы устали от избитых фраз в деловой переписке, и искусственный интеллект не помогает решить эту проблему. В списке самых раздражающих выражений оказались такие, как "связываюсь", "проверяю" и "пожалуйста, дайте совет".
Международный комитет по спасению (IRC) представил ALMA — многоязычного виртуального помощника, который поможет беженцам и новым иммигрантам адаптироваться в США, предоставляя информацию о социальных услугах, трудоустройстве и правах.
Написать нам