Недавнее исследование, проведенное в Университете Алламе Табатабаи в Тегеране, выявило интересные закономерности в поведении языковых моделей. Когда ИИ просят принимать решения, исходя из женской идентичности, они становятся более осторожными в отношении финансовых рисков. В то время как при задании мужской идентичности модели демонстрируют более рискованное поведение.
В ходе эксперимента использовалась стандартная экономическая задача, известная как задача Хольта-Лори, где участникам предлагались выборы между безопасными и рискованными лотереями. Результаты показали, что модели DeepSeek Reasoner и Google Gemini 2.0 Flash-Lite значительно увеличивали свою осторожность, когда их просили действовать как женщины, что отражает реальные поведенческие паттерны, согласно которым женщины чаще проявляют осторожность в финансовых решениях.
Интересно, что модели OpenAI, такие как GPT, не изменили своего подхода к риску в зависимости от гендерных подсказок, оставаясь нейтральными. Модели Meta Llama проявили непредсказуемое поведение, иногда следуя ожидаемым паттернам, а иногда наоборот.
Исследователи подчеркивают, что эти отклонения отражают существующие стереотипы в человеческом поведении. Они также отметили, что важно учитывать, как ИИ может непреднамеренно усиливать социальные предвзятости, адаптируя свои рекомендации в зависимости от гендерных сигналов в разговоре. Например, система одобрения кредитов, которая становится более консервативной при обработке заявок от женщин, может усугубить экономические неравенства.
В заключение, исследование подчеркивает необходимость разработки «биоцентрических мер» для оценки поведения ИИ, чтобы гарантировать, что они точно отражают человеческое разнообразие, не усиливая вредные стереотипы.