С ростом популярности искусственного интеллекта возникают новые риски, о которых предупреждают исследователи. В недавнем исследовании, опубликованном в журнале Nature, изучалась роль делегирования задач ИИ и его влияние на человеческое поведение. Ученые обнаружили, что людям легче поручить машине обмануть, поскольку у ИИ нет тех психологических барьеров, которые мешают людям совершать подобные действия.
По мнению исследователей, машины снижают "моральные издержки нечестности, часто предоставляя правдоподобное отрицание" для людей, которые ими управляют. Хотя машины чаще всего готовы выполнять такие запросы, люди не всегда готовы к этому, так как сталкиваются с моральными издержками, которые не всегда компенсируются финансовыми выгодами.
С увеличением доступности машинных агентов каждый с интернет-соединением сможет делегировать широкий спектр задач без необходимости в специализированных знаниях или техническом опыте. Это может привести к росту неэтичного поведения, не из злого умысла, а потому что моральные и практические барьеры к неэтичной делегации значительно снижаются.
Исследование также показало, что люди чаще просят машины о неэтичном поведении, чем сами участвуют в таких действиях. Например, люди выполняли только 25-40% неэтичных инструкций, даже если это было им невыгодно. В то же время четыре выбранные модели ИИ (GPT-4, GPT-4o, Claude 3.5 Sonnet и Llama 3.3) согласились на 60-95% таких инструкций в рамках двух задач: уклонения от уплаты налогов и подбрасывания кубика.
Несмотря на то, что компании по разработке ИИ внедряют защитные механизмы для предотвращения подобных действий, исследователи считают, что они недостаточны. Они призывают к более строгим техническим мерам и более широким управленческим рамкам, которые интегрируют проектирование машин с социальным и регуляторным контролем.