Исследование, проведенное учеными из UC San Diego, подтвердило, что ChatGPT действительно может пройти Тест Тьюринга, но с небольшими хитростями. Чтобы "взять верх" над людьми, ИИ нужно было принять образ "тупого" собеседника, использующего сленг и допускающего ошибки в правописании.
Директор Центра безопасности ИИ, Шарбель-Рафаэль Сегери, отметил, что такие изменения поведения помогли ИИ обмануть человеческих судей в 54% случаев. Важно, что без предварительных инструкций ChatGPT показал гораздо меньшую эффективность.
В рамках эксперимента 500 участников были разделены на группы: среди них были как люди, так и interrogators, задававшие вопросы ИИ и живым участникам. AI системы, включая GPT-4 и старого чатбота ELIZA, отвечали с задержками, имитируя человеческое общение.
Согласно результатам, лишь 67% судей правильно определили настоящих людей, в то время как ChatGPT достиг результата, близкого к успешному проходу теста. Интересно, что для достижения этого результата GPT-4 "попросили" взять на себя роль молодого человека, которому не слишком интересна беседа, что помогло ему лучше соперничать с участниками.
Хотя результаты впечатляют, одно ясно: с потенциальными обновлениями, ChatGPT сможет адаптироваться и "уменьшать" своё поведение самостоятельно.