Недавнее исследование, проведенное учеными из Стэнфорда и Принстона, выявило значительные различия в поведении искусственного интеллекта в Китае и на Западе. В частности, китайские ИИ-модели чаще избегают ответов на политические вопросы или предоставляют неточные данные, что вызывает обеспокоенность по поводу их способности обрабатывать важные общественные темы.
В ходе исследования были проанализированы ведущие ИИ-системы из Китая и Запада на предмет их реакции на политически значимые запросы. Результаты показали, что китайские модели значительно чаще отказываются отвечать на такие вопросы или предоставляют информацию, в которой отсутствуют ключевые факты. Хотя западные модели также допускают ошибки, их частота и характер отличаются.
Это различие объясняется строгими законами и нормами, действующими в Китае, которые требуют жесткой модерации политической речи и обсуждения истории. Западные компании также устанавливают определенные ограничения, но они варьируются в зависимости от компании и юрисдикции. Важно отметить, что политический контент является чувствительной областью для ИИ по всему миру, и модели должны находить баланс между свободой выражения, соблюдением законодательства и риском распространения ложной информации.
Пользователи ИИ-систем, обращаясь за помощью по вопросам голосования, государственной политики и истории, могут столкнуться с проблемами, если модель отказывается отвечать или предоставляет ошибочную информацию. Это может привести к снижению доверия к таким системам и увеличению зависимости от менее надежных источников.
В условиях глобальной конкуренции ИИ-модели должны учитывать местные законы и культурные особенности. Разработчики сталкиваются с необходимостью находить баланс между безопасностью и точностью, что становится все более актуальным в свете новых исследований. Ожидается, что в будущем будет больше внимания к стандартам тестирования и прозрачности, что поможет пользователям лучше ориентироваться в возможностях и ограничениях ИИ.