APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Исследование выявило недостатки в ответах китайского ИИ

Исследование Стэнфорда и Принстона показало, что китайские ИИ-системы чаще уклоняются от политических вопросов и дают неточные ответы по сравнению с западными аналогами. Это поднимает вопросы о точности и безопасности ИИ в разных странах.

Недавнее исследование, проведенное учеными из Стэнфорда и Принстона, выявило значительные различия в поведении искусственного интеллекта в Китае и на Западе. В частности, китайские ИИ-модели чаще избегают ответов на политические вопросы или предоставляют неточные данные, что вызывает обеспокоенность по поводу их способности обрабатывать важные общественные темы.

В ходе исследования были проанализированы ведущие ИИ-системы из Китая и Запада на предмет их реакции на политически значимые запросы. Результаты показали, что китайские модели значительно чаще отказываются отвечать на такие вопросы или предоставляют информацию, в которой отсутствуют ключевые факты. Хотя западные модели также допускают ошибки, их частота и характер отличаются.

Это различие объясняется строгими законами и нормами, действующими в Китае, которые требуют жесткой модерации политической речи и обсуждения истории. Западные компании также устанавливают определенные ограничения, но они варьируются в зависимости от компании и юрисдикции. Важно отметить, что политический контент является чувствительной областью для ИИ по всему миру, и модели должны находить баланс между свободой выражения, соблюдением законодательства и риском распространения ложной информации.

Пользователи ИИ-систем, обращаясь за помощью по вопросам голосования, государственной политики и истории, могут столкнуться с проблемами, если модель отказывается отвечать или предоставляет ошибочную информацию. Это может привести к снижению доверия к таким системам и увеличению зависимости от менее надежных источников.

В условиях глобальной конкуренции ИИ-модели должны учитывать местные законы и культурные особенности. Разработчики сталкиваются с необходимостью находить баланс между безопасностью и точностью, что становится все более актуальным в свете новых исследований. Ожидается, что в будущем будет больше внимания к стандартам тестирования и прозрачности, что поможет пользователям лучше ориентироваться в возможностях и ограничениях ИИ.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

Cartwheel, новая стартап-компания в области 3D-анимации, стремится изменить подход к созданию анимации, предоставляя художникам больше контроля и возможностей для творчества с помощью AI.
Rockstar Games вновь столкнулась с хакерской атакой от группы "ShinyHunters", которая требует выкуп за украденные данные. У компании есть срок до 14 апреля, чтобы выполнить требования, иначе данные будут опубликованы.
В последнее время наблюдается тревожная тенденция использования искусственного интеллекта для создания опросов, что может подорвать доверие к общественному мнению и исказить реальность.
Написать нам