APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Отчет: Даже с улучшением крупных ИИ-моделей, увеличение количества вопросов приводит к большему числу неправильных ответов

Недавнее исследование показало, что более крупные модели ИИ могут давать больше неправильных ответов, чем отказываться отвечать на сложные вопросы. Это поднимает вопросы о надежности таких систем.

В мире искусственного интеллекта наблюдается интересный парадокс: новые, более мощные модели, такие как GPT-4, способны генерировать больше ответов, но это не всегда означает, что они более точные. Исследование, проведенное в Испании, выявило, что, хотя современные языковые модели становятся лучше в обработке данных и предоставлении ответов, они также склонны к ошибкам.

Как отметил исследователь, чем больше модель, тем больше она отвечает на вопросы, но это приводит к увеличению числа неправильных ответов. Пользователи, в свою очередь, часто не могут распознать ошибочные ответы, что создает ложное чувство уверенности в возможностях ИИ. Это явление получило забавное название "bullshitting" — когда ИИ выдает уверенные, но неверные ответы.

Ошибки могут составлять от 3% до 10% всех ответов, и хотя существуют способы их минимизации, это сложнее сделать с общими моделями, обучающимися на огромных объемах данных из интернета. Исследование охватывало три крупных семейства моделей, включая GPT от OpenAI и Llama от Meta, и показало, что даже при увеличении размера модели точность ответов снижается на сложных вопросах.

Чтобы улучшить ситуацию, разработчики должны адаптировать модели так, чтобы они отказывались отвечать на слишком сложные вопросы и улучшали точность на простых. Это поможет пользователям лучше понимать, когда можно доверять ИИ, а когда — нет.

Эта новость создана искусственным интеллектом на основе открытых данных и предназначена исключительно для информирования. Администрация сайта не несёт ответственности за её содержание. Новости агрегируются из различных источников, включая недружественные России страны и их средства массовой информации. Социальные сети Facebook, Instagram и WhatsApp принадлежат корпорации Meta, которая в России признана экстремистской организацией.

AI-фаззинг, использующий генеративный ИИ, обещает повысить эффективность тестирования безопасности, но также предоставляет новые возможности для злоумышленников. Инновации в этой области открывают новые горизонты как для защиты, так и для атак.
Bloom Energy и AMCHAM Korea подписали меморандум о сотрудничестве, который может изменить подход Южной Кореи к обеспечению энергией своих AI-центров. Новая технология топливных элементов обещает надежное и экологически чистое энергоснабжение.
Студентка USC, Франческа Кубика, делится своим опытом в области искусственного интеллекта и рассказывает о стажировке в Google, подчеркивая важность программ, сочетающих бизнес и технологии.
Написать нам