В мире искусственного интеллекта языковые модели (LLMs) становятся всё более важными, и их способность решать сложные задачи напрямую зависит от того, как они распределяют свои вычислительные ресурсы. Исследователи из MIT представили инновационный подход, который позволяет моделям адаптировать свои вычислительные затраты в зависимости от сложности вопроса. Это значит, что вместо того, чтобы тратить одинаковое количество ресурсов на все задачи, LLM могут выделять больше времени на сложные вопросы и меньше на простые.
Традиционные методы часто устанавливают фиксированный бюджет вычислений для каждой задачи, что приводит к неэффективному использованию ресурсов. Новый метод, названный "инстанс-адаптивное масштабирование", позволяет моделям динамически изменять количество вычислений, основываясь на вероятности успеха каждого частичного решения. Это не только экономит ресурсы, но и позволяет меньшим моделям достигать результатов, сопоставимых с более крупными системами.
Исследование показало, что новый подход может сократить вычислительные затраты до 50% по сравнению с существующими методами, при этом сохраняя точность ответов на вопросы различной сложности. Это открывает новые горизонты для применения LLM в критически важных и времязависимых задачах, таких как генерация кода и работа с AI-агентами.
Ключевым элементом нового метода является использование модели вознаграждения процесса (PRM), которая оценивает сложность вопроса и помогает LLM определить, сколько ресурсов выделить на решение. Это позволяет моделям более эффективно справляться с задачами, избегая избыточных вычислений.
В будущем исследователи планируют применить эту технику в других областях, таких как обучение с подкреплением и тонкая настройка моделей. Это важный шаг к созданию более адаптивных и эффективных AI-агентов, которые смогут работать в меняющихся условиях и обеспечивать стабильные результаты.