В последние годы компании, занимающиеся искусственным интеллектом, хвастались огромными размерами своих моделей, но сейчас они все больше обращают внимание на компактные и эффективные решения. Например, ChatGPT работает на базе алгоритмов, известных как "большие языковые модели", и его модель GPT-4 имеет почти два триллиона параметров. Однако для узкоспециализированных задач, таких как работа с данными о тиграх, можно использовать значительно меньшие модели.
Крупные игроки, такие как Google, Microsoft, Meta и OpenAI, уже начали предлагать более компактные решения. Amazon также предоставляет возможность работы с моделями разных размеров на своей облачной платформе. Меньшие модели идеально подходят для простых задач, таких как резюмирование документов или поиск в базе данных.
Например, фармацевтическая компания Merck разрабатывает модель в сотрудничестве с Boston Consulting Group, чтобы понять влияние определенных заболеваний на гены. Эта модель будет содержать всего несколько сотен миллионов параметров, что делает её более быстрой и менее энергозатратной.
Преимущества меньших моделей заключаются не только в их скорости, но и в том, что они могут работать без использования крупных дата-центров, устанавливаясь непосредственно на устройствах. Это повышает безопасность и конфиденциальность данных, так как информация может обрабатываться локально.
Тем не менее, большие модели все еще имеют преимущество в решении сложных задач и доступе к обширным данным. В будущем, вероятно, мы увидим взаимодействие между моделями разных размеров, что позволит оптимально решать задачи различной сложности.