Rakuten Group анонсировала запуск двух новых моделей искусственного интеллекта, которые обещают изменить подход к обработке японского языка. Первая из них, Rakuten AI 2.0, представляет собой крупную языковую модель (LLM), основанную на архитектуре Mixture of Experts (MoE). Вторая модель, Rakuten AI 2.0 mini, является компактной языковой моделью (SLM) и также разрабатывалась с акцентом на эффективность.
Rakuten AI 2.0 включает в себя восемь моделей с 7 миллиардами параметров каждая, что позволяет динамически выбирать наиболее подходящих экспертов для обработки входных данных. Это обеспечивает высокую производительность при значительно меньших вычислительных затратах. Модель была обучена на обширных наборах данных на японском и английском языках, что гарантирует её точность и качество генерации текста.
Rakuten AI 2.0 mini, в свою очередь, имеет 1.5 миллиарда параметров и также была создана с использованием тщательно отобранных данных. Эта модель предназначена для использования в условиях ограниченных ресурсов, что делает её идеальной для внедрения в устройства с низкой вычислительной мощностью.
По словам представителей компании, новые модели не только повышают эффективность обработки языка, но и открывают новые горизонты для применения AI в различных сферах. Rakuten уверена, что их разработки станут важным шагом в развитии технологий на японском рынке и за его пределами.
С выходом этих моделей Rakuten стремится не только улучшить качество AI-приложений, но и сделать их доступными для широкой аудитории разработчиков, что, безусловно, повлияет на будущее технологий в Японии и за её пределами.