В мире, где большие языковые модели (LLMs) становятся все более популярными, NEC Laboratories Europe делает шаг вперед, представляя LLM Explainer. Эта инновационная технология призвана помочь пользователям обнаруживать и объяснять "галлюцинации" — ошибки, возникающие в выводах LLM, которые могут ограничивать их применение в критически важных сферах.
По словам представителя NEC, использование LLM Explainer позволяет пользователям сравнивать выводы моделей с оригинальными источниками информации. Это значительно упрощает процесс проверки и корректировки текста, сгенерированного моделью, что особенно важно в бизнесе, где точность данных имеет первостепенное значение.
LLM Explainer использует передовые методы обработки естественного языка для анализа как слов, так и смысла предложений. Это позволяет выявлять пропуски, дублирования и изменения в значении между исходными документами и сгенерированными текстами. Пользователи могут видеть соответствующие предложения из оригинальных источников, что помогает быстро определить корректность сгенерированного контента.
NEC планирует интегрировать LLM Explainer в свои API-сервисы для Японии в конце октября, а также выпустить локальную версию сервиса. Это позволит еще больше ускорить процесс обнаружения и исправления ошибок в выводах LLM.