С каждым годом технологии искусственного интеллекта становятся все более распространенными, но вместе с этим возникает и новая проблема — "галлюцинации" AI. Это ситуации, когда модели генерируют информацию, которая выглядит правдоподобно, но на самом деле является неверной. В таких критически важных сферах, как здравоохранение, финансы и юридические услуги, такие ошибки могут иметь серьезные последствия.
Недавние исследования показывают, что уровень галлюцинаций в AI-моделях, используемых в клинических системах поддержки принятия решений, колеблется от 8% до 20%. Хотя за последние годы были достигнуты значительные успехи в снижении этого показателя — с 21.8% в 2021 году до 0.7% в 2025 году — проблема все еще остается актуальной. Это стало возможным благодаря улучшению качества данных, архитектуры моделей и внедрению таких технологий, как Retrieval-Augmented Generation (RAG).
Чтобы справиться с этой проблемой, разработаны несколько инструментов, которые помогают в реальном времени обнаруживать и минимизировать галлюцинации AI. Например, Pythia использует граф знаний для проверки фактической точности выводов AI, что позволяет выявлять ошибки на лету. HDM-1, в свою очередь, предлагает высокую точность и оценки в реальном времени, устанавливая новые стандарты надежности в оценке галлюцинаций.
Эти инструменты становятся важными помощниками для специалистов, работающих в областях, где точность информации критически важна. Внедрение таких технологий может значительно повысить уровень доверия к AI-системам и снизить риски, связанные с их использованием.