В Лондоне команда исследователей под руководством педиатрического нефролога провела эксперимент, в котором 150 медицинских случаев были введены в ChatGPT. Результаты показали, что модель смогла правильно диагностировать 49% случаев, однако общая надежность оставляет желать лучшего. ChatGPT испытывает трудности с интерпретацией числовых значений и часто упускает ключевые данные, что приводит к ошибочным выводам.
Тем не менее, исследователи отметили, что ChatGPT может объяснять сложные медицинские концепции простым языком, что делает его полезным инструментом для обучения студентов. "Когнитивная нагрузка была относительно низкой, что означает, что информацию легко усвоить", - отметил один из студентов.
Команда планирует продолжить исследование, чтобы оценить, как будущие версии ChatGPT смогут улучшить свою точность и релевантность, а также рассмотреть возможность интеграции AI в формальное медицинское образование. "Важно правильно использовать эти инструменты, чтобы избежать распространения дезинформации", - добавил исследователь.