Недавний случай, связанный с обсуждением музея Салленбергера, стал поводом для проверки возможностей языковых моделей. Один из пилотов поделился впечатлениями о посещении музея, что натолкнуло на размышления о героизме капитана Салленбергера, который совершил аварийную посадку на воду, будучи единственным пилотом на борту. В ответ на это возник вопрос: возможно ли, чтобы музей носил имена двух человек с разными фамилиями?
Для поиска ответов был использован ChatGPT. Однако, как показали результаты, модель не смогла предоставить удовлетворительные примеры. В ответах встречались как корректные, так и явно ошибочные варианты, включая музеи, названные только одной фамилией. Попробовав другие языковые модели, автор заметил, что они тоже не всегда давали точные ответы, хотя некоторые из них были более удачными.
Интересно, что даже при уточнении запроса с помощью примера, результаты оставались смешанными. Это подчеркивает парадокс современного искусственного интеллекта: он может демонстрировать выдающиеся способности, но в то же время иногда оказывается совершенно неэффективным в решении простых задач.
Такой опыт поднимает важные вопросы о надежности и точности языковых моделей, которые становятся все более распространенными в нашей жизни. Как мы можем использовать их возможности, если они не всегда способны предоставить нужную информацию? Это открывает новые горизонты для обсуждения и дальнейших исследований в области искусственного интеллекта.