Недавнее исследование от группы языковых экспертов подчеркивает важные различия между тем, как искусственный интеллект (ИИ) и люди осваивают язык. В своем письме в журнал Nature они выделили три основных момента, которые ставят под сомнение способность больших языковых моделей (LLMs) адекватно моделировать человеческий язык.
Первое, LLMs работают как вероятностные модели, основанные на внешних данных, в то время как человеческий язык является поистине генеративным, позволяя создавать бесконечное количество структурированных выражений. Второе, дети не нуждаются в огромном объеме данных для освоения языка; они способны быстро учить любой язык, опираясь на интуитивное понимание его генеративной природы. И, наконец, LLMs могут генерировать "невозможные" языки, которые не соответствуют известным принципам, управляющим всеми человеческими языками, и не могут отличить их от реальных языков.
Исследователи не против чат-ботов, но подчеркивают, что важно понимать разницу между простым воспроизведением языка и настоящим его пониманием. Это открытие поднимает важные вопросы о границах ИИ и его способности к подлинному языковому взаимодействию.