В недавнем исследовании, опубликованном в журнале Nature, ученые подвергли критике идею "открытого" искусственного интеллекта (ИИ), утверждая, что она не способствует реальной инновации и демократии. Авторы анализировали, как открытость ИИ-систем влияет на концентрацию власти в отрасли, выявляя, что многие из заявленных преимуществ, таких как прозрачность и возможность повторного использования, часто оказываются поверхностными.
Открытые ИИ-системы, как правило, контролируются крупными технологическими компаниями, которые обладают значительными ресурсами и доступом к данным. Это создает ситуацию, когда "открытость" не нарушает конкурентные дисбалансы, а наоборот, укрепляет их. Например, компании, такие как Meta и Google, используют свои фреймворки для стандартизации разработки ИИ, что способствует их доминированию на рынке.
Исследование выделяет три ключевых аспекта открытого ИИ:
1. Прозрачность: Хотя открытые ИИ-системы могут предоставлять доступ к моделям и данным, на практике это часто оказывается недостаточным для обеспечения подотчетности.
2. Повторное использование: Несмотря на возможность использования некоторых моделей третьими сторонами, высокие затраты на вычисления и зависимость от крупных игроков ограничивают эту возможность.
3. Расширяемость: Открытые модели позволяют пользователям адаптировать их под свои нужды, но фактически это часто приводит к тому, что расходы на кастомизацию ложатся на пользователей, в то время как контроль остается у крупных компаний.
В итоге, для реальной демократизации разработки ИИ необходимо не только открытость, но и серьезные политические меры, включая антимонопольные законы и защиту прав работников.