Grammarly, известное приложение для написания, недавно изменило свое название на Superhuman и представило набор новых инструментов, основанных на искусственном интеллекте. Среди них — "экспертные отзывы", которые вызывают много споров. Эти отзывы формируются на основе работ известных ученых и писателей, но без их согласия, что ставит под сомнение этичность такого подхода.
В августе компания анонсировала восемь специализированных ИИ-агентов, которые помогают пользователям решать различные задачи, связанные с написанием текстов. Эти инструменты могут находить цитаты, перефразировать тексты и проверять на плагиат. Однако именно функция "экспертных отзывов" привлекла наибольшее внимание. Она предлагает пользователям анализ их контента с помощью ИИ, который генерирует отзывы, "вдохновленные" работами известных личностей, таких как Стивен Кинг и Нил Деграсс Тайсон.
Представители Superhuman утверждают, что эти отзывы не подразумевают одобрения или участия самих экспертов, а лишь предлагают рекомендации, основанные на их работах. Тем не менее, многие ученые выражают недовольство, считая, что такая практика создает большие языковые модели на основе их трудов и использует их имена в коммерческих целях.
Некоторые эксперты, такие как Ванесса Хегги из Университета Бирмингема, подчеркивают, что подобные действия усиливают недоверие к ИИ среди ученых. Они считают, что "экспертные отзывы" не являются таковыми, так как в их создании не участвуют настоящие эксперты. Это вызывает опасения, особенно в условиях, когда академические гуманитарные науки сталкиваются с множеством вызовов.
Кроме того, пользователи сообщают о проблемах с работой функции "экспертных отзывов", включая сбои и неуместные ссылки на источники. Также отмечается, что система проверки на плагиат не всегда справляется с задачей, не обнаруживая прямые цитаты.
С момента ребрендинга в октябре новые условия использования Grammarly позволяют компании обучать свои ИИ на основе загружаемого пользователями контента, если они не отключат эту функцию в настройках. Это вызывает дополнительные вопросы о том, как компания обрабатывает личные данные пользователей, учитывая, что у нее есть доступ к чувствительной информации более 30 миллионов пользователей ежедневно.
В условиях отсутствия четких федеральных правил по созданию синтетических версий реальных людей, такие практики могут привести к правовым последствиям. Как отмечают эксперты, это может стать основой для судебных разбирательств, касающихся кражи идентичности в эпоху ИИ.