В последние годы AI-инструменты, такие как Otter, активно внедряются в рабочие процессы, однако их использование может обернуться серьезными проблемами. Например, один из пользователей после Zoom-встречи получил автоматическое письмо с расшифровкой, в которой содержались обсуждения, произошедшие после его выхода. Это привело к отмене сделки, так как инвесторы обсуждали свои стратегические ошибки.
Компании, такие как Salesforce и Microsoft, внедряют AI-функции в свои продукты, однако многие пользователи не обращают внимания на настройки конфиденциальности. Это создает риски утечки информации, что может повлечь за собой юридические последствия и негативные последствия для сотрудников.
Эксперты предупреждают, что технологии развиваются слишком быстро, и многие не осознают их инвазивность. Например, AI-ассистенты могут записывать разговоры, которые не предназначены для общего доступа. Важно, чтобы пользователи были осведомлены о возможностях и рисках, связанных с использованием AI в рабочих процессах.
Компании должны не только обучать сотрудников, но и внедрять более строгие настройки конфиденциальности, чтобы избежать нежелательных последствий. В конечном счете, ответственность лежит как на пользователях, так и на организациях, использующих эти технологии.