Американский союз гражданских свобод (ACLU) выпустил тревожный отчет, в котором поднимает вопросы о растущем использовании генеративного искусственного интеллекта в правоохранительных органах. В документе, опубликованном 10 декабря, организация указывает на потенциальные угрозы для гражданских свобод, связанные с внедрением технологий, таких как чат-боты и инструменты для составления отчетов.
Особое внимание уделяется инструменту Draft One, который помогает полицейским составлять отчеты на основе аудиозаписей с видеокамер. Этот инструмент использует модель GPT-4 от OpenAI и уже тестируется в нескольких полицейских департаментах по всей стране. С увеличением числа городов, рассматривающих генеративный ИИ как решение для бюджетных и кадровых проблем, ACLU выражает серьезные опасения.
Эксперты подчеркивают, что полицейские отчеты играют ключевую роль в судебных процессах, от расследования до вынесения приговоров. В отчете ACLU отмечается, что использование ИИ для составления отчетов может привести к потере важного человеческого элемента в правоохранительных процедурах.
ACLU выделяет четыре основных области беспокойства, включая необходимость ответственности за написание отчетов, как это описывает эксперт по праву Эндрю Гатри Фергюсон. Он утверждает, что обязательство полицейских писать и подтверждать свои отчеты служит важной проверкой их власти.
Организация также поднимает вопросы о предвзятости и непрозрачности технологий, а также о последствиях для конфиденциальности данных. По мнению ACLU, полагаться на интерпретацию генеративного ИИ вместо человеческой памяти и субъективных наблюдений полицейских может негативно сказаться на справедливом судебном процессе.
Если ИИ действительно станет следующим шагом в работе полиции, ACLU настаивает на том, что его использование должно происходить только после того, как будут зафиксированы воспоминания человека. В качестве альтернативы предлагается использовать ИИ для транскрипции аудиозаписей, созданных самими полицейскими, что позволит сохранить важные человеческие аспекты в процессе.
Несмотря на рекомендации правозащитников, компании, занимающиеся разработкой ИИ, продолжают активно инвестировать в его применение в полиции и военных структурах. ACLU подчеркивает, что технологии написания отчетов на основе ИИ слишком новы и ненадежны, чтобы их можно было внедрять в уголовную юстицию.