Недавно вышедший отчет Бипартийной рабочей группы по искусственному интеллекту в США стал важным шагом к решению актуальных проблем, связанных с конфиденциальностью и гражданскими правами в контексте стремительного развития технологий ИИ. Этот 273-страничный документ служит дорожной картой для Конгресса, предлагая рекомендации по обеспечению ответственного использования ИИ.
Рабочая группа, состоящая из 24 членов, была создана в феврале и включает равное количество представителей от обеих партий. Основное внимание в отчете уделяется вопросам конфиденциальности данных, так как ИИ-системы часто требуют обработки больших объемов личной информации. В документе подчеркивается, что существующие законы, такие как Закон о конфиденциальности 1974 года, не могут полностью защитить граждан от современных угроз, связанных с ИИ.
Отчет также акцентирует внимание на том, что неправильно спроектированные ИИ-системы могут приводить к дискриминации, особенно в таких сферах, как уголовное правосудие и трудоустройство. Примеры включают алгоритмы найма, которые могут неосознанно дискриминировать кандидатов из недостаточно представленных групп.
Для решения этих проблем рабочая группа предлагает внедрение принципа "человека в процессе" в принятии решений, связанных с ИИ, что позволит избежать предвзятости и ошибок. Также подчеркивается необходимость повышения прозрачности в использовании ИИ, особенно в государственных учреждениях, чтобы граждане знали, когда ИИ влияет на решения, касающиеся их жизни.
Кроме того, отчет призывает к разработке новых стандартов и инвестированию в технологии, которые защищают конфиденциальность, такие как дифференциальная конфиденциальность и федеративное обучение. Эти меры помогут обеспечить, чтобы развертывание ИИ соответствовало стандартам защиты гражданских прав.
В заключение, рабочая группа подчеркивает важность единого федерального подхода к регулированию ИИ, чтобы избежать разрозненности в законодательстве разных штатов и создать условия для инноваций, защищая при этом права граждан.