APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Новости

#ии_риски

На этой неделе в мире кибербезопасности обсуждаются 40 открытых инструментов, помогающих командам защищать свои системы, а также растущие риски, связанные с внедрением ИИ в производственные процессы.
Представители Совета по надзору за бухгалтерским учетом публичных компаний (PCAOB) выражают осторожность в отношении внедрения искусственного интеллекта и инвестиций частного капитала в аудиторские фирмы, подчеркивая как возможности, так и риски для качества аудита.
По данным отчета Proofpoint, 85% компаний столкнулись с утечками данных в прошлом году, чаще всего из-за человеческого фактора. Растущие объемы данных и использование ИИ создают новые риски, требующие внимания со стороны специалистов по безопасности.
Исследование, опубликованное в Nature Digital Medicine, показало, что многие крупные чат-боты больше не предоставляют медицинские оговорки при ответах на вопросы о здоровье, что создает серьезные риски, как показывают несколько реальных случаев.
Дэвид Сакс предупреждает о рисках слежки с использованием ИИ, подчеркивая, что это угроза, позволяющая правительствам контролировать информацию. Он выступает за регулирование, ориентированное на инновации, чтобы предотвратить дистопические последствия.
Глобальные финансовые регуляторы предупреждают о рисках, связанных с быстрым внедрением искусственного интеллекта в финансовый сектор. В отчете для G20 подчеркивается необходимость улучшения мониторинга и понимания влияния AI на финансовую стабильность.
Генеральные юрисконсульты сталкиваются с растущими рисками, связанными с использованием искусственного интеллекта, и теперь активно занимаются вопросами страхования для их минимизации.
Второй пост в серии о предотвращении потери данных предлагает стратегию внедрения Microsoft Purview DLP для защиты конфиденциальной информации в условиях влияния ИИ. Он охватывает этапы от обнаружения и классификации данных до автоматизации и обучения пользователей.
Вопрос о необходимости создания специализированного отдела для контроля использования ИИ в компаниях становится все более актуальным. Несмотря на растущий интерес к генеративному ИИ, многие организации игнорируют важность надзора за его применением.
В 2025 году UK Safer Internet Centre обновит определения подходящего фильтрации и мониторинга для образовательных учреждений, акцентируя внимание на защите учащихся в условиях цифровой независимости и использования ИИ.
На вебинаре Verisk обсуждались ключевые проблемы искусственного интеллекта, изменения климата и инфраструктуры, которые могут повлиять на страховую отрасль в будущем.
Недавний случай Ko v. Li подчеркивает важность соблюдения юридической этики при использовании искусственного интеллекта в юридической практике. Адвокат допустила ошибки, полагаясь на несуществующие прецеденты, что привело к серьезным последствиям.
Написать нам