APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Новости

#риски_ии

Несанкционированные приложения на основе ИИ представляют серьезную угрозу безопасности данных, так как могут обходить корпоративные правила и контроль ИТ. Компании должны обучать сотрудников безопасному использованию ИИ, чтобы избежать утечек данных.
Согласно последним данным, число студентов, уличенных в мошенничестве на экзаменах HSC, удвоилось за последние пять лет, что связывают с использованием генеративного ИИ. Образовательные учреждения пересматривают свои подходы к оцениванию с учетом новых технологий.
Согласно последним данным, число студентов, уличенных в мошенничестве на экзаменах HSC, удвоилось за последние пять лет, что связывают с использованием генеративного ИИ. Образовательные учреждения пересматривают свои подходы к оцениванию с учетом новых технологий.
Европейская комиссия опубликовала Q&A, касающуюся обязательств по грамотности в области ИИ в рамках Закона о ИИ ЕС, уточняя меры, которые должны принимать организации для обеспечения понимания ИИ.
Качество данных критически важно для успешного внедрения AI в бизнес. Неправильные данные могут привести к серьезным последствиям, включая потерю клиентов и ухудшение репутации.
Chaucer Group представила новый продукт страхования третьей стороны (TPL) для защиты от рисков, связанных с недостаточной производительностью систем искусственного интеллекта, в сотрудничестве с Armilla AI.
Австралийцы проявляют низкий уровень доверия к искусственному интеллекту, согласно глобальному исследованию. Лишь 30% считают, что преимущества ИИ перевешивают риски, а 78% выражают опасения по поводу негативных последствий.
С ростом популярности AI-инструментов, позволяющих создавать изображения и игрушки на основе фотографий, эксперты предупреждают о рисках, связанных с конфиденциальностью детей. Загружая фото, родители могут непреднамеренно передать данные, которые могут быть использованы в неблагих целях.
Книга Паял Ароры "От пессимизма к обещанию" исследует, как молодежь в развивающихся странах использует цифровые технологии для расширения возможностей, творчества и связи, противопоставляя оптимизм Глобального Юга западным страхам перед ИИ и слежкой.
Риски, связанные с чрезмерной автономией LLM, становятся все более актуальными. Необходимость контроля за действиями ИИ-систем возрастает, чтобы предотвратить несанкционированные действия и утечку данных.
В новом отчете AI-task force штата Алабама сообщается, что почти 25% государственных агентств используют генеративный ИИ для различных задач, включая разработку программного обеспечения и перевод текстов.
С выходом книги "Плейбук разработчика по безопасности больших языковых моделей" специалисты по безопасности получают ценный ресурс для понимания рисков и защиты AI-приложений.
Написать нам