С развитием технологий искусственного интеллекта (ИИ) все больше компаний начинают использовать его для оптимизации своих процессов и повышения конкурентоспособности. Однако с этим приходят и серьезные риски, связанные с безопасностью и конфиденциальностью данных. Организации, разрабатывающие или использующие ИИ-системы, часто сталкиваются с проблемами, связанными с чрезмерным сбором, несанкционированным использованием и утечками персональных данных.
Важность обеспечения безопасности ИИ стала ключевой темой в международных декларациях и резолюциях последних лет. В 2023 году 28 стран, включая Китай и США, подписали Блетчлейскую декларацию на саммите по безопасности ИИ в Великобритании, в которой подчеркивается необходимость решения рисков, связанных с неправильным использованием ИИ.
В 2024 году Генеральная Ассамблея ООН приняла международную резолюцию, направленную на создание "безопасных, надежных и доверительных" ИИ-систем. На саммите по действиям в области ИИ в Париже более 60 стран подписали заявление, подчеркивающее, что использование преимуществ ИИ для экономического и социального роста зависит от повышения безопасности и доверия к технологиям.
Китай также акцентирует внимание на необходимости сочетания развития и безопасности в области технологий. В 2023 году была запущена Глобальная инициатива по управлению ИИ, предлагающая принципы, такие как ориентированность на человека и развитие ИИ на благо общества.
Недавние инциденты, такие как запрет Samsung на использование ChatGPT из-за утечек конфиденциальной информации, подчеркивают важность защиты коммерческих тайн в эпоху технологий. В то же время ChatGPT также столкнулся с серьезными утечками данных, что еще раз подтверждает необходимость строгих мер безопасности.
С учетом этих рисков, мой офис провел проверки соблюдения норм в 60 организациях различных секторов и опубликовал отчет, в котором выяснил, что 80% из них используют ИИ в повседневной деятельности. Однако только 63% из тех, кто использует ИИ для обработки персональных данных, имеют соответствующие политики. Это говорит о том, что в этой области есть значительные возможности для улучшения.
Организациям настоятельно рекомендуется разработать внутренние руководства по использованию ИИ, чтобы сбалансировать эффективность бизнеса и защиту данных. В этом контексте мой офис выпустил "Контрольный список рекомендаций по использованию генеративного ИИ сотрудниками", который поможет организациям разработать правильные политики в соответствии с местными законами.
В заключение, важно помнить, что использование ИИ должно быть не только выгодным для бизнеса, но и законным и безопасным. Компании должны избегать ситуации, когда технологии начинают управлять ими, а не наоборот.