В последние месяцы в странах Азии наблюдается заметный рост интереса к этическому регулированию искусственного интеллекта. Сингапур стал одним из лидеров в этой области, представив Модельный фреймворк управления ИИ, который акцентирует внимание на прозрачности и безопасности. Он включает рекомендации по внутреннему управлению, определению уровня человеческого участия в принятии решений и взаимодействию с заинтересованными сторонами.
В мае 2024 года Сингапур также выпустил Модельный фреймворк для генеративного ИИ, который подчеркивает важность цифрового водяного знака для распознавания контента, созданного ИИ. Это шаг к обеспечению доверия пользователей к технологиям.
Гонконг не отстает, представив Этический фреймворк ИИ, который требует от организаций объяснять свои решения и минимизировать дискриминацию. Важным аспектом является участие высшего руководства в процессе управления ИИ.
Южная Корея и Япония также активно развивают свои подходы. Южная Корея создала комитет по конфиденциальности ИИ, а Япония инициировала Глобальный процесс Хиросимы для гармонизации международных стандартов в области ИИ.
С учетом этих инициатив, страны АСЕАН разработали руководство по управлению ИИ, которое стремится к согласованию и совместимости подходов в регионе. Это руководство включает рекомендации по оценке рисков и необходимому уровню человеческого контроля в высокорисковых ситуациях.
Эти шаги подчеркивают важность этичного и ответственного подхода к разработке и внедрению ИИ, что становится все более актуальным в быстро меняющемся технологическом ландшафте.