Недавний случай с Shein, известным мировым ритейлером модной одежды, привлек внимание к проблемам, связанным с использованием технологий искусственного интеллекта. На сайте компании появилось AI-сгенерированное изображение, на котором были черты лица Луиджи Манжоне, обвиняемого в стрельбе по CEO UnitedHealthcare. Этот инцидент стал ярким примером того, как технологии могут быть использованы без должного контроля.
Согласно информации, изображение было частью маркетинговых материалов Shein. Неизвестно, как долго оно находилось на сайте и сколько пользователей его увидели до удаления. Это подчеркивает серьезные недостатки в процессах модерации контента, которые должны быть на высоком уровне, особенно в таких крупных компаниях.
Технология генерации изображений на основе AI часто использует обширные базы данных, включая фотографии людей, которые могут быть связаны с криминальными делами. Это создает риск случайного использования изображений реальных людей без их согласия, что может привести к нежелательным ассоциациям и нарушению прав на личное изображение.
Эксперты подчеркивают, что без надлежащего контроля AI-системы могут создавать проблемный контент, который нарушает права на конфиденциальность. Этот случай служит напоминанием о необходимости внедрения более строгих процедур проверки и модерации контента в коммерческих приложениях.
Для компаний, таких как Shein, которые активно используют AI для создания изображений товаров, важно учитывать репутационные риски, связанные с недостаточным человеческим контролем. В условиях высокой конкуренции и быстрого обновления ассортимента компании должны находить баланс между эффективностью и этическими нормами.
Использование изображения Манжоне поднимает множество юридических и этических вопросов, включая возможные нарушения прав на публичность и моральные аспекты ассоциации обвиняемого с коммерческими продуктами. Юридические эксперты предполагают, что подобные инциденты могут привести к новым регуляциям в области AI-контента.
С учетом того, что технологии продолжают развиваться, компаниям необходимо разрабатывать более сложные подходы к модерации контента, включая улучшение фильтрации и обучение систем. Это поможет избежать повторения подобных инцидентов в будущем и обеспечит более безопасное использование AI в коммерческих целях.