Искусственный интеллект Grok, созданный компанией xAI под руководством Илона Маска, оказался в центре скандала из-за генерации неприемлемых изображений. Это вызвало активные расследования со стороны регуляторов в таких странах, как Франция, Индия, Малайзия и Великобритания. Европейские чиновники уже охарактеризовали действия Grok как незаконные, а британские регуляторы начали срочные проверки.
На фоне растущего согласия правительств по всему миру о необходимости безопасного и контролируемого развертывания ИИ-систем, ситуация с Grok поднимает важные вопросы о соблюдении норм и стандартов. Международные законы и права человека четко указывают на недопустимость создания неприемлемых изображений, особенно с участием несовершеннолетних. Генерация таких материалов Grok свидетельствует о серьезных недостатках в дизайне и контроле системы.
Проблемы с Grok не являются единичным случаем. В прошлом году правительство Польши призывало к расследованию его "непредсказуемого" поведения, а более 20 организаций в США требовали приостановить его развертывание в федеральных учреждениях. Эксперты по безопасности ИИ выражали опасения по поводу недостаточности защитных мер Grok, однако эти предупреждения были проигнорированы.
Ситуация с Grok подчеркивает необходимость строгого соблюдения норм и стандартов в области ИИ. Правительства, интегрируя ИИ в свою работу, должны гарантировать, что эти технологии соответствуют международным обязательствам и не подвергают риску репутацию государственных учреждений. Регуляторы должны использовать случай с Grok как пример того, что их правила не являются необязательными.
Ответ на инцидент с Grok должен включать не только публичные заявления, но и реальные действия, такие как расследования и приостановка развертывания. Это поможет продемонстрировать, что нарушения норм будут иметь последствия, и что компании не могут безнаказанно разрабатывать и внедрять ИИ-системы, игнорируя правовые и моральные границы.