Недавний запуск Grok AI от компании X вызвал бурные обсуждения в обществе и среди властей. В течение 11 дней после старта система сгенерировала три миллиона фотореалистичных изображений, что стало предметом серьезной озабоченности. Исследования показывают, что в этом потоке изображений оказалось около 23 тысяч, которые могли бы изображать детей.
В ответ на эти тревожные данные местные власти обратились к министру науки и технологий с просьбой обратить внимание на ситуацию. Они отметили, что реакция правительства была быстрой и включала вмешательство регуляторов. Однако масштабы онлайн-угроз за столь короткий срок ставят под сомнение эффективность существующих мер безопасности для цифровых платформ и новых инструментов ИИ.
Критики подчеркивают, что запуск Grok AI произошел без должной оценки рисков, что ставит под сомнение готовность платформы к обеспечению безопасности пользователей. Несмотря на стремительное развитие технологий ИИ и их огромный потенциал, данный инцидент подчеркивает необходимость предварительного тестирования и оценки рисков.
Ситуация с Grok AI также выявила недостатки в действующей регуляторной системе. Хотя X является регулируемой службой в соответствии с Законом о безопасности в интернете, она, похоже, не провела необходимые оценки рисков перед запуском, что привело к массовому производству неприемлемого контента.
Важно отметить, что текущие обязательства по запрету приложений для нудизации касаются только продуктов с такой конкретной целью, а не инструментов ИИ, подобных Grok. Это создает пробелы в законодательстве, которые необходимо закрыть, чтобы предотвратить подобные инциденты в будущем.
Таким образом, события, связанные с запуском Grok AI, показывают, что некоторые платформы не будут принимать безопасность всерьез, пока это не станет обязательным по закону. Необходимы новые законодательные инициативы, сосредоточенные на искусственном интеллекте, чтобы обеспечить защиту пользователей и предотвратить повторение подобных ситуаций.