Стартапы в сфере искусственного интеллекта, такие как OpenAI и Anthropic, внедряют новые подходы к структурированию, которые акцентируют внимание на безопасности и этике, а не только на максимизации прибыли. Эти модели, известные как "Aligned Structuring", предполагают передачу контроля независимым третьим лицам, которые заботятся о безопасности ИИ. Однако, несмотря на их привлекательность, такие изменения могут иметь свои недостатки.
Во-первых, передача контроля "Alignment Champions" может не устранить влияние инвесторов и предпринимателей, которые все равно могут оказывать значительное неформальное давление на стартапы. Во-вторых, ограничение прибыли для инвесторов может снизить их мотивацию поддерживать этические решения, что в конечном итоге может негативно сказаться на долгосрочной устойчивости стартапа.
Кроме того, использование альтернативных бизнес-структур не всегда гарантирует защиту директоров от юридических последствий. Существующие корпоративные структуры уже предоставляют достаточную защиту для тех, кто принимает решения в интересах общества.
Хотя концепция "Aligned Structuring" может показаться многообещающей, ее практическое применение требует дальнейшего изучения. Возможно, стартапы смогут адаптировать свои модели управления, чтобы более эффективно справляться с рисками, связанными с ИИ, без ущерба для своих конкурентных преимуществ.