В последние дни внимание общественности привлекли тревожные заявления о новой модели GPT-o1 от OpenAI. Бывший сотрудник компании, Уильям Сондерс, на слушаниях в Сенате отметил, что эта модель может помочь в реконструкции биологических угроз, что ставит под угрозу безопасность. Он подчеркнул, что без должных мер предосторожности такие технологии могут привести к катастрофическим последствиям.
Сондерс также призвал к немедленному введению регулирующих мер, чтобы обеспечить безопасность в разработке ИИ. Он отметил, что текущие темпы развития AGI могут привести к созданию систем с человеческими когнитивными способностями в ближайшие годы.
Внутренние проблемы в OpenAI, такие как распуск команды по обеспечению безопасности, также вызывают беспокойство. Эксперты подчеркивают необходимость создания четких и обязательных протоколов безопасности, чтобы предотвратить потенциальные угрозы.
Регулирование и защита информаторов в технологической сфере становятся критически важными для обеспечения ответственного развития AGI.