На недавних слушаниях в Сенате бывший сотрудник OpenAI Уильям Сондерс заявил, что новый ИИ-модель GPT-o1 демонстрирует возможности, которые могут быть использованы для воспроизведения известных и новых биологических угроз. Он отметил, что это может привести к «катастрофическому ущербу», если системы искусственного общего интеллекта (AGI) будут развиваться без должных мер безопасности.
Сондерс также подчеркнул, что ИИ развивается с такой скоростью, что создание AGI может произойти уже через три года. Он призвал к срочным мерам регулирования и защите информаторов в технологической сфере, подчеркивая, что потеря контроля над автономными ИИ-системами может привести к серьезным последствиям, вплоть до угрозы существованию человечества.
Эти заявления поднимают важные вопросы о безопасности и этике в разработке ИИ, особенно в свете недавних изменений в руководстве OpenAI и критики их подхода к безопасному развитию технологий.