В последние дни мир науки потрясен новыми достижениями в области искусственного интеллекта. Ученые из Стэнфордского университета представили результаты исследования, в котором AI-инструмент под названием Evo был использован для создания новых вирусов. Это событие стало первым в своем роде и вызвало серьезные опасения по поводу потенциальных злоупотреблений данной технологией.
Evo, аналогичный ChatGPT, был обучен на миллионах геномов бактериофагов — вирусов, которые заражают и уничтожают бактерии. Исследователи оценили тысячи сгенерированных AI последовательностей и отобрали 302 жизнеспособных бактериофага, из которых 16 оказались способными эффективно уничтожать штаммы Escherichia coli, известные своим негативным воздействием на здоровье человека.
Хотя эти вирусы не представляют угрозы для человека, эксперты предупреждают о рисках, связанных с возможным использованием подобной технологии для создания биологического оружия. Ученые, такие как Эрик Хорвитц из Microsoft, подчеркивают, что "AI может быть использован для инженерии биологии", что требует внимательного контроля и управления рисками.
В своем исследовании команда также отметила важные аспекты биобезопасности и внедрила меры предосторожности, чтобы предотвратить возможность создания вирусов, опасных для человека. Однако некоторые ученые выражают сомнения, что эти меры могут быть достаточными, учитывая уровень интеллекта AI.
С учетом стремительного развития технологий, эксперты призывают к более строгому контролю и разработке эффективных мер безопасности, чтобы предотвратить возможные негативные последствия. Важно помнить, что, несмотря на все преимущества, которые может принести AI, его использование в таких чувствительных областях, как биология, требует особого внимания и осторожности.