Недавняя работа MIT Sloan, в которой утверждалось, что 80,83% атак программ-вымогателей связаны с использованием искусственного интеллекта, вызвала бурное обсуждение и критику в профессиональном сообществе. Исследование, опубликованное в начале 2025 года, быстро привлекло внимание благодаря своим сенсационным цифрам, но вскоре подверглось сомнению из-за недостатка доказательств.
Эксперты в области кибербезопасности, такие как Кевин Бомонт, назвали выводы работы "абсолютно абсурдными" и "почти полным бредом". Он отметил, что в исследовании утверждается, что почти все крупные группы программ-вымогателей используют ИИ, но это не соответствует действительности. Другой эксперт, Маркус Хатчинс, также высказал сомнения, отметив, что методология исследования вызывает смех.
После обширной критики MIT Sloan приняла решение удалить работу с сайта, добавив примечание о том, что она "обновляется на основе недавних отзывов". Один из авторов, Майкл Сигел, подтвердил, что работа находится в процессе пересмотра. Он пояснил, что основная идея исследования заключалась в том, что использование ИИ в атаках программ-вымогателей растет, и необходимо найти способы его измерения.
Тем не менее, даже ИИ-помощник Google опроверг данные исследования, заявив, что представленные цифры "не поддерживаются текущими данными". Этот инцидент подчеркивает растущее напряжение в области исследований кибербезопасности, где энтузиазм по поводу ИИ иногда затмевает фактический анализ.
Важно помнить, что ИИ действительно может быть использован как в атакующих, так и в защитных целях, что делает его важным инструментом в борьбе с киберугрозами. Однако преувеличение его злонамеренного использования может исказить приоритеты, особенно когда речь идет о таких авторитетных учреждениях, как MIT Sloan.