В последние месяцы использование искусственного интеллекта в военных операциях Израиля в Газе стало предметом серьезных обсуждений. Программы, такие как "Евангелие" и "Лаванда", помогают израильским военным определять цели для атак, что значительно ускоряет процесс принятия решений. Например, "Евангелие" генерирует списки зданий, где могут находиться боевики, а "Лаванда" идентифицирует подозреваемых членов ХАМАС для последующих атак.
Согласно данным, предоставленным Министерством здравоохранения Газы, в результате бомбардировок погибли более 44 000 палестинцев. Это вызывает тревогу у экспертов, которые отмечают, что использование AI в военных действиях может установить опасные прецеденты. В отличие от предыдущих конфликтов, где на сбор информации уходило много времени и ресурсов, современные AI-системы способны выполнять эту работу за считанные дни.
Некоторые военные аналитики выражают опасения, что автоматизация процесса выбора целей может привести к увеличению числа жертв среди гражданского населения. Применение AI в военных операциях также ставит под сомнение соблюдение международного гуманитарного права, так как существующие законы не учитывают специфику новых технологий.
Израильская армия утверждает, что AI лишь помогает аналитикам, но не заменяет их в принятии окончательных решений. Однако, по словам некоторых источников, военные иногда полагаются на AI, даже несмотря на его погрешности, что может привести к ошибочным атакам.
Ситуация в Газе поднимает важные вопросы о будущем войны и необходимости разработки новых правовых норм, регулирующих использование AI в военных конфликтах. Эксперты подчеркивают, что скорость технологического прогресса опережает развитие соответствующих политик, что создает риск для гражданских лиц и может привести к новым гуманитарным катастрофам.