Визуальный интеллект, который был представлен на iPhone 16, стал настоящим хитом среди пользователей Apple. Эта функция позволяет использовать камеру в сочетании с искусственным интеллектом для выполнения различных задач, таких как перевод уличных знаков, добавление событий из флаеров в календарь и получение информации о ресторанах.
С выходом iOS 26 возможности визуального интеллекта значительно расширились. Теперь пользователи могут применять эту функцию не только к изображениям, сделанным камерой, но и к любому контенту, который они видят на экране своего iPhone. Например, сделав скриншот, вы можете получить доступ к тем же функциям визуального интеллекта, что и при использовании камеры. Это открывает новые горизонты для взаимодействия с контентом.
На недавнем квартальном отчете Тим Кук подчеркнул, что визуальный интеллект стал одной из самых востребованных функций Apple. Он отметил, что эта технология помогает пользователям быстрее находить информацию и выполнять действия на своих устройствах.
По слухам, Apple планирует расширить функционал визуального интеллекта на новые устройства. Ожидается, что новые AirPods Pro и очки Apple Glass будут оснащены встроенными камерами, которые также будут использовать эту функцию. Это означает, что визуальный интеллект станет неотъемлемой частью будущих носимых устройств Apple, что открывает новые возможности для пользователей.
Таким образом, визуальный интеллект не только улучшает взаимодействие с iPhone, но и готовится занять центральное место в экосистеме Apple.