Apple Maps в iOS 14 может сканировать горизонт для определения точности местоположения

iOS 14
88 просмотров

В прошлом году Apple Maps получили, наверное, самое крупное обновление за всю историю существования. Apple видоизменила подход к наполнению карт контентом, вывела детализацию на качественно новый уровень и добавила спектр весьма полезных режимов. В результате в Apple Maps появился даже собственный аналог панорам как в Google Maps, но только более качественный и бесшовный. Но в компании решили, что не будут останавливаться на достигнутом, а продолжат расширять возможности своих карт.

В iOS 14 карты Apple получили поддержку любопытного механизма, который помогать лучше ориентироваться в плотной застройке городской среды для поиска нужных заведений. Он помогает поднять iPhone и просто отсканировать горизонт, чтобы помочь алгоритмам точнее определит ваше местоположение. Скорее всего, нововведение основывается на базе панорам Look Around, поэтому карты могут различать объекты на переднем и заднем плане, сопоставлять их с информацией в базе и выдавать вам релевантную информацию о том, где именно вы находитесь и что находится рядом с вами.

Безопасность Apple

 

Скриншот 26-06-2020 171734


Apple гарантирует, что все действия по сканированию, обработке и сопоставлению информации производятся исключительно на устройстве пользователя. То есть никакие данные не передаются В  компании очень осторожно относятся даже к навигационной информации, дробя проложенные маршруты на несколько составных частей и отправляя их для обработки на разные сервера, где они тщательно шифруются. В результате даже если какому-то сотруднику удастся получить доступ к маршруту, он не сможет сопоставить его составные части друг с другом.

 

Судя по всему, у этого механизма нет собственного названия, но это не делает его менее ценным. Ведь пока, кажется, нет больше ни одних других карт, которые помогают  в штатном режиме работать с окружающим пространством. Похожая штука показалась   в тестовом режиме в Google Maps, которая, кажется, должна была начать определять объекты с помощью дополненной реальности, но в результате Google столкнулась со множеством ограничений. Технология оказалась сильно ресурсозатратной, и её приходилось отключать каждые 3 минуты, да и поддерживалась она только на устройствах Google Pixel.

Читайте также: