Luk annoncen

I sidste uge introducerede Apple flere nye produkter, herunder den nye iPad Pro. Udover en ny (og lidt kraftigere) SoC og øget driftshukommelseskapacitet byder den også på et opdateret kamerasystem, som suppleres af en ny LIDAR-sensor. Der dukkede en video op på YouTube, der tydeligt demonstrerer, hvad denne sensor kan, og hvad den skal bruges til i praksis.

LIDAR står for Light Detection And Ranging, og som navnet antyder, har denne sensor til formål at kortlægge området foran iPadens kamera ved hjælp af laserscanning af omgivelserne. Dette kan være lidt svært at forestille sig, og en nyligt udgivet YouTube-video, der viser kortlægning i realtid i aktion, hjælper med det.

Takket være den nye LIDAR sensor er iPad Pro i stand til bedre at kortlægge det omgivende miljø og "læse" hvor alt omkring er med hensyn til iPad som centrum af det kortlagte område. Dette er meget vigtigt, især med hensyn til brugen af ​​applikationer og funktioner designet til augmented reality. Det skyldes, at de vil kunne "læse" omgivelserne bedre og være både langt mere præcise og samtidig dygtigere i forhold til brugen af ​​det rum, som ting fra augmented reality projiceres ind i.

LIDAR-sensoren har ikke meget brug endnu, da mulighederne for augmented reality stadig er relativt begrænsede i applikationer. Det er dog netop den nye LIDAR-sensor, der skal bidrage markant til, at AR-applikationer bliver væsentligt forbedret og udvidet blandt almindelige brugere. Derudover kan det forventes, at LIDAR-sensorer vil blive udvidet til de nye iPhones, hvilket vil øge brugerbasen markant, hvilket burde motivere udviklere til at udvikle nye AR-applikationer desto mere. Hvilket vi kun kan drage fordel af.

.