Luk annoncen

Den tredje udvikler betaversion af systemet iOS 13 gemmer på mange nye gadgets. En af dem er automatisk øjenkontaktkorrektion. Modparten får så indtryk af, at du kigger ham direkte i øjnene.

Nu, når du er på et FaceTime-opkald med nogen, kan den anden part meget ofte se, at dine øjne er nede. Det skyldes, at kameraerne ikke er direkte i displayet, men i overkanten over det. I iOS 13 kommer Apple dog med en utraditionel løsning, hvor den nye ARKit 3 spiller en hovedrolle.

Systemet justerer nu billeddata i realtid. Så selvom dine øjne er nede, viser iOS 13 dig, som om du kiggede direkte ind i den anden persons øjne. Flere udviklere, der har testet den nye funktion, er allerede dukket op på sociale netværk.

En af dem var for eksempel Will Sigmon, som leverede klare billeder. Det venstre billede viser standardsituationen under FaceTime på iOS 12, det højre billede viser automatisk korrektion gennem ARKit i iOS 13.

iOS 13 kan rette øjenkontakt under FaceTime

Funktionen bruger ARKit 3, den vil ikke være tilgængelig til iPhone X

Mike Rundle, der var på vagt, er glad for resultatet. Desuden er det et af de funktioner, han forudsagde tilbage i 2017. Hele hans liste over forudsigelser er i øvrigt interessant:

  • iPhone vil være i stand til at registrere 3D-objekter i sine omgivelser ved hjælp af kontinuerlig rumscanning
  • Eye tracking, som gør det muligt for software at forudsige bevægelse og tillader systemets brugergrænseflade at blive kontrolleret af øjenbevægelser (Apple købte SensoMotoric Instruments i 2017, som anses for at være førende på dette område)
  • Biometriske data og helbredsdata opnået ved at scanne ansigtet (hvad er personens puls osv.)
  • Avanceret billedredigering for at sikre direkte øjenkontakt under FaceTime, for eksempel (hvilket nu er sket)
  • Maskinlæring vil gradvist tillade iPhonen at tælle genstande (antal personer i rummet, antallet af blyanter på bordet, hvor mange T-shirts jeg har i min garderobe...)
  • Øjeblikkelig måling af objekter uden behov for at bruge en AR lineal (hvor høj er væggen, ...)

I mellemtiden bekræftede Dave Schukin, at iOS 13 bruger ARKit til at rette øjenkontakt. Under langsommere afspilning kan du fange, hvordan brillerne pludselig forvrænges, før de sættes på øjnene.

Udvikler Aaron Brager tilføjer så, at systemet bruger en speciel API, der kun er tilgængelig i ARKit 3 og er begrænset til de nyeste iPhone XS / XS Max og iPhone XR modeller. Den ældre iPhone X understøtter ikke disse grænseflader, og funktionen vil ikke være tilgængelig på den.

kilde: 9to5Mac

.