Luk annoncen

iPhone 11 og iPhone 11 Pro (Max) har været til salg i anden uge, men de mangler stadig en af ​​de mest interessante funktioner - Deep Fusion. Ifølge de seneste rapporter har Apple dog allerede funktionen klar og vil snart tilbyde den i den kommende betaversion af iOS 13, højst sandsynligt i iOS 13.2.

Deep Fusion er navnet på det nye billedbehandlingssystem til iPhone 11 (Pro) fotografering, som gør fuld brug af mulighederne i A13 Bionic-processoren, specifikt Neural Engine. Ved hjælp af maskinlæring behandles det optagede billede pixel for pixel, hvorved teksturer, detaljer og eventuel støj i hver del af billedet optimeres. Funktionen vil således være nyttig, især når du tager billeder inde i bygninger eller i medium belysning. Den aktiveres helt automatisk og brugeren vil ikke kunne deaktivere den – praktisk talt ved han ikke engang, at Deep Fusion er aktiv i den givne situation.

Processen med at tage et billede vil ikke være anderledes med Deep Fusion. Brugeren trykker bare på udløserknappen og venter et kort stykke tid på, at billedet bliver oprettet (svarende til Smart HDR). Selvom hele processen kun tager omkring et sekund, formår telefonen, eller rettere sagt processoren, at udføre en række komplekse operationer.

Hele processen er som følger:

  1. Inden du overhovedet trykker på kameraets udløserknap, tages tre billeder i baggrunden med kort eksponeringstid.
  2. Efterfølgende, når udløserknappen trykkes ned, tages yderligere tre klassiske billeder i baggrunden.
  3. Umiddelbart efter tager telefonen endnu et billede med lang eksponering for at fange alle detaljerne.
  4. En trio af klassiske billeder og et foto med lang eksponering er kombineret til ét billede, som Apple omtaler som et "syntetisk langt".
  5. Deep Fusion vælger det enkelte korteksponeringsbillede i bedste kvalitet (vælger blandt de tre, der blev taget, før udløseren blev trykket ned).
  6. Efterfølgende kombineres den valgte frame med den oprettede "syntetiske lang" (to frames er således slået sammen).
  7. Sammenlægningen af ​​de to billeder foregår ved hjælp af en fire-trins proces. Billedet skabes pixel for pixel, detaljer fremhæves og A13-chippen modtager instruktioner om, hvordan de to billeder præcist skal kombineres.

Selvom processen er ret kompleks og kan virke tidskrævende, tager det samlet set kun lidt længere tid end at tage et billede ved hjælp af Smart HDR. Som følge heraf får brugeren umiddelbart efter at have trykket på udløserknappen først et klassisk foto, men det erstattes kort efter af et detaljeret Deep Fusion-billede.

Eksempler på Apples Deep Fusion (og Smart HDR) billeder:

Det skal bemærkes, at fordelene ved Deep Fusion hovedsageligt vil blive brugt af teleobjektivet, men selv når du optager med et klassisk vidvinkelobjektiv, vil nyheden være nyttig. I modsætning hertil vil det nye ultravide objektiv slet ikke understøtte Deep Fusion (såvel som at det ikke understøtter natfotografering) og vil i stedet bruge Smart HDR.

Den nye iPhone 11 vil således byde på tre forskellige tilstande, der aktiveres under forskellige forhold. Hvis scenen er for lys, vil telefonen bruge Smart HDR. Deep Fusion aktiveres, når der optages indendørs og under forhold med moderat svagt lys. Så snart du tager billeder om aftenen eller om natten i svagt lys, aktiveres Night Mode.

iPhone 11 Pro bagkamera FB

kilde: The Verge

.