Apples eget bildesensorprosjekt er satt til å transformere iPhone-bilder

Apple er angivelig nær ved å erstatte de Sony-lagde kamerasensorene som finnes på tvers av dagens iPhone-serie med en fullt tilpasset, intern design. I følge ny informasjon delt avFast fokus digital, har Cupertino-selskapet allerede bygget fungerende prototyper som leverer opptil 20 stopp med dynamisk rekkevidde – et tall som konkurrerer med det det menneskelige øyet kan oppfatte, og er mye høyere enn de 13-14 stoppene med dynamikk som nåværende smarttelefonkameraer er i stand til.

Flyttingen fortsetter Apples bredere strategi for vertikal integrasjon. Designet av sin egen silisium for Mac- og iPhone-prosessorer, trådløse brikker og snart modemer har gitt Apple strengere kontroll over ytelse, sikkerhet og forsyningskjeder. Ved å bringe kamerasensoren under samme tak, kan Apple justere hvert trinn i bildebehandlingsrørledningen, fra fotonfangst til endelig bildebehandling, i takt med dens Photonic Engine og nevrale kjerner i A-serien.

En fersk patentinnlevering med tittelen "Bildesensor med stablede piksler med høyt dynamisk område og lav støy" skisserer en to-lags arkitektur. Den øverste sensordysen er ansvarlig for å samle lys, mens en separat logisk dyse under håndterer eksponeringskontroll og støyreduksjon på brikken. Denne stablede tilnærmingen øker lyseffektiviteten uten å forstørre kamerabumpen.

Innenfor hver piksel bruker Apples ingeniører en lateral overflow integration capacitor (LOFIC) som automatisk avleder overflødige elektroner når en scene er for lys. Høylys og skygger kan derfor tas opp samtidig, noe som fjerner behovet for flere eksponeringer. Resultatet er renere HDR-bilder der himmelen beholder teksturen og ansiktene forblir riktig eksponert.

RELATERT:Over 80 % av amerikanske tenåringer eier en iPhone og 31 % eier en Apple Watch, viser Piper Sandler-undersøkelsen

Støyhåndtering er også tenkt nytt. Hver piksel inkluderer dedikert minne som registrerer og trekker fra termisk støy i sanntid, og skjærer korn i bilder med lite lys før programvarebehandling i det hele tatt begynner. Apple sier at denne korrigeringen på maskinvarenivå kan bevare delikate detaljer som ofte går tapt når tradisjonelle algoritmer trer inn senere.

Tidlige prototyper blir angivelig testet i utviklingsmaskinvare, noe som antyder at en Apple-bildesensor kan debutere så tidlig som iPhone 18 Pro-syklusen. Hvis tidslinjen glipper, forventes teknologien fortsatt å komme i god tid før slutten av tiåret og bør integreres sømløst med Apples tilpassede linser, Photonic Engine og ProRAW-arbeidsflyter.

For brukere er løftet enkelt: lysere høylys, renere skygger og raskere, mer strømeffektiv bildefangst. For Apple ville det å droppe Sony redusere komponentkostnadene og låse inn en annen kritisk teknologifordel. Samlet sett signaliserer Apples bildesensorprosjekt et stort sprang fremover for iPhone-fotografering og en forsterkning av selskapets selvhjulpne maskinvareveikart.

viaMacRumors