Apple's eigen beeldsensorproject is bedoeld om iPhone-foto's te transformeren

Apple is naar verluidt dicht bij het vervangen van de door Sony gemaakte camerasensoren die je in de huidige iPhone-serie vindt, door een volledig op maat gemaakt, intern ontwerp. Volgens nieuwe informatie gedeeld doorDigitaal met vaste focusheeft het bedrijf uit Cupertino al werkende prototypes gebouwd die tot 20 stops dynamisch bereik leveren – een cijfer dat kan wedijveren met wat het menselijk oog kan waarnemen, en veel hoger is dan de 13-14 stops dynamisch waartoe de huidige smartphonecamera’s in staat zijn.

Met deze stap wordt de bredere strategie van Apple van verticale integratie voortgezet. Het ontwerpen van zijn eigen silicium voor Mac- en iPhone-processors, draadloze chips en binnenkort modems heeft Apple een strakkere controle gegeven over de prestaties, beveiliging en toeleveringsketens. Door de camerasensor onder één dak te brengen, kan Apple elke stap van de beeldvormingspijplijn afstemmen, van het vastleggen van fotonen tot de uiteindelijke fotoverwerking, in combinatie met de Photonic Engine en neurale kernen uit de A-serie.

Een recente patentaanvraag getiteld “Beeldsensor met gestapelde pixels met een hoog dynamisch bereik en weinig ruis” schetst een tweelaagse architectuur. De bovenste sensorchip is verantwoordelijk voor het verzamelen van licht, terwijl een aparte logische chip eronder voor de belichtingscontrole en ruisonderdrukking op de chip zorgt. Deze gestapelde aanpak verhoogt de lichtefficiëntie zonder de camerabult te vergroten.

Binnen elke pixel gebruiken de technici van Apple een laterale overflow-integratiecondensator (LOFIC) die automatisch overtollige elektronen afleidt wanneer een scène te helder is. Hoge lichten en schaduwen kunnen daardoor tegelijkertijd worden vastgelegd, waardoor meerdere belichtingen niet meer nodig zijn. Het resultaat zijn schonere HDR-foto's waarbij de lucht textuur behoudt en gezichten goed belicht blijven.

Aanbevolen lees:De samenwerking tussen Apple TV+ en Oprah schakelt over naar een project-voor-project-basis naarmate de meerjarige overeenkomst afloopt

Ook aan de geluidsbeheersing is opnieuw gedacht. Elke pixel bevat een speciaal geheugen dat thermische ruis in realtime registreert en verwijdert, waardoor de korreligheid in opnamen bij weinig licht wordt verminderd voordat de softwareverwerking zelfs maar begint. Apple zegt dat deze correctie op hardwareniveau delicate details kan behouden die vaak verloren gaan als traditionele algoritmen later ingrijpen.

Vroege prototypes worden naar verluidt getest in ontwikkelingshardware, wat erop duidt dat een Apple-beeldsensor al in de iPhone 18 Pro-cyclus zou kunnen debuteren. Als de tijdlijn verschuift, zal de technologie naar verwachting nog steeds ruim voor het einde van het decennium arriveren en naadloos integreren met de op maat gemaakte lenzen van Apple, Photonic Engine en ProRAW-workflows.

Voor gebruikers is de belofte eenvoudig: helderdere highlights, schonere schaduwen en snellere, energiezuinigere beeldopname. Voor Apple zou het weglaten van Sony de componentkosten verlagen en een ander cruciaal technologisch voordeel opleveren. Alles bij elkaar genomen betekent het Apple-beeldsensorproject een grote sprong voorwaarts voor iPhone-fotografie en een versterking van de zelfredzame hardware-roadmap van het bedrijf.

viaMacRumoren