Berichten zufolge ist Apple kurz davor, die von Sony hergestellten Kamerasensoren, die in der heutigen iPhone-Reihe zu finden sind, durch ein vollständig maßgeschneidertes, hauseigenes Design zu ersetzen. Nach neuen Informationen vonDigitaler FixfokusDas Unternehmen aus Cupertino hat bereits funktionsfähige Prototypen gebaut, die einen Dynamikumfang von bis zu 20 Blendenstufen liefern – eine Zahl, die mit der Wahrnehmung des menschlichen Auges mithalten kann und weit über den 13 bis 14 Blendenstufen Dynamik liegt, zu denen aktuelle Smartphone-Kameras in der Lage sind.
Der Schritt führt Apples umfassendere Strategie der vertikalen Integration fort. Durch die Entwicklung eigener Chips für Mac- und iPhone-Prozessoren, Wireless-Chips und bald auch Modems hat Apple eine strengere Kontrolle über Leistung, Sicherheit und Lieferketten erhalten. Indem Apple den Kamerasensor unter einem Dach vereint, kann er jeden Schritt der Bildgebungspipeline optimieren, von der Photonenerfassung bis zur endgültigen Fotoverarbeitung, zusammen mit seiner Photonic Engine und den neuronalen Kernen der A-Serie.
Eine kürzlich eingereichte Patentanmeldung mit dem Titel „Bildsensor mit gestapelten Pixeln mit hohem Dynamikbereich und geringem Rauschen“ beschreibt eine zweischichtige Architektur. Der obere Sensorchip ist für das Sammeln des Lichts verantwortlich, während ein separater Logikchip darunter die Belichtungssteuerung und die Rauschunterdrückung auf dem Chip übernimmt. Dieser gestapelte Ansatz erhöht die Lichteffizienz, ohne den Kamerabuckel zu vergrößern.
Innerhalb jedes Pixels verwenden die Ingenieure von Apple einen Lateral Overflow Integration Condensator (LOFIC), der überschüssige Elektronen automatisch umleitet, wenn eine Szene zu hell ist. Dadurch können Lichter und Schatten gleichzeitig aufgenommen werden, sodass keine Mehrfachbelichtungen erforderlich sind. Das Ergebnis sind klarere HDR-Fotos, bei denen der Himmel seine Textur behält und die Gesichter richtig belichtet bleiben.
Auch der Umgang mit Geräuschen wurde neu überdacht. Jedes Pixel verfügt über einen dedizierten Speicher, der thermisches Rauschen in Echtzeit aufzeichnet und subtrahiert und so die Körnung bei Aufnahmen bei schlechten Lichtverhältnissen reduziert, bevor die Softwareverarbeitung überhaupt beginnt. Apple sagt, dass diese Korrektur auf Hardwareebene empfindliche Details bewahren kann, die oft verloren gehen, wenn herkömmliche Algorithmen später eingreifen.
Frühe Prototypen werden angeblich in Entwicklungshardware getestet, was darauf hindeutet, dass ein Apple-Bildsensor bereits im iPhone 18 Pro-Zyklus auf den Markt kommen könnte. Wenn der Zeitplan abrutscht, wird die Technologie voraussichtlich noch weit vor Ende des Jahrzehnts verfügbar sein und sich nahtlos in die benutzerdefinierten Objektive, die Photonic Engine und die ProRAW-Workflows von Apple integrieren lassen.
Für Benutzer ist das Versprechen klar: hellere Lichter, klarere Schatten und eine schnellere, energieeffizientere Bildaufnahme. Für Apple würde der Verzicht auf Sony die Komponentenkosten senken und sich einen weiteren entscheidenden Technologievorteil sichern. Insgesamt bedeutet das Apple-Bildsensorprojekt einen großen Fortschritt für die iPhone-Fotografie und eine Stärkung der eigenständigen Hardware-Roadmap des Unternehmens.
Empfohlene Lektüre:Wie die Partnerschaft von Apple mit Shutterstock Ihr iPhone verändern wird
überMacRumors
