Home » Apple » Apple Patente: Drei Kamerasensoren sorgen für farbechtere Fotos

Apple Patente: Drei Kamerasensoren sorgen für farbechtere Fotos

Das iPhone ist in den vergangenen Jahr nahezu ein vollwertiger Ersatz für die digitale Kompaktkamera geworden. Das iPhone 5 ist die am meisten genutzte Kamera in der Fotocommunity Flickr. Kein Wunder also, dass Apple stets bemüht ist, die Kamera des iPhones zu verbessern. Für das iPhone 5S bedeutet das wahrscheinlich, dass statt der 8 MP Kamera aus dem iPhone 5 nun eine 12 MP Kamera verbaut wird. Doch die Entwicklung stoppt nicht bei der Anzahl der Megapixel, wie ein von Apple Insider entdecktes Patent zeigt.

Das Patent No. 8,497,897 hört auf den Titel „Image capture using luminance and chrominance sensors“ und beschreibt ein Kamerasystem, das aus 3 Sensoren statt dem üblichen einem Sensor besteht. Dabei nimmt ein Sensor die Luminanz auf, während zwei für die Chrominanz zuständig sind. Aber was ist das nun genau? Luminanz ist der Wert für die Helligkeit einzelner Bildpunkte, während Chrominanz die Informationen über die Farbart enthält. Nur in Kombination dieser beiden Signalarten ist das Erfassen eines farbigen Bildes möglich.

Jeder Sensor ist in Apples Patent mit einem eigenen Linsensystem ausgestattet. Das erlaubt den bestmöglichen Lichteinfall auf den Sensor. In den meisten beschriebenen Anwendungen sitzt der Luminanz-Sensor zwischen den beiden Chrominanz-Sensoren. So ist es der Kamera möglich, die Informationen aus insgesamt drei separat aufgenommenen Bildern aufeinander abzugleichen und dann ein Einzelbild zu erstellen. Dieses würde vor allem in Sachen Farbechtheit für einen signifikanten Qualitätssprung im Vergleich zu einem einzelnen Sensor bringen. Die drei Sensoren können dabei auf einem Circuit Board verbaut werden.

Die Bilder der Chrominanz-Sensoren werden übereinander gelegt und Differenzen gemessen. Diese werden dann abhängig der Konfiguration der Kamera (softwareseitig) interpoliert und dann durch Daten des Luminanz-Sensors ergänzt. Mit dieser Methode konnte Apple auch das Problem des „blinden Flecks“ lösen, der normalerweise bei drei Sensoren mit drei Linseneinheiten auftreten würde. Außerdem kann durch das Übereinanderlegen der Fehler der Distorsion (Verzeichnung) korrigiert werden. Unterschiedliche Konfigurationen der drei Sensoren könnte außerdem für bessere Bilder in Umgebungen mit schlechtem Licht sorgen.

Allzu bald werden wir diese Technik sicher nicht in einem iPhone wieder finden. Und auch dann wird das iPhone eine professionelle Kamera nicht ersetzen können. Aber es ist schön zu wissen, dass Apple auch im Bereich Fototechnik durch Innovation auffallen möchte.

 

Keine News mehr verpassen! Unsere App für iOS und Android mit praktischer Push-Funktion.


2 Kommentare

  1. WTF_Obst_Salat_-

    Das wäre echt der Hammer wenn es im iPhone 6 verbaut wird

  2. Diese oder ähnliche Technik wurden in 90er schon in diversen Videokameras verbaut. Das Resultat waren Saubere Bilder/-Filme.Die mit hoher Lichtempfindlichkeit verbauten CCD Waren Ideal für das Nachtfilmen.
    Sollte Apple diese genauso gut hinbekommen dann kann NOKIA mit ihre (so genannten Nachtkameras) verbauten Cam´s einpacken