Home » iPhone & iPod » Apple enthüllt Designphilosphie hinter iPhone 12 Kamera
Apple iPhone LineUp 2020

Apple enthüllt Designphilosphie hinter iPhone 12 Kamera

Das Portal PetaPixel hat ein Interview mit zwei Apple-Führungskräften geführt, die über die Designphilosophie und Vision hinter der Kamera für das Apple iPhone 12 Pro und Pro Max sprachen.

Die Kamera-Entwicklung sieht Apple ganzheitlich, weil der Konzern den Sensor, Objektive, A14 Bionic Prozessor und Software als Einheit betrachtet.

Vision und Philosphie hinter Apple iPhone Kamera

Die Apple Produktlinien-Managerin Francesca Sweet und Jon McCormack, der Vizepräsident für Kamera-Softwareentwicklung gaben das Interview mit PetaPixel. Die Design-Philosphie hinter der Smartphone-Fotografie basiert auf dem Hauptziel Menschen ihr Leben leben zu lassen und Fotos dieses Lebens aufzunehmen, ohne von der Technologie abgelenkt zu werden.

Wie Jon McCormack sagte, müssen Fotografen oft über Dinge wie ISO, Motivbewegungen und andere Werte nachdenken. Apple möchte diese Arbeit übernehmen, damit die Leute im Moment bleiben, ein großartiges Foto aufzunehmen und auf sich fokussieren können.

Er verwies zwar auf professionelle Fotografen, die ein Foto aufnehmen und dann einen Bearbeitungsprozess durchlaufen. Apple setzt jedoch alles daran diesen Prozess in eine einzige Aktion des Nutzers zu komprimieren. Das Ziel besteht darin die Ablenkungen zu entfernen, die eventuell eine Person aus dem Moment reißen könnten.

Maschinelles Lernen bei Bildverarbeitung

Laut McCormack verwendet Apple maschinelles Lernen, um eine Szene in leichter verständliche Teile zu zerlegen. Der Hintergrund, Vordergrund, Augen, Lippen, Haare, Haut, Kleidung und der Himmel wird unabhängig voneinander wie in Lightroom mit einer Reihe lokaler Anpassungen verarbeitet. Die Belichtung, Kontrast und Sättigung wird angepasst, um diese Punkte anschließend miteinander zu kombinieren.

Die Apple Smart HDR-Technologie war auch ein Thema. Nach der Beschreibung von McCormack segmentiert Smart HDR 3 den Himmel und kombiniert ihn wieder, um eine originalgetreue Bildwiedergabe zu erreichen. Als eine herausfordernde Umgebung nannte er Restaurants oder Bars.

Das natürliche Umgebungslicht störe einen Fotografen. Gemischtes, schwaches Licht bringe Farbe durcheinander. Apple verstehe wie Lebensmittel aussehen, weshalb die Farbe und Sättigung entsprechend viel genauer optimiert werden kann. Die Produktlinien-Managerin Francesca Sweet ging besonders auf den Nachtmodus ein, der auf Smart HDR aufbaut und mit der Fotografie bei schlechten Lichtverhältnissen möglich ist.

Apple ProRAW und neuer Bildsensor

Jon McCormack erläuterte auch das Dateiformat Apple ProRAW, welches ein heißes Diskussionnsthema im Rahmen der Präsentationn des Apple iPhone 12 war. Bis zu deren Veröffentlichung mussten Fotografen entscheiden ob sie eine RAW-Datei oder JPEG-Datei abrufen wollen. Der Nutzer der iPhone-Kamera erhält durch ProRAW die volle Kontrolle über die aufgenommenen Bilder in Echtzeit.

Wenn man das Bild aufnimmt und in die digitale Dunkelkammer gebracht werde, ist der gesamte Tonwertbereich vorhanden, erzählte McCormack. In Bezug auf den neuen Bildsensor und seiner langen Entwicklungszeit verwies der Manager darauf, dass man bei der Entwicklung eines Kamerasystems über all die Dinge nachdenke und über alles was auf der Softwareseite bewerkstelligt werden kann.

Die Deep Fusion Technologie versetzte Apple in die Lage mehr Möglichkeiten zur Rauschunterdrückung zu nutzen, obwohl der Konzern einen größeren Sensor hätte in das Apple iPhone 12 verbauen können. Stattdessen stellte das Unternehmen sich die Frage, was alles in der Bildverarbeitung unternommen werden kann, bevor überhaupt die Hardware verbaut wird.

 

Keine News mehr verpassen! Unsere App für iOS und Android mit praktischer Push-Funktion.