Test: iPhone 14 Pro (Max)
Fotos: Besser oder nur anders?
Während die Dynamic Island vor allem durch ihren originellen Ansatz und ihre Nützlichkeit gefällt, interessieren sich die meisten potenziellen Käufer für die Kamera – halt so wie jedes Jahr. Hier sind die Unterschiede auf den ersten Blick eher klein ausgefallen. In diesem Beispiel sind die Wolken beim iPhone 14 Pro Max eher ein wenig heller, und auch die Hausfassade präsentiert sich ein wenig frischer, wohl durch einen etwas besseren Weissabgleich. Hingegen wirken die Wolken beim iPhone 13 Pro Max einen Tick dramatischer. Das kann gefallen oder nicht – aber bei normalem Tageslicht entscheidet allein der persönliche Geschmack darüber, welches Bild besser ist.
So viel vorweg: Wenn das iPhone einfach als Schnappschuss-Kamera ohne weitere Ambitionen verwendet wird, dann bietet das iPhone 14 Pro zwar eine bessere Qualität als das iPhone 13 Pro. Aber die grossen Unterschiede erfahren nur jene, die sich bewusst auf die neuen Möglichkeiten einlassen – auch wenn diese vielleicht ein wenig technischer wirken, als wir es uns von Apple gewohnt sind.
Die neue «Photonic Engine»
Bei jedem von Apples A-SoC (System on Chip) sorgt die «Image-Pipeline» dafür, dass ein Foto einer ganzen Reihe von Optimierungen unterzogen wird: Kontraste, HDR, Tonwertkorrektur und mehr werden der Reihe nach abgespult, bevor das Bild gespeichert wird. Eine besondere Rolle kommt dabei «Deep Fusion» zu, das 2019 mit dem iPhone 11 seinen ersten Auftritt hatte. Der ehemalige Marketing-Chef bei Apple, Phil Schiller, bezeichnete Deep Fusion als «computergestützte, verrückte Wissenschaft der Fotografie».
Bei Deep Fusion wird bei einem Druck auf den Auslöser zunächst eine Reihe schneller Fotos aufgenommen, gefolgt von einer längeren Belichtung. Anschliessend werden die Bilder mit den besten Informationen neu zusammengesetzt. Das zeigt sich besonders beim geringeren Rauschen bei schwachem Licht und bei feinen Objekten wie Haaren oder Textilfasern.
Mit dem iPhone 14 Pro hat Apple einen neuen Marketing-Begriff ersonnen: Die Photonic Engine verändert die Bildoptimierung, indem Deep Fusion weiter vorne in der Bearbeitungskette steht. Es wirkt also auf die RAW-Daten, noch bevor diese komprimiert werden.
Diese neue Reihenfolge soll die Aufnahmen bei Nacht weiter verbessern. Doch tatsächlich würde ich im Blindtest mit einem iPhone 13 Pro als Vergleich wohl kläglich versagen. Ja, die Bilder sind anders und zum Teil besser – aber oft ist kein Unterschied zu erkennen. Oder nur der persönliche Geschmack entscheidet. Etwa hier:
Im Vergleich zum iPhone 12 werden mit dem iPhone 13 die Nachtaufnahmen deutlich heller dargestellt; das hat Apple mit dem iPhone 14 wieder zurückgenommen
Quelle: NMGZ
Und hier der Crop. Definitiv anders. Aber besser? Schwer zu sagen:
Es wird schwieriger
Quelle: NMGZ
Auch bei dieser Aufnahme gibt es keinen Sieger. Die Lichtverteilung des Spots wirkt beim iPhone 13 Pro natürlicher, während das iPhone 14 Pro die Struktur der Wände besser herausarbeitet:
Ausgefressene Lichter beim iPhone 14 Pro – aber auch deutlichere Strukturen
Quelle: NMGZ
Was auf jeden Fall positiv aufgefallen ist: Im Vergleich zum iPhone 13 Pro (und weiteren Vorgängern) wirken die Fotos bei kniffeligen Motiven nicht mehr so überschärft, wie es vorher manchmal vorkam.
Wie immer gilt, dass diese Image-Pipeline direkt in den SoC eingebettet, also von der Hardware abhängig ist. Die Photonic Engine wird auch vom iPhone 14 (ohne Pro) mit dem leicht überarbeiteten A15-SoC unterstützt, aber nicht von den älteren Modellen.