Portrait Selfies sind momentan meine Lieblingssache auf Smartphones. Ich kann spüren, wie deine Augen rollen, während du das liest, aber höre mich für einen Moment an. Auf technischer Ebene erleben wir einen massiven Schub, um die Qualität der nach vorne gerichteten Kamera zu verbessern, während Tiefenkarten und Farbkorrekturen angewendet werden, damit ein Foto sofort in etwas Neues verwandelt werden kann. Es ist faszinierend und macht Spaß, und in den Anfängen dieses auf Smartphones vorhandenen Features gibt es zwei sehr unterschiedliche Möglichkeiten, diesen Effekt zu erzeugen.
Die True Depth-Kamera von Apple verfügt über mehrere Sensoren, mit denen auf dem iPhone X in Echtzeit eine Tiefenkarte erstellt werden kann. Die Lösung von Google basiert ausschließlich auf maschinellem Lernen und einer beeindruckenden Einzelkamera, mit der derselbe Effekt auf Pixel 2 erzielt werden kann vergleichen Sie!
Das erste, was Sie beim Vergleich dieser Kameras verstehen müssen, ist, wo Apple und Google bei der Erstellung von Fotos Priorität einräumen. Aus technischer Sicht verfügen diese beiden Telefone derzeit über die weltweit besten Fotofunktionen. Für die meisten Benutzer besteht der einzige Unterschied darin, welche Teile des Fotos und welche Funktionen Vorrang haben.
In diesen Aufnahmen werden zwei Dinge schnell offensichtlich. Der Hintergrund in der iPhone X-Aufnahme wird ausgeblendet, um sicherzustellen, dass mein Gesicht gut beleuchtet und richtig gefärbt ist. Der Hintergrund in der Pixel 2-Aufnahme ist dank Googles HDR + besser auf den Rest des Fotos abgestimmt. Mein Gesicht ist jedoch merklich dunkler und nimmt eine leicht rötliche Färbung an, die Sie in der anderen Aufnahme nicht sehen.
Es gibt auch erhebliche Unterschiede in diesem Unschärfeeffekt, der zum Erstellen von Portrait-Selfies verwendet wird. Googles Software wendet eine aggressivere Unschärfe an und lässt Unvollkommenheiten in der Tiefenkarte deutlich hervorstechen. Es sieht fast so aus, als wäre auf diesem Foto ein ausgeschnittener Aufkleber von mir angebracht worden. Apfels Blau sieht ein bisschen natürlicher aus, bis du an meine Haare kommst und Teile von mir etwas unscharf aussehen. Keiner der Aufnahmen "nagelt" wirklich das Bild aufgrund der jeweiligen Fehler, aber die Fehler sind so subtil, dass Sie ein paar lustige Fotos haben.
Hier ist ein weiteres Beispiel, nur diesmal ist es eine Außenaufnahme, die zu 100% vergrößert ist.
Dieses Paar von Aufnahmen bietet viele der gleichen Schlussfolgerungen. Apple beleuchtet mein Gesicht, insbesondere meine Augen, besser, während Google den Hintergrund besser beleuchtet und das gesamte Foto fetter erscheinen lässt. Die Unschärfe von Apple greift zu tief in mein Haar ein und lässt einen Teil von mir unscharf aussehen, während die Unschärfe von Google so stark ist, dass tatsächlich einige meiner Haare herausgeschnitten wurden, die nicht richtig positioniert waren. Ohne den Portrait-Modus hat das iPhone X zwar das bessere Foto aufgenommen, aber mit diesem aktivierten Foto-Modus ist es einfacher, den Effekt der Google-Software zu erkennen.
Apple und Google scheinen sich dieser Fototechnik aus entgegengesetzten Richtungen zu nähern, und es ist wahrscheinlich, dass das, was wir in nicht allzu ferner Zukunft sehen werden, eine Art Treffen in der Mitte ist.
Es gibt einige natürliche Einschränkungen für beide Fotomodi, insbesondere in diesen frühen Tagen. Das iPhone X blinkt im Hochformat, wenn der Hintergrund zu hell ist oder wenn Objekte im Hintergrund zu weit entfernt sind, um eine korrekte Tiefenkarte aufzunehmen. Googles Algorithmus hat die unangenehme Angewohnheit, Ecken von Brillen oder Objekten im Vordergrund zu bearbeiten, die keiner Person zugeordnet sind. Es ist ein bisschen probeweise, beides richtig zum Laufen zu bringen, was theoretisch im Laufe der Zeit seltener wird, da Apple und Google diese Technologie weiter verbessern.
Das Wichtigste, was Apple in diesem Portrait-Modus derzeit über Google hat, ist das Portrait-Licht. Die Möglichkeit, die möglichen Änderungen am Foto in Echtzeit zu sehen, während Sie das Foto aufnehmen, ist eine große Sache, und die Möglichkeit, Portrait Lighting weiter zu bearbeiten, nachdem das Foto aufgenommen wurde, ist unglaublich. Es ist momentan ein sehr beliebtes Feature, besonders wenn Sie sich mit Bühnenbeleuchtung beschäftigen, aber nichts anderes als das iPhone hat dies jetzt.
Beim Bearbeiten der Fotos hat Google etwas, was Apple derzeit nicht hat und wahrscheinlich sollte. Wenn Sie ein Foto im Porträtmodus mit einem Pixel 2 aufnehmen, erhalten Sie zwei Fotos. Ein Foto wird mit den unscharfen Bereichen bearbeitet und das andere ist nur ein einfaches Selfie mit der Frontkamera. Auf diese Weise können Sie beide Fotos bearbeiten und sehen, welche Sie bevorzugen. Apple speichert alles als einzelnes Foto, was meiner Meinung nach weniger praktisch ist, um Änderungen zwischen den beiden Modi zu sehen. Auf der anderen Seite ist es ein Foto weniger in Ihrer Kamerarolle, daher ist dies wahrscheinlich nur eine persönliche Präferenz.
Es gibt viel zu sagen über die "richtige" Art, ein Foto aufzunehmen, und noch mehr über die Vorzüge der Farbgenauigkeit und der Funktionseffektivität. Apple und Google scheinen sich dieser Fototechnik aus entgegengesetzten Richtungen zu nähern, und es ist wahrscheinlich, dass das, was wir in nicht allzu ferner Zukunft sehen werden, eine Art Treffen in der Mitte ist. Derzeit ist nicht sofort klar, dass Apples hardwarebasierter Ansatz messbar besser ist als Googles softwarebasierter Ansatz für Portrait Selfies. All die Dinge, die die iPhone X-Kamera zu einem großartigen Selfie machen, sind bereits auf dem iPhone 8 und 8 Plus vorhanden. Gleichzeitig ist nicht klar, wie viel besser Google seine Fotobearbeitungssoftware mit einer einzigen Kamera und einer bevorzugten Beleuchtung für das gesamte Foto anstelle des Gesichts machen kann.
Eines ist absolut klar: Wir sind noch lange nicht so weit, dass Apple und Google uns mehr und bessere Selfie-Funktionen bieten.