Logo androidermagazine.com
Logo androidermagazine.com

Die Geheimwaffe der Pixel-2-Kamera: ein von Google entwickeltes Soc, der „Pixel Visual Core“

Anonim

Wir haben das Pixel 2 verwendet und es ist etwas größer als das Pixel 2 XL. Auch hier bieten die Telefone von Google einige fantastische Fotofunktionen. Was wir sowohl von der 12, 2-Megapixel-Rückfahrkamera als auch von der 8-Megapixel-Vorderseite gesehen haben, ist so viel besser als jedes andere Telefon, das wir jemals benutzt haben. Und wir haben viele davon benutzt.

Lesen Sie den Google Pixel 2-Test

Und das ist, bevor Google seine Geheimwaffe aktiviert. Google hat im Pixel 2 einen benutzerdefinierten SoC (System on Chip) mit Imaging-Fokus entwickelt, der als Pixel Visual Core bezeichnet wird.

Wir haben nicht alle Details; Google ist nicht bereit, sie zu teilen, und weiß möglicherweise noch nicht einmal, wozu dieser benutzerdefinierte Chip in der Lage ist. Was wir wissen, ist, dass der Pixel Visual Core auf einer von Google entwickelten 8-Kern- Bildverarbeitungseinheit basiert. Diese IPU kann drei Billionen Vorgänge pro Sekunde ausführen, während sie mit dem winzigen Akku in einem Mobiltelefon betrieben wird.

Interessanterweise war der Pixel Visual Core beim Start von Pixel 2 und 2 XL noch nicht aktiviert - wir sehen gerade eine "frühe Version" davon mit der Android 8.1 Developer Preview 2. Mit dem endlich aktivierten Pixel Visual Core, Die HDR + -Routinen von Google werden mit dieser IPU verarbeitet und fünfmal schneller ausgeführt, wobei weniger als ein Zehntel der Energie verbraucht wird als mit dem Standard-Bildprozessor des Snapdragon 835.

Laut Google ist dies möglich, weil Software und Hardware gut aufeinander abgestimmt sind. Die Software auf dem Pixel 2 steuert "viel mehr" Details der Hardware, als Sie in einer typischen Anordnung von Prozessor zu Software finden würden. Durch die Übergabe der Steuerung an die Software kann die Hardware einfacher und effizienter werden.

Google ist in erster Linie ein Softwareunternehmen. Es ist kein Wunder, dass sein erstes benutzerdefiniertes mobiles SoC Software so nutzt, wie andere Unternehmen Hardware verwenden.

Dies führt natürlich dazu, dass die Software immer komplexer wird. Anstatt Standardmethoden zum Schreiben von Code zu verwenden, ihn in ein fertiges Produkt zu integrieren und dann zu versuchen, alles zu verwalten, nachdem alle Arbeiten abgeschlossen sind, hat sich Google dem maschinellen Lernen von Codierungssprachen zugewandt. Mithilfe von Halide für die eigentliche Bildverarbeitung und TensorFlow für die maschinellen Lernkomponenten hat Google einen eigenen Software-Compiler erstellt, mit dem der fertige Produktionscode in eine speziell für die jeweilige Hardware erstellte Software optimiert werden kann.

Obwohl es beim Start noch nicht fertig war und zusätzliche Zeit für die Aktivierung benötigte, ist der einzige Teil des Kameraerlebnisses mit dem Pixel Visual Core die HDR + -Funktion der Kamera. Es ist schon sehr gut; das kommt als nächstes.

HDR + ist nur der Anfang für den Pixel Visual Core.

Mit der Android 8.1 Developer Preview 2 wird der Pixel Visual Core als Entwickleroption geöffnet. Ziel ist es, allen Apps von Drittanbietern über die Android-Kamera-API Zugriff zu gewähren. Dies gibt jedem Entwickler die Möglichkeit, Googles HDR + und den Pixel Visual Core zu nutzen, und wir erwarten einige wirklich große Dinge.

Als letztes, worüber wir immer gerne hören, meint Google, wir sollten uns daran erinnern, dass der Pixel Visual Core programmierbar ist und bereits die nächsten Anwendungen erstellt werden, die seine Leistungsfähigkeit nutzen können. Da Google seinem neuen SoC mehr Funktionen hinzufügt, werden die Pixel 2 und 2 XL immer besser und können mehr. Während der gesamten Lebensdauer von Pixel 2 gibt es neue Bildbearbeitungs- und maschinelle Lernanwendungen, auf die wir vorbereitet sind.