Für ein Unternehmen, dessen Ziel es ist, das Wissensdiagramm des gesamten Planeten zu sein, sind bildbasierte KI-Dienste für Google eine Selbstverständlichkeit. Und für jeden, der in den letzten Jahren Google Fotos verwendet, ist bekannt, dass große Fortschritte bei der Verbesserung dieser Funktionen erzielt wurden. Die Gesichts- und Objekterkennung in Google Fotos kann unglaublich sein, und es gibt viele Vorteile, die sich aus der Verwendung dieser Funktionen in der realen Welt ergeben können. Es ist unglaublich, eine Kamera anbieten zu können, mit der allein Sehbehinderten Ladenfronten und Straßenschilder schnell erkannt werden können.
Google Lens geht in die richtige Richtung, ist aber noch nicht für den täglichen Gebrauch bereit.
Als Inhaber von Google Pixel habe ich seit sechs Monaten Zugriff auf Lens. Diese Beta-Phase für Lens war etwas ungeschickt, was zu erwarten ist. Ich zeige Lens auf ein ungewöhnliches Buch, das ein Freund von mir hatte, und anstatt mir zu sagen, wo ich das Buch für mich selbst kaufen kann, bekomme ich einen Textausschnitt aus dem identifizierten Cover. Ich bitte Lens, ein Foto eines Kinos zu scannen, er hat keine Ahnung, was auf dem Foto zu sehen ist, und bietet mir nicht die Möglichkeit, Tickets für die Show zu kaufen, wie es eigentlich sein sollte. Ich mache ein Foto von meinem Shetland Sheepdog. Lens identifiziert sie als Rough Collie. Okay, so dass es fast unmöglich ist, das letzte Foto richtig zu machen, aber der springende Punkt ist, dass Google Lens die meisten Dinge, von denen es behauptet, dass sie noch möglich sind, nicht zuverlässig macht.
Gut, dass Google die Dinge, die Lens richtig macht, schnell richtig macht. Ich liebe es, Lens für die Echtzeit-Sprachübersetzung verwenden zu können. Zeigen Sie mit der Linse auf ein Menü, das in einer anderen Sprache geschrieben wurde, und Sie erhalten sofort Übersetzungen direkt auf der Seite, als würden Sie das Menü die ganze Zeit auf Englisch betrachten. Nehmen Sie ein Foto von einer Visitenkarte auf und Lens ist bereit, diese Informationen zu meinem Kontaktbuch hinzuzufügen. Ich habe einzelne Apps für diese Funktionen verwendet, die in der Vergangenheit recht gut funktioniert haben. Die Vereinheitlichung dieser Funktionen an derselben Stelle, an der ich auf alle meine Fotos zugreife, ist jedoch hervorragend.
Mir ist auch bewusst, dass dies für Lens noch sehr frühe Tage sind. Immerhin steht in der App "Vorschau". Während Pixel-Besitzer seit einem halben Jahr Zugriff auf die Funktion haben, hat der Großteil der Android-Welt zu diesem Zeitpunkt nur etwas mehr als einen Monat Zugriff darauf. Und wenn Sie verstehen, wie diese Software funktioniert, ist dies ein wichtiges Detail. Die maschinellen Lerninformationen von Google sind in hohem Maße auf umfangreiche Wissensbeiträge angewiesen. Sie können daher schnell alle Informationen durchsuchen und ordnungsgemäß identifizierte Elemente verwenden, um das nächste Element besser zu identifizieren. Es könnte argumentiert werden, dass Google Lens gerade erst mit dem Betatest begonnen hat, jetzt hat jeder Zugriff darauf.
Gleichzeitig wurde Lens an diesem Punkt vor einem ganzen Jahr angekündigt, und ich kann es immer noch nicht zuverlässig auf eine Blume richten und mir sagen lassen, um welche Art es sich handelt. Es ist eine coole Sache, Zugang zu haben, aber ich hoffe aufrichtig, dass Google diese Funktion in nicht allzu ferner Zukunft zu etwas Besonderem machen kann.