Das automatische Bildanalyse-Tool Google Lens soll zukünftig eine größere Rolle spielen. Für die entsprechende Reichweite sorgt Google nun: Das Feature kehrt aktuell auf fast allen Android-Smartphones ein. Lange war die Funktion exklusiv auf Pixel-Smartphones verfügbar.
Beta-Tester der Google-App nutzen Google Lens bereits seit einigen Tagen, jetzt kann fast jeder Bilder in Echtzeit analysieren lassen. Voraussetzung ist ein Smartphone, auf dem mindestens Android Lollipop läuft, teilt das Unternehmen in seinem Blog mit. Ihr könnt unter anderem bestimmte Pflanzen oder Hunde mit der Kamera einfangen und die App verrät euch, um welche Gattung beziehungsweise Rasse es sich handelt.
Flott, aber nicht fehlerfrei
Um Google Lens zu nutzen, öffnet ihr einfach den Google Assistant (haltet auf eurem Android-Smartphone die Startbildschirmtaste). Rechts unten auf dem Bildschirm taucht nun ein kleines Symbol auf, hinter dem sich das neue Feature versteckt. Es öffnet sich ein Live-Bild, das automatisch mit der Analyse beginnt. Tippt auf einen bestimmten Bereich des Bildes, über den ihr mehr erfahren möchtet. Erkennt die Anwendung ein Objekt bereits während der Aufnahme, wird das entsprechende Element mit einem bunten Kreis hervorgehoben.
Die Anwendung erfasst zum Beispiel Produkte und verlinkt euch direkt in einen Shop, gibt euch Informationen über Bücher, übersetzt andere Sprachen oder kopiert ganze Texte. Zudem liefert euch das Feature Informationen zu Sehenswürdigkeiten, vor denen ihr gerade steht. Laut Google ist die Funktion lernfähig und dürfte in Zukunft noch erweitert werden. In einem ersten Test deutete die Erweiterung an, dass sie durchaus ein hilfreiches Feature werden kann; fehlerfrei funktioniert sie allerdings noch nicht. Google Lens wurde im Rahmen der Google I/O 2017 vorgestellt.