Schon nach wenigen Minuten hat Google während der Keynote seiner Google I/O-Entwicklermesse die erste große Neuerung präsentiert: Google Lens. Dank dieser neuen Funktion sollen der Google Assistant und Google Fotos Bildinhalte erkennen und dem Nutzer anbieten, automatisch auf diese Inhalte zu reagieren.
Google CEO Sundar Pichai stellte Google Lens höchstpersönlich als erste Neuerung während der Keynote-Rede in Mountain View am 17. Mai vor. Im Hintergrund wurden währenddessen bereits beeindruckende Beispiele gezeigt. Öffnet Ihr beispielsweise in Google Fotos ein Bild von einer Blume, soll Google Lens für Euch herausfinden können, um was für eine Pflanze genau es sich dabei handelt.
Google Lens kann nicht nur Blumen erkennen
Google nutzt unermessliche Datenmengen und Rechenkapazitäten, um die automatische Bilderkennung weiter zu verbessern. Dass Google Fotos und der Google Assistant anhand der so gewonnenen Erfahrung eine Blume erkennen können, ist schön, es geht aber noch beeindruckender.
In einem weiteren Beispiel erkennt Google Lens hingegen einen Aufkleber mit einem WLAN-Passwort, wie er häufig auf der Rückseite von Routern zu finden ist. Statt aber nur den Code abzulesen und ihn vielleicht in der Zwischenablage oder einer Notiz abzulegen, reagiert das Smartphone auf dem Bild offenbar wirklich intelligent: Es erkennt, dass es sich um ein Passwort zu einem verfügbaren WLAN handelt, und verbindet das Smartphone direkt mit dem Netzwerk. Eine wirklich praktische Funktion.