Google arbeitet offenbar an einem neuralen Netzwerk, das Eure Fotos direkt beim Knipsen verbessert. Dabei soll die künstliche Intelligenz lernen, automatische Bildbearbeitungen wie "ein echter Mensch" vorzunehmen.
Der Algorithmus von Google ist laut ZDNet Cloud-basierend. Die Entwicklung führe das MIT CSAIL ("Computer Science and Artifical Intelligence Laboratory") durch. Dabei verwende das System eine Aufnahme in einer niedrig aufgelösten Variante. Aus diesem Material werde ein "Rezept" erarbeitet, auf dessen Grundlage dann die hochauflösende Ausführung des Bildes bearbeitet werden soll. Weitere Infos liefert Euch ein Video, das Ihr unterhalb dieses Artikels findet.
Bearbeitung in Sekundenbruchteilen
Auf diese Weise sei die Bildbearbeitung bei einem Foto in wenigen Millisekunden möglich. Deshalb soll die Änderung auch direkt in der Live-Vorschau einer Kamera-App bereits angezeigt werden, noch bevor der Auslöser überhaupt betätigt wird. Zu den möglichen Verbesserungen sollen Farbkorrekturen, Filter und Selfie-Anpassungen gehören. Ähnliche Verbesserer sollen zum Beispiel bereits beim Dualkamera-Modul des iPhone 7 Plus und beim HDR-Plus-Modus des Google Pixel zum Einsatz kommen.
Durch diese Vorgehensweise werde der Akku eines Smartphones entlastet. Zudem müsse auch der Chipsatz nicht so viele Berechnungen durchführen, was die Nutzung des Features auch auf Geräten der Einsteiger- und Mittelklasse ermöglichen dürfte. Das neurale Netzwerk soll mit der Zeit dazulernen und letztendlich selbst erkennen können, welche Verbesserung auf ein Foto angewendet werden sollte. Letztendlich sei es Ziel, dass die künstliche Intelligenz ohne "Vorlage" Änderungen an Aufnahmen durchführt wie ein menschlicher Bildbearbeiter. Wann der Algorithmus auf den ersten Smartphones genutzt werden kann, ist jedoch noch unklar.