Je kleiner der Sensor, desto schlechter das Bild? Eine neue Technologie kann schon bald dafür sorgen, dass Sensoren sehr viel mehr Licht bekommen. Die Folge: Das fiese Bildrauschen gehört der Vergangenheit an.
Bildrauschen entsteht bei digitaler Fotografie unter anderem (die Gründe sind vielfältig) dann, wenn zu wenig Licht beim Kamerasensor ankommt und etwa die Software versucht, fehlende Bildinformationen aus dunklen Bildbereichen "auszubessern". Schießt Ihr etwa im Automatik-Modus, regelt die Software die ISO-Empfindlichkeit hoch. Die Folge: Das Rauschen wird stärker.
Woran liegt es, dass zu wenig Licht auf den Chip gelangt? Abgesehen von der reinen Baugröße liegt das unter anderem an den üblichen Farbfiltern. Sie lassen jeweils nur das Licht einer bestimmten Wellenlänge passieren. Der Sensor kann dann entsprechend nachvollziehen, ob das Pixel in Blau, Grün oder Rot dargestellt werden soll. Der Nachteil: Weil sie dem lichtempfindlichen Sensor vorgelagert sind, werden rund zwei Drittel der möglichen Helligkeit "verschluckt".
Wissenschaftler um Rajesh Menon von der University of Utah haben nun ein revolutionäres Konzept vorgestellt, das jedes einzelne Photon durchlässt. Volle Lichtausbeute, also. Wie haben sie das geschafft? Die Forscher haben eine Art transparenten Filter entwickelt. Genauer: einen nur wenige Mikrometer dünnen Kunststoff mit unterschiedlich hohen Erhebungen. Je nachdem, wie das Licht je nach Wellenlängen gebrochen wird, erzeugt es auf dem Sensor ein Intensitätsmuster. Es braucht nur noch einen Algorithmus, der dieses Muster in Bildinformationen umrechnet.
NASA wird damit Asteroiden fotografieren
Bei einer regulären Digitalkamera könnt Ihr dann also die ISO-Empfindlichkeit herunterstellen und so weniger verrauschte Fotos. Doch die Forscher gaben an, dass sich das mit der Massenproduktion kompatible System auch für Kameras mit sehr kleinen Pixeln einsetzen lässt - also auch in Smartphones. In drei Jahren soll die Technologie dann serienreif sein. Gerade Smartphones können zwar bei guten Lichtbedingungen punkten, haben aber auch nach Jahren der Verbesserungen im Kamerabereich Probleme mit verrauschten Aufnahmen in der Dämmerung oder bei Nacht.
Das klingt durchaus realistisch, denn einer der Sponsoren des Forschungsprojektes ist die NASA. So soll das neue System auch eingesetzt werden, um erdnahe Objekte im Weltraum zu fotografieren. Ferner hat Menon die Firma Lumos Imaging gegründet und befindet sich in Gesprächen mit mehreren IT-Konzernen und Kameraherstellern.
So scheint es, als ob wir uns in drei Jahren endlich auf eine neue Stufe der Smartphone-Fotografie freuen können, die derzeit zu stagnieren scheint. Abgesehen von minimalen Verbesserungen bei der Lichtausbeute und Erhöhungen der Auflösung befinden sich die Kameras in aktuellen Top-Modellen allesamt auf vergleichbar hohen Niveau.