News

RAISR fragt weniger Pixel ab und zeigt Fotos trotzdem in ihrer vollen Pracht

RAISR fragt weniger Pixel ab und zeigt Fotos trotzdem in ihrer vollen Pracht
Rapid and Accurate Image Super-Resolution

Bereits im November wurde RAISR von Google vorgestellt, mittlerweile, so berichtet das Unternehmen, wird die Technologie beim Dienst Google+ auf über eine Milliarde Bilder wöchentlich angewandt.

Das Ziel: Der Abruf von Bildern im Netz soll schneller laufen, das Volumen an übermittelten Daten soll reduziert werden. Wie das grundlegend funktioniert, verdeutlicht wohl am besten das oben gezeigte Bild: Statt das Originalfoto in seiner vollen Fläche abzurufen, fragt Google+ nur nach einem Viertel der Pixel. RAISR nimmt das verbliebene Pixelhäufchen und stellt das Gesamtbild zur Ansicht wieder her.
 

Schneller als andere Super-Resolution-Methoden

Im Prinzip ist RAISR in der Lage umzusetzen, was auch andere sogenannte Super-Resolution-Verfahren können, nämlich aus gering aufgelösten Bildern qualitativ hochwertigere Versionen zu erstellen.

Im Vergleich zu vorher existierenden Methoden seien die Ergebnisse mindestens ebenso gut. Allerdings, so führt Google in der Detailbeschreibung zur Technologie an, arbeite RAISR zehn bis hundertmal schneller, sodass der Algorithmus auf mobilen Geräten geschmeidig in Echtzeit ablaufe. Überdies verhindere RAISR, dass Alias-Effekte, die in den gering aufgelösten Bildern eventuell vorkommen, in den generierten Versionen reproduziert werden.

Auch gebe es bereits Verfahren zur Skalierung von kleinen Bildern auf größere, die ebenfalls flott ablaufen. Diese beruhen jedoch im Wesentlichen auf einer linearen und damit eher simplen Pixelauffüllung. Grob gesagt, finden solche Methoden in ihrer Nachbarumgebung blaue Pixel, werden beim Aufskalieren entsprechend ähnlich blaue Pixel zusätzlich gesetzt, um Raum zu gewinnen. Schnell und effektiv – aber die Ergebnisse seien eher verwaschen und von einer Verbesserung des Bildes könne keine Rede sein.
 

Fotos skalieren mir RAISR – das steckt dahinter

Maschinenlernen. Was sonst wäre wohl hier zu erwarten. Im konkreten Fall bedeutet dies, dass die Algorithmen unter Verwendung von zwei Versionen eines Bildes angelernt werden: die eine ist von geringer Qualität, die andere bringt die höhere Qualität mit sich.

Beim Abgleich beider Varianten werden vor allem die vorgefundenen Kanteneigenschaften in kleinen Bereichen der Bilder betrachtet. Zur Analyse stehen dabei Aspekte wie Helligkeit und Farbverlauf oder die Frage, ob es sich eher um eine flache oder stärker texturierte Region handelt.

Hieraus resultieren drei Parameter: (1) Die Richtung gibt den Winkel einer Kante an. (2) Die Stärke bezieht sich auf die Schärfe einer Kante, wobei schärferen Kanten eine größere Stärke zugeordnet wird. (3) Die Kohärenz spiegelt wider, wie gerichtet (also geradlinig) der entsprechende Kantenverlauf ist.

Beim Vergleich von 10.000 hoch und niedrig aufgelösten Bildern (das dauert übrigens nur eine Stunde) ergaben sich dabei für Kanten die im Bild dargestellten Filter: Von links nach rechts dreht sich die Kante einmal um 180 Grad. Von oben nach unten nimmt die Gerichtetheit der Kanten zu, zudem wird dreimal bei der Kantenstärke angesetzt.

So eigne sich beispielsweise der Filter unten in der Mitte am besten für eine schnurgerade, starke, horizontale Linie.

RAISR-Filter
Bildquelle: Google Research (Original im Artikel:  "RAISR: Rapid and Accurate Image Super Resolution" von Yaniv Romano, John Isidoro und Peyman Milanfar
 

Bilder radikal komprimieren, um sie dann wieder aufzubereiten

In der Praxis wendet RAISR die am besten geeigneten Filter aus dem angelernten Repertoire auf die Nachbarschaft eines jeden Pixels in dem gering aufgelösten Bild an und generiert somit eigentlich nicht existente, neue Details.

Für den aktuell angeführten Einsatz im Netz wurde RAISR nun offensichtlich etwas zweckentfremdet. Anstelle für eine nette Wiedergabe eines Fotos von geringer Qualität zu sorgen, nimmt sich RAISR stattdessen jene mit hoher Qualität, also entsprechend hohem Datenverbrauch vor. Wie oben bereits angeführt, werden zum Beispiel nicht die 100 kB des hinterlegten Originals abgerufen, sondern nur 25 kB, die dann mithilfe von RAISR aufgepeppt werden.

Im Prinzip wird damit das Bild bei erheblichem Detailverlust zunächst radikal komprimiert, aufs Handy übertragen und dort per Algorithmus wieder hergestellt. Inwiefern dabei Original und Ansichtsversion übereinstimmen … nun, das bleibt offen.
 
Aktuell legt RAISR Hand an hoch aufgelöste Fotos, die in Streams auf Android-Geräten auftauchen. Die erforderliche Gesamtbandbreite, alle betreffenden Nutzer eingeschlossen, konnte so um circa ein Drittel verringert werden. In den kommenden Wochen wolle man die Technologie nun auch auf andere Bereiche anwenden, um so noch mehr Zeit und Datenvolumen einzusparen.
 
Die Links zum vertiefenden Nachlesen:  
Euer Jens

Bildquelle Vorschau und Titel: Google

Was sagst du dazu?

Teile deine Meinung oder Erfahrung mit anderen Mitgliedern und sichere dir jeweils 5 Punkte!

Weiter zu den Kommentaren

Ähnliche Artikel

Lernen wir bald alle nur noch über YouTube?

Lernen wir bald alle nur noch über YouTube?

Vor wenigen Tagen konnte ich auf Spiegel Online lesen, dass fast jeder zweite Schüler YouTube-Videos gezielt zum Lernen nutzt. Wow....

Weiterlesen

Natural Instincts – zurück zum Wesentlichen

Natural Instincts – zurück zum Wesentlichen

Auch 2019 präsentiert Adobe Stock die Trends des Jahres. Den Beginn machen die „Natural Instincts“. Lasst euch von emotional...

Weiterlesen

Logo-Trends 2018

Logo-Trends 2018

Farbverläufe, Serifen, Gold und zerschnittene Schriftzüge – der Logo-Trend-Report der LogoLounge steckt voller Inspiration. Mit...

Weiterlesen

Kommentare
Achtung: Du kannst den Inhalt erst nach dem Login kommentieren.
Portrait von Pilgrim2
  • 24.01.2017 - 11:57

Hmmh, bleibt abzuwarten.

Portrait von gemini_noe
  • 22.01.2017 - 15:41

Ist jedenfalls zum Ausprobieren - was rauskommt, werden wir sehen.

Portrait von balkanese
  • 21.01.2017 - 09:23

1000x1500 px mit 100 kb als Qualität einzustufen ist erstaunlich,
im Photoshop als "für web" ( ohne exif etc.) gespeichert ergeben 20% Qualität 118 kb,
das Bild ist mehr oder weniger ruiniert.

Logo kann man Computer an Bildern basteln lassen bis alle Kanten geglättet sind aber was hat das mit Details zu tun?
Details kann man nicht rekonstruieren, die Welt ist ja nicht fraktal,
den Unterschied zwischen Detail und Rekonstrunktion sieht man sehr deutlich wenn man Bilder von Bayer- Sensoren mit solchen von Merrill-Sensoren auf 100% Ansicht vergleicht.


Portrait von Trinsim
  • 21.01.2017 - 09:03

Also kann ich selber gar nicht beeinflussen, ob mein Bild komprimiert und dann "neu" aufgebaut wird. Ich kann mir nicht vorstellen, dass aus 25 erhaltenen Prozent das Original entstehen kann. Lasse mich aber gern vom Gegenteil überzeugen.

Portrait von tynick
  • 20.01.2017 - 18:01

Habe ich da etwas falsch verstanden oder heißt das, dass Google an von mir ins Netz gestellten Bildern herumpfuscht?

Portrait von ollelinse
  • 20.01.2017 - 16:01

Ist schon sehr interessant! Beim 2. Durchlesen habe ich das Prinzip sogar schon etwas mehr verstanden ;-)

x
×
×