News

Automatisiertes Kolorieren mit Möglichkeit zum manuellen Eingriff

Automatisiertes Kolorieren mit Möglichkeit zum manuellen Eingriff
Software vereint zwei Methoden zur Kolorierung von Graustufenbildern

Im vergangenen Jahr stellten Forscher der UC Berkeley einen automatisierten Prozess vor, mit dessen Hilfe farblose Bilder nachkoloriert werden können. Auf der SIGGRAPH 2017, die Ende Juli/Anfang August in Los Angeles stattfindet, berichtet die Gruppe um Richard Zhang von ihrer aktuellen Weiterentwicklung. Mit dieser ist es Nutzern der Software nun möglich, in den zuvor vollständig automatisch ablaufenden Kolorierungsprozess einzugreifen, um bessere Ergebnisse zu erzielen.
  

Zwei Methoden zur nicht-manuellen Kolorierung

In der zugehörigen Veröffentlichung (PDF) wird zur Entwicklung Folgendes ausgeführt: Im Bereich der digitalen Bildbearbeitung gibt es für die rechenbasierte Nachkolorierung grundlegend zwei Methoden:

(1) In der benutzergeführten Herangehensweise zeichnet eine Person farbige Striche auf die verschiedenen Bildbereiche. Aus dieser Skizze heraus generieren die Algorithmen dann das gefärbte Bild. Damit seien hervorragende Ergebnisse möglich, allerdings müssten Nutzer oft sehr kleinteilig arbeiten, das heißt, je nach Bild können über 50 Striche nötig werden, was enorm zeitaufwendig ist. Zudem müssen auch Regionen mit nur schwachen Farbnuancen vom Nutzer einzeln bearbeitet werden, beispielsweise bei den Grünabstufungen von Pflanzen. Weiterhin basiere das Resultat letztendlich ausschließlich auf dem Farbwissen des Nutzers – und es sei mitunter gar nicht so einfach, eine geeignete Farbe zu finden, die dann auch natürlich wirkt.

(2) In der allein rechenbasierten Nachkolorierung gibt es zwei Ansätze: Einmal können für ein Graustufenbild die Farben aus einem ähnlichen farbigen Bild „gestohlen“ und übertragen werden. Und dann können die Algorithmen auch auf Basis einer großen Bilddatenbank selbst lernen, wie etwas in Farbe auszusehen hat. Der Vorteil, insbesondere der zweitgenannten Variante, bestehe nun darin, dass diese im Vergleich zu Methode (1) schnell vonstattengehe. Jedoch: So ganz schlau sind die Algorithmen am Ende eben doch nicht und so ergeben sich vielfach falsche Farben und klar sichtbare Artefakte. Außerdem kann zum Beispiel die Farbe eines T-Shirts von einem Rechner gar nicht klar definiert werden. Entscheidet sich dieser für Blau, so gab es bislang für Nutzer bei dieser Methode keine Möglichkeit, die Farbe den eigenen Wünschen entsprechend einfach zu anzupassen.
   

Neu: Automatische Kolorierung erlaubt manuellen Eingriff

Und genau da setzt nun die neuerliche Entwicklung an – nämlich Methode (1) und Methode (2) zu kombinieren. Das Maschinengelernte steuert dem Bild aus eigener „Erfahrung“ Farbvorschläge bei und bietet also schon einmal eine grundlegende Kolorierung. Der Nutzer hat dann jedoch die Möglichkeit, einzugreifen und Verbesserungen vorzunehmen.

In einem Veruch wurde die Software von 28 Personen getestet. Diese erhielten eine kurze, zweiminütige Einführung und die Aufgabe, jeweils zehn Graustufenbilder zu kolorieren. Anzumerken ist dabei, dass den Nutzern die farbigen Originalbilder, aus denen die Graustufenbilder generiert wurden, vor dem Versuch nicht gezeigt wurden. Für jedes Bild investierten sie nur eine Minute Bearbeitungszeit. Alle Ergebnisse dieses Versuchs könnt ihr hinter diesem Link begutachten. Von links nach rechts seht ihr auf der Seite:
  • Spalte 1: das Graustufenbild
  • Spalten 2 bis 5: Ergebnisse verschiedener ausschließlich automatisch ablaufender Prozesse
  • Spalte 6: Farbänderungen durch die Nutzer
  • Spalte 7: So sieht das farbige Bild basierend auf oben genannter Methode (1) aus
  • Spalte 8: Ergebnis basierend auf der aktuellen Entwicklung
  • Spalte 9: Originalbild in Farbe
Eine Kurzzusammenfassung der Entwicklung samt weiterer Beispielseiten findet ihr an dieser Stelle. Die gesamte Veröffentlichung lässt sich hier betrachten (PDF). Den Code gibt es zudem auf GitHub. Das folgende Video zeigt die Software und deren benutzerfreundlich gehaltene Bedienung.
 


Euer Jens

Bildquelle Vorschau und Titel: Beispielbilder aus der Studie von Forschern der UC Berkeley, Richard Zhang, bearbeitet (Text eingefügt, zugeschnitten)

Was sagst du dazu?

Teile deine Meinung oder Erfahrung mit anderen Mitgliedern und sichere dir jeweils 5 Punkte!

Weiter zu den Kommentaren

Ähnliche Artikel

Lernen wir bald alle nur noch über YouTube?

Lernen wir bald alle nur noch über YouTube?

Vor wenigen Tagen konnte ich auf Spiegel Online lesen, dass fast jeder zweite Schüler YouTube-Videos gezielt zum Lernen nutzt. Wow....

Weiterlesen

Natural Instincts – zurück zum Wesentlichen

Natural Instincts – zurück zum Wesentlichen

Auch 2019 präsentiert Adobe Stock die Trends des Jahres. Den Beginn machen die „Natural Instincts“. Lasst euch von emotional...

Weiterlesen

Logo-Trends 2018

Logo-Trends 2018

Farbverläufe, Serifen, Gold und zerschnittene Schriftzüge – der Logo-Trend-Report der LogoLounge steckt voller Inspiration. Mit...

Weiterlesen

Kommentare
Achtung: Du kannst den Inhalt erst nach dem Login kommentieren.
Portrait von homdai
  • 21.05.2017 - 23:23

Sehr spannend. Selbst wenn man es nur als Grundlage nimmt

Portrait von sven67
  • 19.05.2017 - 19:58

Danke für diesen tollen Beitrag.

Portrait von liselotte
  • 19.05.2017 - 16:18

Danke für den Beitrag
nothing is impossible
OmG
MfG

x
×
×