News

Audio im Video positionieren, 3D-Modelle mit Skizzen finden, 3D für VR-Videos – in Entwicklung bei Adobe

Audio im Video positionieren, 3D-Modelle mit Skizzen finden, 3D für VR-Videos – in Entwicklung bei Adobe
Geräusche stammen aus einer Quelle. Damit Geräuschursprung und tatsächliche Quelle in 360-Grad-Videos übereinstimmen, lassen sich Audiodateien direkt an entsprechende Stelle schieben.

Diese und weitere Entwicklungen wurden auf der Adobe MAX präsentiert:
 

Visualisierte Audio-Aufnahmen direkt im Video platzieren

Höre, was du siehst, und höre, woher es kommt. Darum geht es im „Project SonicScape“. Bei der Bearbeitung von 360-Grad-Videos wird es hiermit möglich sein, falsch platzierte Audioinformationen im Video am richtigen Ort zu verhaften.

Das hierfür notwendige Prozedere ist denkbar einfach gehalten: Direkt im Video werden die Audiospuren in symbolisierter Weise angezeigt und können darin frei verschoben und platziert werden. Noch dazu ist es möglich, die entsprechenden Geräusche näher heranzuholen oder weiter wegzuschieben. Im Prinzip also handelt es sich bei „SonicScape“ um eine visualisierte Audiobearbeitung direkt im Video.

Ab Minute 2:46 der Präsentation ist zu sehen, wie in dem Video Geräusche aufflackern, die sich jedoch an der falschen Stelle befinden und sodann zur Geräuschquelle verschoben werden. Ein zweites Beispiel wird ab 3:44 gezeigt. Die in der Luft schwebenden Vögel sind in den Originalaufnahmen kaum zu hören. Also wird kurzerhand eine Audiodatei mit entsprechenden Geräuschen platziert und dann noch bezüglich der Entfernung (also Lautstärke) eingestellt.
 

  

3D-Modelle mit einer Skizze finden

Für Fotos existiert dieser Ansatz bereits, nun wird er im „Project Quick 3D“ auf 3D-Modelle übertragen: Anstelle einer Schlagwort-Suche zeichnet man eine grobe Skizze des gewünschten Objektes. Abermals kommt dann Adobe Sensei zum Einsatz, womit im Stock-Angebot von Adobe nach entsprechenden 3D-Modellen gesucht wird.
 

   

3D-Eindruck für VR-Videos

Bei Videos, die dem Nutzer einen Rundumblick gewähren, kann selbiger Nutzer den Kopf mitsamt VR-Brille nach vorn, zur Seite oder nach hinten neigen – die Szene reagiert darauf kein bisschen. Der Blick um die Mauerecke bleibt also verborgen.

Mit „Project Sidewinder“ wird dies zumindest in einem ersten Ansatz verbessert. Aus den Stereo-Aufnahmen, die ja Informationen für das linke und rechte Auge mit sich bringen, wird eine Tiefenkarte der Szene erstellt (zu sehen bei Minute 2:00 im Video). Mit deren Hilfe reagiert die Szene dann schließlich doch auf die ein oder andere Kopfverrenkung (ohne den Effekt: 0:53; mit dem Effekt: 2:24).
 

Euer Jens

Bildquelle Vorschau und Titel: Screenshot aus dem Video "#ProjectSonicScape: Adobe MAX (Sneak Peeks)" von Adobe Creative Cloud

Was sagst du dazu?

Teile deine Meinung oder Erfahrung mit anderen Mitgliedern und sichere dir jeweils 5 Punkte!

Weiter zu den Kommentaren

Ähnliche Artikel

Lernen wir bald alle nur noch über YouTube?

Lernen wir bald alle nur noch über YouTube?

Vor wenigen Tagen konnte ich auf Spiegel Online lesen, dass fast jeder zweite Schüler YouTube-Videos gezielt zum Lernen nutzt. Wow....

Weiterlesen

Natural Instincts – zurück zum Wesentlichen

Natural Instincts – zurück zum Wesentlichen

Auch 2019 präsentiert Adobe Stock die Trends des Jahres. Den Beginn machen die „Natural Instincts“. Lasst euch von emotional...

Weiterlesen

Logo-Trends 2018

Logo-Trends 2018

Farbverläufe, Serifen, Gold und zerschnittene Schriftzüge – der Logo-Trend-Report der LogoLounge steckt voller Inspiration. Mit...

Weiterlesen

Kommentare
Achtung: Du kannst den Inhalt erst nach dem Login kommentieren.
x
×
×