PSD-Tutorials.de
Forum für Design, Fotografie & Bildbearbeitung
Tutkit
Agentur
Hilfe
Kontakt
Start
Forum
Aktuelles
Besonderer Inhalt
Foren durchsuchen
Tutorials
News
Anmelden
Kostenlos registrieren
Aktuelles
Suche
Suche
Nur Titel durchsuchen
Von:
Menü
Anmelden
Kostenlos registrieren
App installieren
Installieren
JavaScript ist deaktiviert. Für eine bessere Darstellung aktiviere bitte JavaScript in deinem Browser, bevor du fortfährst.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen
alternativen Browser
verwenden.
Antworten auf deine Fragen:
Neues Thema erstellen
Start
Forum
Sonstiges
Off-topic & sonstige Themen
Wie wird so eine KI-Animation gemacht?
Beitrag
<blockquote data-quote="KBB" data-source="post: 2783185" data-attributes="member: 287288"><p>Wenn man seinen Begleittext ernst und wörtlich nimmt (und auch das Ergebnis spricht dafür), dann sind hier im Gegenteil weniger selbst trainierte Modelle oder LoRas im Einsatz. Als Start der Videoabschnitte (das Video wird bei der Länge aus verschiedenen Abschnitten bestehen, die entweder online sehr gut und für die Modelle entsprechend missverständlich choreografiert, oder in Comfy eben abschnittsweise mit dem jeweils letzten Bild gestartet wurden) würde ich es mit T2V probieren. Text bietet imho deutlich mehr Raum für die provozierten Missverständnisse als I2V oder sogar V2V. Videos geben ja alles vor, er sucht hier jedoch nach Fehlern.</p><p></p><p></p><p></p><p>Manzano spielt geradezu mit der Fehlerhaftigkeit der KI Generierung. Er setzt gezielt auf Hallus, dem idR. fehlerhaften Füllen von Lücken im „KI-Gedächtnis, die - emotional aufgeladen - nie die Wahrheit treffen“.</p><p></p><p>D.h. grob gesagt: prompten und auf die Fehler warten, damit arbeiten. Ich weiß nicht, ob man mit I2V -Abschnitten einen solchen flüssigen Bildlauf hinbekommt (immer das letzte Bild eines Abschnitts als Start der nächsten Sequenz), da ruckt die Kamera gern mal in die falsche Richtung. Aber selbst wenn er das über online-Tools gemacht hat - Kling, Veo, Seedance, Sora, Flux, ViDu, WAN und was es noch an noch Neuerem gibt, das wächst ja wie Unkraut - wird es wahrscheinlich nicht in einem Schritt passiert sein, um Kontrolle über die Fehlerhaftigkeit zu behalten. Auch wenn technisch wohl mehrere Minuten Film am Stück möglich sind.</p><p>Es sei denn, er ist ein extrem guter Prompter, der genau weiß, wie er diese Hallus provozieren kann. Die waren ja bei Lebewesen lange „Standard“ - 4 Finger, 3 Augen, 2 Köpfe usw. ^^ und auch in allen anderen Bereichen vorhanden und mehr oder weniger gut sichtbar.</p><p>Vermutlich ist er das nach vielen Experimenten sogar <img src="data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7" class="smilie smilie--sprite smilie--sprite1" alt=":)" title="Smile :)" loading="lazy" data-shortname=":)" /></p><p></p><p>Was mich an Offline-Anwendungen (Comfy) denken lässt: Online werden die Videomodelle ja öfter mal gegen das aktuellste Modell ausgetauscht, wenn auch nicht immer. Aber das durchbricht dann schnell mal „never change a running system“: wenn erstmal Prompts für Manzano funktionieren, würde ein neues Modell, selbst ein nur überarbeitetes, das u.U. wieder durchbrechen. Er setzt ja auf die Fehlerhaftigkeit, braucht diese für seine Arbeit. Neuere Modelle *sollten* weniger fehlerhaft sein.</p><p></p><p>Just my 2 cent.</p><p>Btw., ich hab neulich ein sehr interessantes längeres KI-Video mit Making of gesehen, mal sehen ob ich das wiederfinde. Das zeigt zwischendrin einige idR. ungewollte Fehler, mit denen Manzano vermutlich weitergearbeitet hätte <img src="/styles/default/xenforo/smilies/zwinker.gif" class="smilie" loading="lazy" alt=";)" title="Wink ;)" data-shortname=";)" /></p></blockquote><p></p>
[QUOTE="KBB, post: 2783185, member: 287288"] Wenn man seinen Begleittext ernst und wörtlich nimmt (und auch das Ergebnis spricht dafür), dann sind hier im Gegenteil weniger selbst trainierte Modelle oder LoRas im Einsatz. Als Start der Videoabschnitte (das Video wird bei der Länge aus verschiedenen Abschnitten bestehen, die entweder online sehr gut und für die Modelle entsprechend missverständlich choreografiert, oder in Comfy eben abschnittsweise mit dem jeweils letzten Bild gestartet wurden) würde ich es mit T2V probieren. Text bietet imho deutlich mehr Raum für die provozierten Missverständnisse als I2V oder sogar V2V. Videos geben ja alles vor, er sucht hier jedoch nach Fehlern. Manzano spielt geradezu mit der Fehlerhaftigkeit der KI Generierung. Er setzt gezielt auf Hallus, dem idR. fehlerhaften Füllen von Lücken im „KI-Gedächtnis, die - emotional aufgeladen - nie die Wahrheit treffen“. D.h. grob gesagt: prompten und auf die Fehler warten, damit arbeiten. Ich weiß nicht, ob man mit I2V -Abschnitten einen solchen flüssigen Bildlauf hinbekommt (immer das letzte Bild eines Abschnitts als Start der nächsten Sequenz), da ruckt die Kamera gern mal in die falsche Richtung. Aber selbst wenn er das über online-Tools gemacht hat - Kling, Veo, Seedance, Sora, Flux, ViDu, WAN und was es noch an noch Neuerem gibt, das wächst ja wie Unkraut - wird es wahrscheinlich nicht in einem Schritt passiert sein, um Kontrolle über die Fehlerhaftigkeit zu behalten. Auch wenn technisch wohl mehrere Minuten Film am Stück möglich sind. Es sei denn, er ist ein extrem guter Prompter, der genau weiß, wie er diese Hallus provozieren kann. Die waren ja bei Lebewesen lange „Standard“ - 4 Finger, 3 Augen, 2 Köpfe usw. ^^ und auch in allen anderen Bereichen vorhanden und mehr oder weniger gut sichtbar. Vermutlich ist er das nach vielen Experimenten sogar :) Was mich an Offline-Anwendungen (Comfy) denken lässt: Online werden die Videomodelle ja öfter mal gegen das aktuellste Modell ausgetauscht, wenn auch nicht immer. Aber das durchbricht dann schnell mal „never change a running system“: wenn erstmal Prompts für Manzano funktionieren, würde ein neues Modell, selbst ein nur überarbeitetes, das u.U. wieder durchbrechen. Er setzt ja auf die Fehlerhaftigkeit, braucht diese für seine Arbeit. Neuere Modelle *sollten* weniger fehlerhaft sein. Just my 2 cent. Btw., ich hab neulich ein sehr interessantes längeres KI-Video mit Making of gesehen, mal sehen ob ich das wiederfinde. Das zeigt zwischendrin einige idR. ungewollte Fehler, mit denen Manzano vermutlich weitergearbeitet hätte ;) [/QUOTE]
Bilder bitte
hier hochladen
und danach über das Bild-Icon (Direktlink vorher kopieren) platzieren.
Zitate einfügen…
Authentifizierung
Der grüne Frosch hüpft über die Hügel an den Bäumen vorbei in die Höhle. Bitte nenne das fünfte Wort!
Antworten
Start
Forum
Sonstiges
Off-topic & sonstige Themen
Wie wird so eine KI-Animation gemacht?
Oben