新しいバージョンが出ていました
モデルもワークフローも新しくなっています
先日,LTX Videoのモデルであるltx-video-2b-v0.9.safetensorsがバージョンアップしてv0.9.1になりました。ワークフローも新しくなったようで,公式ワークフローもCivitaiで配布されたいたものと同じSTGという仕組みと画像からプロンプトを生成するVLLMが入っています。
早速使ってみましたが…
モデルとワークフローをダウンロードして使ってみました。ワークフローをDrag&Dropしてデフォルト設定で動画を生成してみましたが,生成時間にばらつきがありました。4秒の動画を生成するのに最速では2~3分台ですが,遅いときはカスタムサンプラーのノードで1Stepの処理に1分以上かかることもあり,最遅など30分以上かかりました。コンスタントに2~3分だといいのですが,私の環境では厳しいワークフローでした。
Civitaiのワークフローもバージョンアップしていました
こちらも試してみました。動画の生成速度は512×768ピクセルで5秒の動画を最速2分台で生成しました。前バージョンと同様の速さで,これなら使えそうな感じです。このワークフローはGPUのメモリ8GB環境でも動作することを確認しているようで,私の環境ではこちらの方が良さそうです。
新機能で長い動画を生成する
このワークフローには新機能が搭載されていて,生成した動画の最後のクリップを使って動画の続きが生成できるようになっています。試してみましたがいい感じにつながるようです。下の動画はこの機能を使って5秒の動画を5つまたは6つつなげて25〜30秒にしてみました。MacのiMovieで編集して720pにアップスケールしています。
いくつか作ってみましたが,つなぐクリップ数を増やしていくと途中で顔が変わっていく感じがします。また,上記の動画もそうですが,手の動きはかなりあやしげな感じです。しかし,1回で数秒しか生成できないので2,3個のクリップをつなぐくらいならこの機能は使えると感じました。
今後のバージョンアップに期待
前回の記事にも書きましたが,ローカル環境でいろいろ試すことができるのは大きいですね。Stable Diffusionを始めたころは1枚の画像を生成するのに2分くらいはかかっていたので,同じくらいの待ち時間で数秒の動画が生成されるのであれば色々試してみたくなります。
上記の新機能のようにバージョンアップでさらに使いやすくなることを期待しています。
この記事へのコメント
コメントはまだありません。
コメントを送る