Distilledモデルで高速生成
参考記事をもとに再チャレンジ
前回はエラーが出てうまく画像が生成できませんでしたが,今回はこちらの記事を参考にして進めました。
記事内で紹介してあるモデルの中からhunyuanimage2.1-distilled-v2-q3_k_mをダウンロードしたところ,エラーなく画像が生成できました。ワークフローは前回使ったものと同じものでいいようです。
高速化の設定
参考記事の中でも書かれていますが,CFGを1.0にすることでネガティブプロンプトが無効になり,生成が約2倍に高速化されます。私の環境では最初の1枚が1~2分台ですが,2枚目以降は30秒台で生成できるようになりました。他の高速化手段と組み合わせればもっと速くすることができるかもしれないですね。
サンプラーとスケジューラー
参考記事でサンプラーをdpmpp_sde,スケジューラーをbetaに変更すると,品質が改善されると書かれていたので試したところ,前回気になっていた目元の描画がよくなりました。速度が遅くなるとのことだったので,私はサンプラーをdpmpp_2mにしています。
個人的にはQwen-Imageよりも好印象
生成速度はDistilledモデルを使うことで,Qwen-Imageと同じくらいになりました。生成速度はWan2.2の遅さが際立ってしまいますが,Wan2.2で生成される画像は結構好みの感じなので捨て難いです。
生成される画像は顔の描画が気になるQwen-Imageに対して,意図せずアニメ調になるHunyuan Imageとどちらも課題はありますが,これらの課題はQwen-Image-Editなどを使って回避できると考えています。
個人的には生成される顔はHunyuan Imageの方が好みの感じです。
しばらくはWan2.2,Qwen-Image,Hunyuan Imageを使って画像生成を楽しみたいです。













Comment on this article
コメントはまだありません。
Send comments