ギャラリーの画像をSDXLでつくってみました。上のアイキャッチ画像もSDXLです
これまでは「お試し」で使ったくらい
Stable Diffusionを使うときは基本SD1.5モデルを利用しています。NEXTGEARを使うようになって少しだけSDXLを使ったことはありますが,特に人物では気に入った画像がうまく生成できず,使ってみる→うまくいかないを繰り返していました。今回は今までよりも時間をかけてチャレンジしてみました。
今回生成した画像
SDXLということで,サイズは1024x1536ピクセルにしました。モデルは最近見つけたSora Ani2.5 XLをメインで使っています。アニメモデルですがリアル寄りの画像も生成できて,個人的に好みの画像が出力されることが選んだ理由です。
NEXTGEAR はGPUのメモリが8GBなので,省メモリで使えるStable Diffusion WebUI Forgeを使い,高速化のためにLCM LoRAも利用しています。
こんな感じの画像が生成できました。
ステップ数8,CFG Scale3の設定で1枚10秒前後で画像が生成されました。SD1.5モデルを使うときは縦横半分の512x768ピクセルで2秒前後ですが,Hires fixを使って縦横2倍に高解像度化すると1枚14秒弱になりましたので,それよりは速い結果でした。
SDXLで画像を生成した感想
- 生成される画像がきれい
いつも見ているSD1.5で生成した画像と比べると高精細に感じます。さすが高解像度のSDXLで生成した画像です。SDXLでつくりたい画像が生成できるようになったらSD1.5には戻れなくなるような気がします。
- プロンプトの効き具合がSD1.5モデルとは異なる
いつも使っているSD1.5モデルと同じプロンプトで生成するとうまくいかないことが多い印象です。生成に使うモデルによっても効き具合は異なるので,利用するモデルを1つ決めていろいろ試すのがよさそうです。
- 縦長の画像サイズでは胴長の人物が生成されやすい
生成する画像の比率はSD1.5モデルを使うときと同じなのですが,結構高い確率で胴長の人物が生成されます。比率は同じでもピクセル数は2倍なので影響を受けやすいのかもしれません。
正方形の画像サイズにすると適正に生成するので,モデルを作るときに学習する画像のサイズが正方形だからではないかと考えています。
今のところはネガティブプロンプトにlong bodyやtorso lengthなどと入れて対処していますが効果のほどは不明です。
ギャラリーコンテンツに展示しています
今回のチャレンジでSDXLで画像生成するのもいいなと感じました。今後もSD1.5と比較しながら使っていきたいと思います。上記2枚と一緒に作成した画像をギャラリーコンテンツのページ3に置いています。よろしければご覧ください。
この記事へのコメント
コメントはまだありません。
コメントを送る