Blog

Stable Diffusion XL使ってみました

NEXTGEARでどのくらい使えるか試してみました

まずは必要なファイルをダウンロード

 モデルとVAEのファイルはSDXL対応のものでないと動作しないので,ダウンロードしました。モデルはfuduki_mixとCherryPickerXL,7 of 9 - Scenic Editionの3つで,VAEはsdxl_vae.safetensorsを使うことにしました。

モデルのファイルサイズが6GBを超えていることに驚きました。

起動用バッチファイルを変更

 RTX4060Tiはメモリ8GBなので,メモリ不足で画像が生成できないことを考えて—medvramを付け加えました。また,SDXLには—no-half-vaeが必要ということでこれも付け加えました。

一応,medvramをつけないで大丈夫か試してみましたが,画像は生成できるもののかなりの時間がかかってしまいました。私の環境ではSDXLを使うときはmedvram必須のようです。

風景の画像生成テスト

前回,風景の画像を生成してみたので,SDXLで風景画像を作ってみました。

画像サイズはアイキャッチ画像で使っている1200x632ピクセル,30stepで生成したところ,1枚50秒弱(2.7it/sくらい)でした。生成時間はSD1.5に比べると時間がかかりますが,個人的には十分許容範囲です。

サイズの大きな画像も破綻することなく,生成できることに驚きました。また,当たり外れはありますが,かなりリアル感がある画像も生成できたので,さすがSDXLと感じました。

00024-3734702572.jpg 00111-1264545314.jpg

00030-3754703690.jpg 00107-1766236697.jpg

人物の画像生成テスト

 こちらもアイキャッチサイズで生成しましたが,風景画像と同様に大きなサイズでも破綻することなく,きれいな画像を生成することができました。アイキャッチサイズで人物を生成すると,横長のせいか顔アップ画像が多く生成されるなど,プロンプトの効き具合がSD1.5とは結構異なるようで,意図したような画像を生成するには使い込まないといけないようです。それから,手や指の生成はSDXLでも苦手なようで,失敗することも多い印象でした。

00006-2992283364.jpg 00026-3789347258.jpg

この記事へのコメント

コメントはまだありません。

コメントを送る

必須
必須  
※ メールアドレスは公開されません
任意
必須
Loading...  画像の文字を入力してください
1
2
3
4
5
6
7
8