Stable Diffusion WebUIでLCMが使える拡張機能「sd-webui-lcm」を紹介します | IT技術者のDTM奮闘記
画像生成AI

Stable Diffusion WebUIでLCMが使える拡張機能「sd-webui-lcm」を紹介します

黄金の鎧を着た女性のAI写真画像生成AI

※本ページはプロモーションが含まれています

スポンサーリンク

はじめに

Stable DiffusionでLCMが使用できる拡張機能「sd-webui-lcm」が公開されたので紹介します。

この記事では以下のことが理解できます。

  • Stable Diffusion WebUIでLCMを使う方法
  • LCMを使った場合にどの程度、画像生成が高速化されるのか
  • DreamShaperとの画像比較

記事内の画像は日本語化環境の画像が含まれています。
まだ日本語化が済んでいない方は↓の記事を参考に便利な日本語環境にしてみましょう。

スポンサーリンク

LCMとは

LCMとはLatent Consistency Model(潜在的一貫性モデル)の略で、事前トレーニングされた LDM(潜在拡散モデル)を使用し最小限のステップで推論が可能になります。

従来のStable Diffuusionモデルは画像生成までにノイズを除去しながら、徐々に詳細な画像を生成していました。

一方LCMは事前トレーニングされたLDMより、各ピクセルの特徴の組み合わせを把握し、高速に画像を生成します。

このLCMはリアルタイムで画像生成することを目指しており、現段階でも今までとは比べ物にならない程、高速に画像生成できます。

以下はLCMのデモです。

プロンプトの入力に対して、画像が追従する形で高速に生成されていますね。

nov
nov

LCMを使用すれば従来とは比べ物にならない程、高速化されるんだね!

Stable DiffusionでLCMを使う方法

Stable Diffusion WebUIの拡張機能「sd-webui-lcm」が提供されているので、今回はこの拡張機能をインストールしてみます。

nov
nov

現状ではLCM用のモデルは「LCM_Dreamshaper_v7」しか公開されていないよ。

sd-webui-lcmは、まだ発展途上の機能なので何が起こるかわかりません。
念のため、普段使用しているWebUI環境とは別の環境で使用しましょう。

webUIを複数インストールする場合には↓の記事をご参考ください。

sd-webui-lcmのインストール方法

  • STEP1
    「Extensions」タブに移動する

    stable diffusion webUIを起動したら上部に表示されるタブ一覧から「Extensions」をクリックします。

    Extensionsのクリックを誘導している
  • STEP2
    「URLからインストール(Install from URL)」タブに移動する

    Extensionsタブ内の「URLからインストール(Install from URL)」をクリックします。

    urlからインストールクリックを促している
  • STEP3
    URLを入力する

    「拡張機能のリポジトリのURL(URL for extension’s git repository)」に下記URLをコピペしてください。

    https://github.com/0xbitches/sd-webui-lcm.git
    拡張機能のURL入力を促している
  • STEP4
    インストール(Install)ボタンをクリックする

    下段に表示されている「インストール(Install)」ボタンをクリックします。

    インストールボタンのクリックを促している
  • STEP5
    「適用してUIを再起動(Apply and restart UI)」をクリックする

    設定を変更した場合は、リロードする必要があります。

    インストール済タブに表示される「適用してUIを再起動(Apply and restart UI)」ボタンをクリックしましょう。

    適用してUIを再起動ボタンのクリックを促している

sd-webui-lcmの使い方

LCM txt2imgの使い方
  • STEP1
    LCMタブに移動する

    上部メニューに「LCM」が追加されているので、クリックして移動します。

    上部メニューのLCMタブのクリックを促している
  • STEP2
    プロンプトを入力する

    プロンプトエリアにプロンプトを入力します。

    プロンプトエリアへプロンプトの入力を促している
    nov
    nov

    下段の「Examples」にあるプロンプト例をクリックすると、サンプルのプロンプトが反映されるよ。

  • STEP3
    画像生成する

    右側にある「Run」ボタンをクリックすると、画像生成を開始します。

    runボタンのクリックを促している
    画像生成完了
    nov
    nov

    記事執筆時点ではデモ版とも呼べるレベルで、機能は最小限だね。

    生成した画像は「outputs」→「txt2img-images」→「LCM」に保存されています。

    画像保存フォルダ

sd-webui-lcmの設定について

LCMタブの下段にある「Advanced options」をクリックすると設定項目が表示されます。

スライダーとチェックボックスで構成されている
設定項目

Seed

シート値を設定します。

「Rundomize seed across runs」をチェックすると画像生成ごとにシード値が変化します(ランダムシード)。

Run LCM in fp16(for lower VRAM)

VRAM使用量を低減しますが、LCMはVRAM使用量が多いので基本的にチェックしておきましょう。

nov
nov

4070ti VRAM12GBを使っているけど、現状は通常運用が難しい程です・・・

Run LCM with torch compile(currently not supported on Windows)

Windowsではサポートされていないので、チェックしないようにしましょう。

Run LCM on CPU

CPUでLCMを動作させます。
WindowsではGPUで動作させるのが基本なので、チェックしないようにしましょう。

nov
nov

i7 10700で試したけど、まともに動作しませんでした。

Width,Height

生成画像の解像度を設定します。

現状は768が最大です。

Guidance scale for base

直訳では「ベース用誘導スケール」です。
何に影響しているのかわかりませんでした。

テストした結果では高めのほうが、解像感と彩度が高めで良い印象です。

ブロンドヘアーの幼い女性のAI写真
Guidance scale for base = 2
ブロンドヘアーの幼い女性のAI写真
Guidance scale for base = 14
夕方のアルプスのAI写真
Guidance scale for base = 2
夕方のアルプスのAI写真
Guidance scale for base = 14

Number of inference steps for base

ベースとなる推論ステップ数です。
従来のサンプリングステップ数と同じ感覚です。

  • 低いとノイズが多く、ぼやぼやになる
  • 高いと高画質になる

ただ4以上は、生成画像にそれほど差が無いです。

Number of images(batch count)

画像生成枚数を設定します。

現状はVRAM解放がうまく機能していないのか、12GBのVRAMでは8枚くらいが限界です。

LCMでどのくらい高速化されるのか確認してみた

sd-webui-lcmで画像生成すると、画像生成時間がどのくらい高速化されるのか確認してみました。

テストした結果から、Guidance scale for baseが画像生成時間に影響することがわかりました。

  • Guidance scale for baseを低くすると低画質で生成時間が速い
  • Guidance scale for baseを高くすると高画質で生成時間が長い

結果は以下の通りです。
(テストで使用したGPUは4070tiです)

画像生成時間はコマンドプロンプトに表示されるLCM inference timeを参照しています。

コマンドプロンプトに表示されるLCM inference timeをフォーカスしている
Guidance scale for base
設定値
画像生成時間
10.27秒
41.01秒
81.45秒
ぼやぼやの画像
設定値1
茶髪の幼い女性のAI写真
設定値4
金髪の幼い女性のAI写真
設定値8

Guidance scale for baseを8に設定した画像はかなり綺麗ですね。
さらに生成スピードは約1.45秒と爆速です。

DreamShaper V8で似たような画像を生成しましたが、画像生成時間は約2.8秒(20step)でした。
私の環境では2~3倍程度、高速化されていますね。

金髪の幼い女性のAI写真
DreamShaper V8で生成した画像
nov
nov

もしかしたら、性能の低いGPUの方が恩恵が大きいかも

LCMで生成される画像を比較してみた

最後にDreamShaper V8と同じプロンプトで画質を比較してみました。

LCMではネガティブプロンプトが指定できないので参考までに。

蝶の髪飾りを付けた女性のAIイラスト
DreamShaper V8で生成
蝶の髪飾りを付けた女性のAIイラスト
DreamShaper LCMで生成

かなり印象は違いますが、良い勝負ではないでしょうか。
LCMでも十分高画質といえます。

ただ全体的に彩度コントラストが低めの印象です。

AI画像生成のスピードはグラボが重要

Stable Diffusionでは一枚の画像生成に数十秒の時間を要します。
また、生成したい画像を一発で生成することは出来ないのでトライ&エラーを繰り返すことになります。

そうなんです。一枚の画像を作成するのに思った以上に時間がかかるのです。
だったら画像生成スピードを上げてしまえばいいんです!

画像生成スピードに一番影響するのはグラフィックボードです。
スピードだけ求めるなら発売されている一番のグラフィックボードを選べば良いのですが、非常に高価なので、ここではコスパに優れるモデルも合わせて紹介します。

AI画像生成が捗る高コスパグラフィックボード

最高の生成スピードを求めるならコレ!

最新の4000シリーズから、バランスが丁度いいグラボ!

スポンサーリンク

まとめ

今回は、Stable Diffusion WebUIでLCMが使える拡張機能「sd-webui-lcm」を紹介しました。

現状はLCM_Dreamshaper_v7モデルしか使えませんが、LCMが今後の主流になるだろうと感じました。

nov
nov

今後の展開が気になるね!

LCM-LoRAであれば、どのモデルでも高速化の恩恵を得られるのでおすすめです。

LCMを使用しない場合、おすすめの高速化方法はSDPAです。
SDPAなら今まで通りの使い方で、画像生成時間のみ速くすることが可能です。

注目
セーターを着た日本人女性のAI写真
Stable Diffusionの使い方・記事まとめ【Stable Diffusion WebUIの使い方】
Stable Diffusion関連の記事が増えてきたので、使い方に関する記事をまとめました。
注目
黒髪のアニメ調女性のAIイラスト
Stable Diffusionのアニメ系イラストが得意なモデル5選!
アニメ調のイラストが得意なStable Diffusionのおすすめモデルを紹介していきます
注目
黒のロングヘアー女性のAIイラスト
美少女2次元イラストに最適なモデル5選!!【Stable Diffusion モデル紹介】
2Dイラストに最適なStable Diffusionのおすすめモデルを紹介していきます。
注目
コートを着た日本人女性のAI写真
Stable Diffusionのおすすめモデルを用途別に紹介するよ
Stable Diffusionで使用できるおすすめモデルを用途別に紹介していきます
注目
ショートヘアーの日本人女性のAI写真
綺麗なお姉さんは好きですか? ハイクオリティな日本人女性が生成できるhaduki_mixを紹介します【Stable Diffusion SDXLモデル紹介】
日本人女性が綺麗に生成できるStable Diffusionのモデルを9つ紹介していきます。
注目
茶髪女性が町中に立っているAI写真
Fooocusのインストールから簡単な使い方を紹介【SDXLを手軽に高速に使える】
Fooocusのインストールから簡単な使い方を解説していきます。Fooocusは数あるStable Diffusion WebUIの中でも、軽量かつシンプルなクライアントアプリです。
注目
ピンク髪のアジア人女性のAI写真
SDXL 1.0が公開開始されました!Stable Diffusion WebUIでの使い方を紹介します【低VRAMでも使えます!】
バージョン1.0となったSDXLはどんな画像を生成できるのか、インストール方法から使い方、サンプル画像を紹介していきます。
注目
タートルネックを着た黒髪女性のAI写真
Stable Diffusionを高速化するSDPAを紹介します【Stable Diffusion WebUIの使い方】
高速化が可能となるSDPAの使い方を紹介します。
注目
タートルネックに茶色の上賀を着た日本人女性のAI写真
Stable DiffusionでRefinerを使用する方法
Refinerに対応したAUTOMATIC1111の使い方を紹介していきます。
注目
黒いジャケットを着た女性のAI写真
FreeUでお手軽高画質化!【Stable Diffusion WebUI拡張機能 FreeUの使い方】
生成速度はそのままに高画質化が可能なFreeUの使い方を紹介します
注目
ライダージャケットを着た日本人女性のAI写真
Stable Diffusionを2倍高速化できるTensorRTを紹介します
Stable Diffusion WebUIの拡張機能「TensorRT」のダウンロード方法、インストール方法、使い方を紹介します。 TensorRTアクセラレーションに対応したことにより、2倍以上(実測)画像生成時間の高速化が可能です。

Comment

タイトルとURLをコピーしました