Home Artists Posts Import Register

Content

こんばんは、スタジオ真榊です。こちらは「StabilityMatrix」という便利なアプリケーションを使って、automatic1111版のStableDiffusionWebUI(以下SDwebUI)を始めとしたローカル生成環境を導入する方法についてまとめたHowto記事です。


AIイラストの初心者向け解説については「AIイラストが理解る!StableDiffusion超入門」に詳しくまとめてありますが、今回の記事はそちらでは省略した「SDwebUIを実際に動かすまでの流れ」について、PC知識のない方にも分かりやすく解説する内容となっています。

【全体公開】AIイラストが理解る!StableDiffusion超入門

こんにちは!2022年10月からAIイラストの技術解説記事を連載してます、サークル「スタジオ真榊」の賢木イオです。この記事は、これまで投稿してきた100本(約40万文字)を超えるAIイラスト術のFANBOX記事をもとに、画像生成AIを最短距離で学ぶための必要情報をまとめたメインコンテンツです。画像生成AIにもいろいろあり...

当FANBOXでは基本的にa1111版SDwebUIを使った画像生成について解説していますが、画像生成AIをローカル環境で利用できるUIはComfyUIやFooocusなど、他にもたくさんあります。「StabilityMatrix」を使うとこれらを一発導入できる上、それぞれで使うモデルを一つのフォルダで一括管理できるので、初心者はもとより、既にa1111版に親しんできた方も、環境再整備のときなどにぜひトライしてみてください。


StableDiffusion WebUIって何?

初めての方が多いと思うので、まず最初に、少しだけautomatic1111版SDwebUIについて説明します。簡単に言えば、これはAUTOMATIC1111氏という人物が配布してくれている「StableDiffusion系のを誰でも簡単に使えるWebUI型アプリケーション」のこと。界隈ではSDwebUIとか、単にwebUIとか呼ばれることが多いです。

      ▲みんなのホーチミンおじさん、AUTOMATIC1111氏



こちらがSDwebUIの公式配布ページですが、本来は「git」や「Python」といった我々には聞き覚えのないブツをインストールしてからでないと導入できないパッケージでした。今回は公式から直接インストールするのではなく、「StabilityMatrix」を使ってインストールするので、PCに詳しくないという方もご安心ください。これ以降、あなたはクリックしかしません!(ダブルクリックはするかも)



ちなみに、このサイトは「GitHub」というソフトウェア開発のためのプラットフォームで、SDwebUIをめぐる多くの拡張機能などもこちらで配布されています。AIイラストを触っていると今後よくアクセスすることになるので、覚えておきましょう。ページ上のメニューにある「Discussions」から機能やアップデート、パッチなどについてのやりとりを見ることができます。


事前に必要な知識と環境

Stable Diffusion web UIをローカル環境で動かすには、以下の3つを用意する必要があります。


・NVIDIA製GPU(GeForceRTXシリーズ30XXなど)を搭載したPC

→AMDのGPUも一応サポートしているが、NVIDIAを強く推奨。コスパ最強のエントリーモデルならRTX3060(12GB)というのが界隈の共通認識です

・画像生成できるUI(ユーザーインターフェース)

→SDwebUI、ComfyUI、Fooocusなど

・学習モデル(AI)

→無数の画像とテキストのペアから学習した学習済みモデル。stableDiffusionの各バージョンやそこから派生した無数のモデルが無料で頒布されている


ちょうどゲーム機本体とソフトのように、SDwebUIはさまざまな画像生成AIの学習モデルを読み込むことで動作します。アニメ風のイラストを描くのが得意なモデルもあれば、実写のような写真を描くのが得意なモデルもあり、ユーザーが全く同じ注文をしても、どんな画像が出てくるかはそれを受注したモデルによって異なります。


こちらは、4種類の学習モデルに全く同じ指示(1girl,smile,sky,sea)で生成してもらった画像です。


SDwebUIの推奨スペック

【Windows】Windows10か11の64bit版

【CPU】Intel Core-i シリーズ・AMD Ryzenシリーズ

【メインメモリ】16GB以上

【GPU】NVDIA製 12GB以上

【ディスク容量】80GB以上

【ディスク種類】SSD


GPUはエラーなく高解像度の画像も出力できる12GB以上のもの。ディスクはSSDをおすすめします。学習モデルは無数の教師データから特徴を学んでいるため、一つあたり数GBの容量があるのが普通で、それなりに長時間の読み込みが発生します。SSDの中に学習モデルを入れることで、待ち時間を大きく減らすことができます。おすすめスペックについて、詳しくは「AIイラストが理解る!」を参照のこと。

【全体公開】AIイラストが理解る!StableDiffusion超入門

こんにちは!2022年10月からAIイラストの技術解説記事を連載してます、サークル「スタジオ真榊」の賢木イオです。この記事は、これまで投稿してきた100本(約40万文字)を超えるAIイラスト術のFANBOX記事をもとに、画像生成AIを最短距離で学ぶための必要情報をまとめたメインコンテンツです。画像生成AIにもいろいろあり...


「StabilityMatrix」をダウンロードしよう

さて、SDwebUIのだいたいの知識が分かったところでさっそくインストールしていきましょう。


こちらが今回導入に利用する「StabilityMatrix」です。「stablediffusionのためのマルチプラットフォームパッケージ」とある通り、


・Automatic 1111版SDwebUI、Comfy UI、 SD.Next (Vladmandic)、VoltaML、InvokeAI、Fooocus、Fooocus MREを一発導入できるよ!

・使用するモデルを入れれば、それらのUI全部で共有できるよ!

・起動オプションもここから設定できるよ!

・Civitaiからモデルを直でインポートできる専用ブラウザがあるよ!


などなどといったことが書いてあります。画像生成AI未経験だと分かりづらいですが、つまり「普通にインストールするより便利だよ!」ということです。


ダウンロードはこちらから。Windows環境なら「StabilityMatrix-win-x64.zip」をDLして解凍しましょう。



◆インストール先はSSDがオススメ

少し脱線しますが、ローカル環境での画像生成はとにかくストレージを圧迫します。最新の学習モデルは6GBを超えるものも珍しくなく、生成画像そのものもどんどん圧迫していきますので、ドライブに余裕がない方は2TBくらいのM.2 SSDをこの機会に購入してしまうことをおすすめします。最近は安価になってきており、一万数千円くらいで超快適なローカル生成が楽しめるようになると思います。SSDは読み込みもHDDに比べて早いので、モデルの切り替えをする際なども快適になります。


インストール手順

解凍すると出てくる「StabilityMatrix.exe」を起動します。搭載しているグラフィックボードの情報がここで表示され、画像生成が難しい非力なグラボだと警告が表示されることがあります。

ライセンス契約を読み、同意のチェックを入れたら「続ける」をクリックします。

(※これ以降、画面表示や文章は翻訳やアップデートの関係で変更されていることがあります)


インストール先を選べますが、ここで「携帯モード」にするとインストールしたフォルダを別の場所に移しても問題なく起動できる形で導入できるので、私はこちらを選んでいます。任意のドライブにインストールする場合は、「StabilityMatrix」フォルダを生成してそこを指定するのがいいでしょう。exeファイルと同じ場所に「Data」フォルダが作られ、そこにいっさいがっさいの環境が導入されます。


次の画面では、「いろいろあるけどどのUIにする?」と聞かれます。ここではAutomatic1111版SDwebUIを選んで「インストール」します。


インストール画面はこのような感じ。この間に、StableDiffusionWebUI本体だけでなく、起動に必要なPython環境も自動でインストールしてくれます。


インストールが完了すると、この画面になります。


「Launch」と書かれているボタンを押すと、SDwebUIの初回起動が始まります。特に設定をいじらなければ、数GBあるStableDiffusion純正モデル(v1-5-pruned-emaonly.safetensors)のダウンロードも同時に行われますので、初めての方はのんびり待ちましょう。


★分かる方向け:起動オプションは初期値で「--api --skip-torch-cuda-test --skip-python-version-check --skip-install」となっています。Launch/ストップボタンの横の歯車ボタンから変更することができます。--no-download-sd-modelをONにすればStableDiffusion純正モデル(v1-5-pruned-emaonly.safetensors)のダウンロードをスキップできます。

【2023.10.10】v2.5.2で初期設定のままLaunchすると「No module named clip」というエラーが出てインストール失敗するという報告を頂いています。緑色のLaunchボタンの隣にある歯車「⚙」ボタンをクリック、下にスクロールして、「--skip-install」というところにチェックマークが入っていたら、チェックを外してもう一度「Launch」すると解決するようです。


インストールが終了すると、自動で規定ブラウザ上にこちらの画面が起動します。これが「automatic1111版SDwebUI」の基本画面です。


試しに、左上の「prompt」と薄く書かれたところに英語を入れて、右上にあるオレンジ色の「Generate(生成)」ボタンを押してみましょう。ほらこのように、「dog」が生成されましたよ。かわいいですね。


日本語化しよう

もしアプリが英語表記になっていた場合、画面左下の「Settings」から日本語化することができます。設定メニューにこちらの「言語」タブがない場合は、古いバージョンの可能性があるので、StabilityMatrixをアップデートしましょう。最新バージョンがある場合は、左下の「Patronになる」の上あたりに矢印の形をしたアップデートボタンが出現しますので、今後もチェックしておきましょう。


学習モデルを入手しよう

さて、これで「ゲーム機本体」であるSDwebUIが手に入りました。さきほどの犬の画像はStableDiffusion純正の学習済みモデルで生成されたものですが、よりイメージ通りの画像生成をするには、「ゲームソフト」に当たる各種学習モデルを取りそろえたいところです。


学習モデル(checkpoint)は主に「.safetensors」や「.ckpt」という拡張子で配布されている事が多く、指定フォルダに放り込めば動作します。StabilityAI社によるStableDiffusionの各バージョンのほかに、派生した無数のモデルがウェブ上で共有されており、イラスト調のもの、フォトリアル(写真風)調のもの、その中間、nsfw(18禁表現)が得意なもの、パステル調の表現が得意なものなどなどが存在します。


さきほど紹介したGithubや、多くのモデルが流通しているモデル共有プラットフォーム「Civitai」が配布場所になっていることが多いのですが、わざわざChromeなどのブラウザでアクセスしなくても、StabilityMatrix上のブラウザで直接Civitaiからモデルを検索&ダウンロードすることができます。


【予備知識】SDモデルには「系統」がある

StableDiffusionのモデルには、大きく分けて「SD1.5系」「SD2.1系」「SDXL系」の3つの系統があります。そのモデルのベースになったStableDiffusionモデルがどのバージョンかを示しており、記事執筆時点で最も種類が多く、またユーザーにも広く使われているのは「1.5系」。SDXL系はStability社が発表した最新モデル「SDXL」の系譜に連なるモデルたちですが、非常に高機能であるものの、まだ「出たて」ということもあり、発展モデルや拡張機能などの整備が発展途上にあります。また、VRAMに掛かる負担や生成時間も重めです。


・好みのモデルを探してみよう

さて、左のメニューから「Model Browser」をクリックしてみましょう。(アイコンしか表示されていない方は左上の三本線をクリック)

このように、右側にCivitai用ブラウザが開きます。上の4つのメニューから、大量にあるモデルをソートできます。


・並び替え:「最も評価された順」「最もダウンロードされた順」「新しい順」「インストール済」でソートできます

・期間:モデルが投稿された時期を指定。「All time」で全期間にできます。

・モデルタイプ:「Checkpoint」が学習モデルのことです。他にも、LoRAやControlnetなど、用途の違う学習済みモデルがたくさんあります。

・ベースモデル:先ほど説明した「系統」のこと。StableDiffusionの何のモデルをベースに作られたモデルかを示しています。


ここでは「HighestRated」「Alltime」「Checkpoint」「SD1.5」としてみましょう。これで高評価なSD1.5系学習モデルが一覧されます。サンプル画像からなんとなく好きなものを選んでみるのもよいでしょう。私は「meinamix」と上の検索窓に入れて、こちらのモデルをインストールしてみました。


「最新のインポート」で最新版がDLできますが、「すべてのバージョン」をクリックしてみましょう。するとこのように過去のバージョンが見られます。単純に新しい方がいいということもなく、バージョンによって違うタイプの画像生成を目指していることもあるので、モデル説明をちゃんと読んでおきましょう。詳しく知りたい場合はCivitaiにアクセスした方が早いこともあります。


「最新のインポート」か、「すべてのバージョン」からバージョンを選んで「インポート」すると、モデルのダウンロードが始まります。


ダウンロードしたモデルは、「Checkpoints」から確認することができます。

ダウンロードが済んでいれば、「StableDiffusion」というフォルダ(ここではプルダウンメニュー)の中におさめられているはずです。右上の「カテゴリー」で下図のように目的のフォルダを増やすことができ、LoRAやControlnet用のモデル、VAEなどをインストールしたときはこちらから管理することになります。

既にSDwebUIを触っている人なら、手元のモデルをこのプルダウンメニューにドラッグすることで読み込ませることもできます。


・統一フォルダで管理

ちなみに、ダウンロード先はこのようなフォルダ構成で管理されています。こちらの「Data/Models」フォルダはStabilityMatrixを使ってインストールしたどのUIからも参照されているので、例えば今後ComfyUIに乗り換えたいときも、これまでインストールしたモデルたちを引っ越しする必要がありません。便利ですね!

既にダウンロード済みのモデルを移植するときも、こちらのフォルダに放り込むだけでOKです。このモデル格納フォルダは、Checkpointsから右上の「モデルフォルダー」をクリックすることでも開くことができます。

【注意!】当FANBOXなどの解説記事で、ダウンロードしたモデルを「stable-diffusion-webui\models」に置くよう指示されていることがありますが、インストールにStabilityMatrixを利用した場合は、こちらのモデル格納フォルダ(StabilityMatrixをインストールしたフォルダ\Data\Models)の方を使うことを忘れないでください。


SDwebUIのインストールフォルダは「Data\Packages\stable-diffusion-webui」になっていますが、StabilityMatrixを使ってインストールすると、この中の「models」フォルダは下図のようにショートカットになっています。

初心者にはややこしいのですが、モデルはここでワンストップで管理されているものの、例えば今後使用することになる「wildcard」などの拡張機能で使うテキストファイルなどは、「Data\Packages\stable-diffusion-webui\extention」フォルダ内に保存することがあります。とはいえ、保存先フォルダが分からなくなったら、とりあえず「Data\Packages\stable-diffusion-webui」を開いて指示された通りのフォルダを探せば間違いありません。


VAEを入手しよう

次に「VAE」を入手します。


vaeは「Variational AutoEncoder」の略で、潜在空間でAIにしか見えない絵が生成されたあと、人間にも分かる絵に「翻訳」してくれるもの。どんなvaeを使ったかによって、主にイラストの色合いが変わる、とだけ覚えておけば今は大丈夫です。学習モデルごとに異なるvaeが用意されていることもありますが、基本的には同じものを使い回せるので、学習モデルほど切り替えるタイミングはありません。


ここでは、このようにソート入力して、上位に来たアニメ調イラスト向きの「kl-f8-anime2」をインストールしました。


日本語化しよう

さて、必要なダウンロードが終わったら、再びブラウザで開いているSDwebUI画面に戻りましょう。インストール直後は全て英語表記ですが、拡張機能を利用すればUIを日本語化することができます。さっそくやってみましょう。


①画面上部の「Extension」タブをクリックし、「Installed」「Avaliable」「Install from URL」とある中の「Avaliable」をクリック

②「localization」の左に入っているチェックを外し、「Load from:」ボタンをクリック(ここにチェックが入っていると、翻訳機能が一覧から除外されてしまうので外す必要があります。例えば「installed」にチェックが入っていると、既に導入した拡張機能は一覧から除外されます)

③しばらく待つとExtensionリストがずらっと表示されます。これらは全て、WebUIをさらに便利化・高度化してくれる拡張機能の一覧です。Ctrl+Fなどでこちらの「ja_JP Localization」を見つけ、右端にある「Install」ボタンをクリックすれば拡張機能がインストールされます。

④この時点では、まだ機能がインストールされただけで、日本語化は実行されていません。翻訳機能を有効にするため、画面上部メニューの「Settings」タブをクリックし、画面左の一覧から「User Interface」をクリックします。

⑤「Localization (requires reloadUI)」の「None」を「ja_JP」に変更。画面上部の「Apply settings」を押します。ずらずらと変更部分についての文章が表示されます。

⑥画面上部の「Reload UI」を押すことで、UIがリロードされ日本語機能が有効化されます。


◆こんな表示が出たときは?

UIのリロード時、このようにうまく読み込めないことがありますが、「再読み込み」を何度か押すか、F5キーで再読み込みしてみると、やがて表示されますので慌てなくて大丈夫です。

オススメの「設定」

これで無事、日本語化がすみましたね。日本語化以外にも、さきほどの「設定」タブからはさまざまなパラメータを設定することができます。時間があるときにぜひ全部目を通しておくと「こんなこともできたんだ!」と驚くことがあります。アプデごとにいつの間にか増えているので、正直把握しきれなくなることが多いです。


sdwebuiもバージョンアップを重ねるたびにかなり親切なデフォルト設定になってきたので、ここでは、ごく一部のオススメ設定を紹介しておきます。


・「保存する場所」で画像の保存先を決めましょう。デフォルトは「Output」フォルダですが、ストレージに余裕がなければSDwebUIと別のドライブに変えてもOK。


・「ディレクトリへの保存」で、保存先にサブフォルダを作るか決める。「画像をサブディレクトリに保存する」を選ぶと生成日ごとにフォルダ分けできます。


・「ユーザーインターフェース」内の「クイック設定」欄に「sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers」と入力。こうすると、先程の解説画像のようにVAEやClipSkipをいつでも切り替えられる操作欄が画面最上部に表示される(再読み込みが必要)



最初はどんな拡張機能を入れておくべき?

SDwebUIには、日本語化のほかにも非常に便利な拡張機能が多数揃っています。さきほどずらずらと出てきたExtensionリストがそれで、基本的には日本語化拡張と同じ方法で導入することができます。


オススメ拡張機能は以下の通り。各記事の解説記事も一緒に紹介しておきます。


◆Controlnet

画像生成を一段階進化させた拡張機能群。入力画像からポーズ・色合い・輪郭・線画・奥行きなどなどを抽出し、それを参照させて新しい画像を生成できる。

Controlnetが理解る!モデル15種&プリプロセッサ35種を徹底解説

◆ADetailer

顔や手など、小さくなるほどに崩壊しやすくなる詳細部分を狙って高解像度化してくれる

「ADetailer」が理解る!部位別詳細化と5つの「応用」

◆wildcard

一部のプロンプトをランダムにできる機能。例えば服の色を「青赤黄」の3パターンでランダムにしたりできる

「Wild card」でもっとForever生成を楽しもう!

◆Aspect Ratio selector

キャンバスのアスペクト比(縦横比)を一発出ししてくれる便利UI

ダブルで便利!一発出し拡張機能を入れておこう


拡張機能のアップデート方法

日本語化を始めとした拡張機能も、SDwebUIと同様に日々アップデートされています。「拡張機能」タブから「インストール済」をクリックすると、これまでに導入した拡張機能が一覧されますが、「アップデートを確認」ボタンを押すと、新しいアップデートがある拡張機能には右端に表示が出ます。(なければ最新版と表示)

「適用してUIを再起動」ボタンを押すと、その拡張機能がアップデートされ、読み込まれます。新しい機能が加わったり、不具合の修正などが行われますので、たまに「アップデートを確認」するのを忘れないようにしましょう。特に、SDwebUI自体の大きなアップデートがあった後は、各拡張機能が正常に動作しないことがありますので、注意するようにしましょう。


ダウンロードした学習モデルで生成してみよう

左上の「StableDiffusionのCheckpoint」をクリックして、さきほどダウンロードした学習モデルを選びましょう。もし表示されていない場合は欄の横の青いリサイクルボタンを押せばOK。

1girl,sky,seaと入れて生成すると、このように空と海をバックにした女の子のイラストが生成されます。

ただ、デフォルト設定で生成したため顔が小さすぎてつぶれていたり、海が二方向にあったりとまだ低劣な印象が否めませんね。プロンプトやアップスケールを始めとしたもろもろの設定を設定することできれいにしていくことができますが、ここではテスト生成なので説明は見送ります。「AIイラストが理解る!」の途中でこちらの記事に来た方は、再びあちらへお戻りいただければこの続きが書いてあります。


プロンプトとアップスケールについては、次の2本の記事で詳しく解説しているので、ご興味のある方はぜひお読み下さい。

プロンプトが理解る!基本から上達法まで、1万5000字で徹底解説

アップスケールが理解る!i2i/Tile/LoRA/Hires/Extraぜんぶ解説【15000字】

SDwebUIをアップデートするためには

この記事を読んでインストールされた方は、少なくともver.1.6.0以降のSDwebUIがインストールされているはずです。今後、アップデートを確認するためには、公式のGithubで情報をチェックするほか、こちらの「Packages」タブから三点リーダ「︙」をクリックし、Check for Updatesを選べばOKです。

SDwebUIの大規模アップデート後は拡張機能との整合性などで動作が不安定になることがありますので、SNSなどで安定性を確かめてからアップデートするという方が多いようです。「常にすぐに最新版」と考えるのではなく、X(旧ツイッター)などである程度慎重に下調べしてからアップデートに望むようにしましょう。


起動オプションについて

少し上級者向け。SDwebUIは「--◯◯」と書かれた「コマンドライン引数」というものを記入して起動することで、さまざまなオプション機能を有効にすることができます。例えば、VRAMが少なめなグラボでも生成ができるようにしたり、生成を高速にしたりする機能があります。

StabilityMatrixでは、「Launch」ボタンを押す前に横の歯車「⚙」ボタンを押すことで、このように起動オプション画面を呼び出すことができ、チェックを入れた状態で「Launch」することで発動させられます。


それぞれの起動オプションの意味は公式を参照のこと。メニューにないものも自分で引数を記入することで書き加えられます。



ここでは、デフォルトメニューにあり、覚えておいた方が良いオプションだけ抜粋しておきます。


・–xformers:画像生成速度の向上とVRAM使用量の大幅削減が見込める。Nvidiaグラボでのみ使えるので注意。だいたいみんな使ってる

・-autolaunch:読み込みが終わるとブラウザでwebUIが自動起動する機能・・・でしたが、v1.6.0以降ではwebui上で設定可能になったのでお役御免に。

・-lowvram:低VRAMグラボ用。パフォーマンスは壊滅的でもいいので画像生成ができるようにする。これを使うくらいならグラボを買おう。

・–medvram:速度を犠牲にしてVRAM使用量を削減する。グラボと相談。

・-medvram_sdxl:SDXLモデルを使用したときだけmedvramを発動させる。


終わりに

説明は以上です。詳しい画像生成の方法や操作画面の意味、設定などは「AIイラストが理解る!」にまとめてありますので、引き続きそちらを御覧くださいませ。

【全体公開】AIイラストが理解る!StableDiffusion超入門

こんにちは!2022年10月からAIイラストの技術解説記事を連載してます、サークル「スタジオ真榊」の賢木イオです。この記事は、これまで投稿してきた100本(約40万文字)を超えるAIイラスト術のFANBOX記事をもとに、画像生成AIを最短距離で学ぶための必要情報をまとめたメインコンテンツです。画像生成AIにもいろいろあり...



これから画像生成AIを楽しまれる多くの方に、この記事がお役に立てますことを祈っています。もし良かったら、ツイッターでも最新情報を紹介していますので、記事のリツイートやフォローをしていただけますと嬉しいです。






Files

Comments

No comments found for this post.