Stable Diffusionの画像生成モデル「SDXL1.0」とは?最新モデルの概要や使い方を紹介します

  • URLをコピーしました!

2022年に英国企業であるStability AI社が画像生成AIの「Stable Diffusion」を発表し、初心者でもプロ並みのクオリティでイラストが作成できるとして大きな話題となりました。さらに、2023年には同社がStable Diffusionの画像生成モデルである「SDXL」(Stable Diffusion XL)を発表しました。

この記事では、従来のStable Diffusionよりも高品質の画像生成が可能なSDXLの概要について説明し、最新モデルである「SDXL1.0」の特徴や使い方についても詳しく解説します。

SDXLは高品質な画像生成を提供するだけでなく、ユーザーによる自由なカスタマイズの機会を提供する画像生成AIです。そのため、イラスト制作において高度な制御が求められる場面でも非常に有用です。SDXL1.0は最新モデルであり、その特徴と使い方についても本記事で紹介します。

高品質かつ柔軟性のある画像生成AIを探している方にとって、SDXLは非常に興味深い選択肢となるでしょう。最新情報を含む詳細な情報については、記事の最後までご覧いただければと思います。

 

 

目次

SDXLとは

SDXL(Stable Diffusion XL)は、Stability AI社が開発した最新の画像生成AIでStable Diffusionの進化版です。

研究用途に向けて最初にリリースされたSDXL 0.9は、モデルのパラメーター数が大幅に向上し、テキストと画像の関係を理解するCLIPモデルを活用しています。

これにより、高解像度で奥行きのある画像を簡単に生成できるようになりました。

SDXLは一般的なPCで動作し、Windows 10/11やLinux、Nvidiaなどのグラフィックボードを搭載した環境で使用できます。

このモデルは、従来の方法と比較して、画像のディテールと構図を大幅に改善し、高性能な画像生成AIモデルとして注目されています。

SDXLは、高品質な画像生成と柔軟性を求めるユーザーにとって非常に魅力的な選択肢となっており、画像生成技術の進化を示すものと言えます。

SDXL1.0とは

SDXL1.0は、Stability AI社が開発した最新の画像生成AIモデルで、Stable Diffusionの進化版です。

このモデルは、高品質な画像生成において他のモデルと比較して優れた性能を示し、Stability AI社のプラットフォームやClipDrop、GitHubを通じて利用できます。

SDXL1.0の新しいアーキテクチャは、非常に多くのパラメーターを持ち、専門家の知識に基づいた潜在拡散を組み合わせています。

このアーキテクチャにより、高品質な画像生成を実現しながらも、計算速度やリソースの効率的な使用を確保しています。

SDXL1.0は幅広いスタイルやコンセプトに適応でき、高品質な画像生成を実現する優れたツールとして、さまざまな領域での活用が期待されています。

 

SDXLの特徴・改善点について

SDXL1.0の主な特徴は以下の通りです。

高品質な画像生成が可能

SDXL1.0は、従来のモデルよりも高画質な画像生成が可能です。フォトリアリスティックな表現に優れ、さまざまなスタイルで1024×1024ピクセルの高品質画像を生成できます。

シンプルなプロンプトでも高品質な画像を生成できるため、ユーザーは簡単に魅力的な画像を作成できます。

影や手の描写の改善

SDXL1.0は、生成された画像の影や手の描写を改善しました。コントラスト、照明、影の表現が向上し、より鮮明な画像が生成されます。

この改善により、立体感や質感をより精緻に表現でき、視覚体験が向上します。

SDXL1.0は幅広い分野で高い評価を受け、映画、ゲーム、デザインなどのクリエイティブな活動において新たな可能性を切り拓くツールとして期待されています。

高品質な画像生成とリアルな影や手の表現の向上により、ユーザーはより没入感のあるコンテンツを作成できるでしょう。

SDXLの導入方法

SDXLを導入する手順は以下の通りです。

1.AUTOMATIC1111 WebUIのアップデート

SDXL 1.0を使用するには、AUTOMATIC1111 WebUIをv1.5.1以上にアップデートする必要があります。

2.必要なモデルのダウンロード

必要なモデルをダウンロードします。Baceモデルは必須で、「sd_xl_base_1.0.safetensors」をダウンロードします。また、画質向上が期待されるRefinerモデル「sd_xl_refiner_1.0.safetensors」も同時にダウンロードします。最後に、VAE「sdxl-vae」もダウンロードします。

3.モデルファイルを所定フォルダに指定

ダウンロードが完了したモデルファイルを指定のフォルダに移動します。BaceモデルおよびRefinerモデルは、以下のフォルダに移動します。

webui\models\Stable-diffusion

https://huggingface.co/stabilityai/stable-diffusion-xl-base-1.0/tree/main

https://huggingface.co/stabilityai/stable-diffusion-xl-refiner-1.0/tree/main

 

VAEは、以下のフォルダに移動します。

webui\models\VAE

https://huggingface.co/stabilityai/sdxl-vae/tree/main

これでSDXLの導入が完了します。これらの手順に従うことで、SDXLを正常にセットアップし、利用できるようになります。

最新モデルの使い方

SDXLのBaseモデルのみを使用する手順は以下の通りです。

baseモデル

1. Baseモデル選択: Baseモデル「sd_xl_base_1.0.safetensors」を選択します。

2. VAE選択: VAE「sdxl_vae.safetensors」を選択します。

3. サンプリング方法の選択: 自身の好みに合ったサンプリング方法を選択します。迷った場合は「DPM++ 2M SDE Karras」を選択することができます。

4. 画像サイズの選択: 基本的にSDXLがサポートするサイズを選択します。1024×1024を選ぶことができます。

これらの設定を行い、プロンプトを入力すると、画像が生成されます。

BaseモデルにRefinerモデルをマージする

BaseモデルにRefinerモデルを組み合わせて使用する方法は以下の通りです:

1. Baseモデルで画像生成: Baseモデルで画像を生成します。

2. 生成した画像をimg2imgに転送: 生成した画像をimg2imgに転送します。

3. モデルをRefinerに切り替える: Refinerモデルにモデルを切り替えます。

4. Denoising strengthの設定: “Denoising strength”を2〜4に設定します。

5. 画像生成: “Generate”ボタンをクリックして画像を生成します。

RefinerモデルはWebUIで完全にサポートされていないため、手間がかかる方法ですが、コントラストや影などの細部の向上が期待できます。クオリティ向上を求める場合には、Refinerモデルの組み合わせも検討してみてください。

 

まとめ

今回はSDXL1.0の特徴と使用方法について解説しました。

SDXL1.0は、従来のモデルに比べて大幅に改善され、1回の画像生成に2つのプロセスを組み合わせて処理することで、高解像度の1024×1024ピクセルの画像を生成できます。Clipdropという簡単なプロンプトを使用して、多彩なスタイルの画像を誰でも簡単に作成できます。

SDXL1.0は従来のStable Diffusionとは互換性がなく、一部の機能に制限がありますが、今後の進化が期待されています。商用利用も可能であり、ビジネス展開の可能性も考えられます。

将来的に生成AI市場は盛り上がることが予想されるため、SDXL1.0を試して高品質な画像生成を楽しんでみる価値があるでしょう。

この記事が気に入ったら
いいね または フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次