DCAI
Loading Light/Dark Toggl

ComfyUIより手軽にWAN2.2動画を生成:Forge – Neo導入ガイド

⏱️30min read
📅 2026年3月8日
ComfyUIより手軽にWAN2.2動画を生成:Forge – Neo導入ガイドのメイン画像

本記事では「Stable Diffusion WebUI Forge – Neo」を紹介します。本家のAutomatic1111 Stable Diffusion WebUIはU-Net(Stable Diffusionモデル)専用の設計だからなのか、昨今のTransformer(DiT系)モデルへの対応はほとんど進んでいないように見受けられます。大きなアップデートは2024年7月のSD3対応で止まっており、2025年2月には小さなバグ修正があったのみです。Flux.1であればStable Diffusion WebUI Forgeで動かせますが、WAN2.2などの新世代モデルには対応していません。Haoming02氏が開発する派生版「Stable Diffusion WebUI Forge – Neo」は、最新のモデルやアテンション機構にも幅広く対応しており、ComfyUIが苦手な方にとくにオススメです。

この記事で学べる事

  • Stable Diffusion WebUI Forge – Neoの特徴と本家Forgeとの違い
  • uvとFFmpegのインストール方法とForge-Neoのセットアップ手順
  • WAN2.2 T2V(テキストから動画生成)の設定方法と推奨パラメーター(💎会員限定)
  • WAN2.2 I2V(画像から動画生成)の使い方とインプット画像の生成手順(💎会員限定)
  • VRAMに応じた最適な解像度の選び方とモデル共有による容量節約の方法(💎会員限定)

Stable Diffusion WebUI Forge – Neoとは?

Stable Diffusion WebUI Forge – Neoは、lllyasviel氏が開発したオリジナルのForgeプロジェクトを引き継ぐ形で生まれた派生版です。「軽量化」と「実用性」を重視した設計が特徴で、開発者の方針は明確です。「最新モデルを誰でも簡単に使えるGUIを提供する。ただし、余計な機能は一切排除する」というシンプルな哲学を貫いています。

また、PyTorchも公式の最新安定版(2.10.0+cu130)を採用しているため、RTX50系でも非常に安定して動作します。現時点でもっとも推奨される組み合わせの1つです。

対応モデルの大幅拡充

2026年2月のアップデートでは、かなり多くのモデルが新たにサポートされました。とくに注目すべきは以下の点です。

  • Flux.2-KleinAnimaといった最新の画像生成モデル
  • Wan 2.2によるビデオ生成機能
  • Qwen-Imageシリーズで、複数画像を同時に入力できる機能
  • Nunchaku (SVDQ)でFluxやQwen向けのLoRAが使えるようになった点

これらにより、単なる画像生成だけでなく、動画生成や高度な編集作業にも対応できるようになっています。

パフォーマンスの大幅改善

技術的な改善も目覚ましく、実用面で大きな違いを生んでいます。

  • プリセット機能の再設計:使用したモデルや設定を自動的に記憶するので、作業の再現性が高まります。
  • UVパッケージマネージャー対応:初回セットアップの時間が大幅に短縮されます。
  • 複数のアテンション最適化:SageAttentionやFlashAttentionにより、メモリ消費を抑えながら高速化を実現します。
  • GPU加速タイル処理:アップスケーリング時の処理が劇的に速くなりました。

これらの改善により、限られたVRAMでもより大きなモデルを動かせるようになっています。

本家Forgeから削除された機能

以下の点が本家のForgeより削除された機能です。これらの機能を使いたい場合は本家のForgeを使いましょう。

  • SD2やSD3のサポート
  • HypernetworksやTextual Inversionのトレーニング機能
  • CLIP InterrogatorやDeepbooruといったタグ付けツール
  • 多くのビルトイン拡張機能

学習機能を削ることで、純粋な推論環境としての軽量化を実現しています。

利用上の注意点

  • サポート環境:Windows + NVIDIA GPUが基本。Linux、macOS、AMD、Intelは公式サポート外です。
  • 削除機能の復活:開発者は削除した機能に関する要望には応じない方針です。

Neo版最大の特徴は「クリーンな実装」へのこだわりです。オリジナルのForgeが外部リポジトリを自動的にクローンするのに対し、Neoは必要最小限の依存関係のみで動作します。bitsandbytesも標準搭載せず、必要に応じてユーザーが追加する形を採用しています。

Stable Diffusion WebUI Forge – Neoのインストール方法

前準備:「uv」のインストール

Forge – Neoをインストールする前に、まず「uv」をインストールしておきましょう。

「uv」はAstral社が開発した、Rustで書かれた高速なPythonパッケージ・プロジェクト管理ツールです。pippip-toolsvirtualenvpoetryなどの機能を1つに統合しており、従来のツールより大幅に高速なのが特徴です。

uvインストール後のコマンドプロンプト 

まずは「uv」がご自身のPCにインストールされているか確認しましょう。PowerShellまたはコマンドプロンプトを開き、以下のコマンドで確認しましょう。

uv --version

インストールされていれば、uv 0.10.9 (f675560f3 2026-03-06)の様なバージョン情報が表示されます。

エラーが出る場合は未インストールなので、以下のコマンドでインストールします。

powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

インストールが完了したらもう一度以下のコマンドを実行して、正しくインストールされているか確認しましょう。

uv --version

前準備:「FFmpeg」のインストール(オプション)

WAN2.2を使う場合はFFmpegをインストールする必要があります。

FFmpegのダウンロードページ 

一番簡単な方法は🔗「FFmpeg」のダウンロードページに行き「Get packages & executable files」からWindowsロゴをクリックし「Windows EXE Files」の一覧からどれか1つダウンロード & インストールします。

Stable Diffusion WebUI Forge-Neoリポジトリのクローン

✅リポジトリのクローンには🔗gitが必要になります。

Forge - Neoリポジトリのクローン後のコマンドプロンプト 

コマンドプロンプトで、インストールしたいディレクトリ(%USERPROFILE%など)に移動してから、以下のコマンドでクローンします。

git clone https://github.com/Haoming02/sd-webui-forge-classic sd-webui-forge-neo --branch neo

Pythonのセットアップ

Pythonのセットアップ後のコマンドプロンプト 

クローンが完了したら、以下のコマンドでForge-neoディレクトリに移動します。

cd sd-webui-forge-neo

移動したら、以下のコマンドでvenv環境を構築し、Pythonをインストールします。✅この方法はWindows本体にインストールしているPythonとは競合しません。

uv venv venv --python 3.13 --seed

venv venvは「venv」という名前でvenvを作るuvのサブコマンドで、最後の--seedはpip、setuptoolsやwheelとの互換性を持たす為のコマンドです。

--uv記入後のwebui-user.bat 

最後にwebui-user.batをメモ帳等で開きset COMMANDLINE_ARGS=の行に--uvと記入しましょう。

既存のモデルを読み込む(オプション)

すでにお使いの環境に本家ForgeやA1111 WebUIをインストールしている場合は、モデルを共有すればディスクスペースを節約できます。

--ckpt-dirsと--lora-dirs記入後のwebui-user.bat
この例ではチェックポイントモデルとLoRAを共有しています。

共有方法は、先ほどのwebui-user.batにあるset COMMANDLINE_ARGS=の行にコマンドを追加します。コマンドの例として、チェックポイントモデルの共有は以下の通りです。⚠️ユーザー名をご自身のユーザー名に書き換えてください。

--ckpt-dirs "C:\Users\ユーザー名\webui_forge_cu121_torch231\webui\models\Stable-diffusion"

この例は、Forgeが%USERPROFILE%(ユーザー名のルートディレクトリー)にインストールされている場合の例です。

モデル共有の代表的なコマンドは以下の通りです。

  • --ckpt-dirs:チェックポイントモデルのパスを指定します。
  • --lora-dirs:LoRAのパスを指定します。
  • --vae-dirs:VAEのパスを指定します。
  • --text-encoder-dirs:テキストエンコーダーのパスを指定します。
  • --embeddings-dir:embeddingsのパスを指定します。
  • --esrgan-models-path:アップスケーラーモデルESRGANのパスを指定します。
  • --forge-ref-a1111-home:上記のコマンドが面倒な方で、本家Forgeをお持ちの方はまとめて追加できます。
  • --forge-ref-comfy-home:ComfyUIのモデルを共有する場合はコチラを使います。

✅WAN2.2をすでにComfyUIで運用している方で、Forge-neoで試したい方は以下のコマンドを追加すれば簡単に共有できます。この例はComfyUIポータル版の例です。⚠️ユーザー名をご自身のユーザー名に書き換えてください。

 --forge-ref-comfy-home "C:\Users\ユーザー名\ComfyUI_windows_portable_SA\ComfyUI"

この例も、ComfyUIが%USERPROFILE%(ユーザー名のルートディレクトリー)にインストールされている場合の例です。

アテンションのインストール(オプション)

--sageと--cuda-malloc記入後のwebui-user.bat 

SageAttentionなどをインストールしたい場合は--sageコマンドをset COMMANDLINE_ARGS=の行に追加します。

また、お持ちのGPUがRTX30系以上の方は--cuda-mallocの追加もおススメです。

✅使えるコマンドを知りたい方は「Forge – Neo」のルートディレクトリーで以下のコマンドを実行すれば全リストを確認できます。

venv\Scripts\python.exe launch.py --help

Forge-neoの起動

ここまでくれば、後は本家のForgeと同様にwebui-user.batを実行すれば起動します。✅初回の起動はパッケージのインストールが行われるため時間が掛かりますが、uvを使っているため従来に比べ大幅に高速です。

Forge-neo初回起動ログ 

しばらくするとUIが立ち上がります。基本的には本家Forgeと同様に使うことができます。

Forge-neo初期画面 

Stable Diffusion WebUI Forge – NeoでWAN2.2を動かしてみる

Forge-neoでWAN2.2を実際に動かしてみましょう。現時点ではT2V 14BI2V 14Bをサポートしており、TI2V 5BFunS2Vは非対応です。

生成例

T2V 14Bの生成例
I2V 14Bの生成例

実際に使ってみると操作はシンプルで扱いやすい反面、ComfyUIに比べると細かな設定が限られるため生成品質はやや劣ります。また、Hires. fixやADetailerは使用できません。

それでは使い方を見ていきましょう。

🔒この内容は有料サポーター様限定です。有料サポーターの方はログインすると閲覧することができます。

まとめ

Stable Diffusion WebUI Forge – Neoは、ComfyUIの複雑な操作が苦手な方でも最新の動画・画像生成モデルを手軽に扱える軽量WebUIです。本記事のポイントを振り返りましょう。

  • Forge – NeoはFlux.2-KleinやWAN2.2など最新モデルに幅広く対応しており、RTX50系GPUでも安定動作します。
  • uvパッケージマネージャーを使うことでセットアップが大幅に短縮されます。
  • --forge-ref-comfy-homeなどのコマンド1つで、既存のForgeやComfyUIのモデルをそのまま共有でき、ディスクスペースも節約できます。
  • WAN2.2のT2V・I2VはどちらもLightning 4Step LoRAを使えば約7分で動画生成が可能です(RTX3090 24GB環境)。
  • VRAMが限られている場合でも、解像度を下げることでより少ないVRAMのGPUに対応できます。
  • WAN2.2の操作はシンプルでComfyUIより学習コストが低い反面、Hires. fixやADetailerはでは利用できません。

ComfyUIでWAN2.2をすでに運用している方でも、GUIで手軽に試したい場合はForge – Neoを一度使ってみてください。

最後までお読みいただきありがとうございます。

もし少しでも参考になったら、ぜひ「いいね」で応援してください!