目次
はじめに
こんにちは!
grasys でデータ周りの仕事をしている t.watanabe です
今回は Tencent が開発した HunyuanImage-2.1 を ComfyUI で扱えるようにした、ComfyUI-HunyuanImage2.1 を試してきましたのでインストール方法と使い方をレポートしたいと思います
前提環境
環境は以下のものにインストールしていきます
- CPU: Ryzen 9 3900X
- Memory: DDR4 64GiB
- OS: Ubuntu 20.04
- GPU: RTX 5090 VRAM 32GiB
- Driver: nvidia-driver-580-open
cuda, uv までインストール済みの環境とします
インストール
まずはコードを pull していきます。
git clone http://github.com/KimbingNg/ComfyUI-HunyuanImage2.1
任意のディレクトリに pull したあとで環境を作っていきます
cd ComfyUI-HunyuanImage2.1
今回は uv を使って環境を作っていきます
uv init pyproject
pyproject.toml がすでにあるので、pyproject をつけて uv init を通るようにします
README.md の構築手順に従ってモデルをインストールします
以下を ./models/text_encoders 下に配置
./models/vae 下に配置
- hunyuan_image_2.1_vae_fp16.safetensors
- Optional (for refiner): hunyuan_image_refiner_vae_fp16.safetensors
./models/diffusion_models 下に配置
つまずきポイント
- flash-attn パッケージがインストールできない
- なくても動きます、スキップしましょう
- インストールする必須のパッケージがわからない
- ガイドに従ってインスールしましょう
- VRAM
- 32GiB程度必須です…..
- 意図した画像が生成されない
- プロンプトはLLMが解釈します
- プロンプトを文章のようにする、情景をわかりやすくするなどしてみましょう
実行
hunyuan_image_2.1_workflow.json はお試し用のプロンプトです
ペンギンが出力されれば動いています

↑ 公式サイトの生成例
VRAM の消費は激しいですがローカル環境で高品質な画像が生成できます
結びと付録
他にも 3D model を作成できる Hunyuan3D-2.1 、
video を生成する HunyuanVideo などもリリースされています
今後も楽しみですね!

