TOP 3D AI Logo
TOP 3D AI
チュートリアル

HY-Motion ComfyUIセットアップ:テキストから3Dアニメーションチュートリアル

ComfyUIでHY-Motionをセットアップし、Python 3.11でFBXエクスポートする完全チュートリアル。VRAM要件、モデルダウンロード、ステップバイステップのインストール手順を含む。

Tencentから素晴らしいリリースがありました — HY-Motion(Hunyuan Motion)です。 このモデルは大規模なデータセットで学習されており、テキストからアニメーションを生成する能力が非常に優れています。 説明文を入力するだけで、完全なアニメーションが生成されます。本当に驚くべき技術です。

このガイドでは、FBXエクスポート対応のHY-MotionをComfyUIにセットアップする方法をご紹介します。 FBXエクスポートには特定のPythonバージョンが必要です。早速始めましょう。

プラグイン: https://github.com/jtydhr88/ComfyUI-HY-Motion1

HY-Motionで生成されたアニメーションの例
HY-Motionで生成されたモーションの例 — 公式論文より

前提条件:Minicondaのインストール

始める前に、Minicondaがシステムにインストールされている必要があります。 このガイドではMiniconda自体のインストール方法は扱いませんが、今回の作業には必須です。 まだインストールしていない場合は、 Miniconda公式インストールガイドを参照してください。

なぜCondaが必要なのか? HY-MotionのFBXエクスポート機能はPython 3.11でのみ動作します。 最新のポータブル版ComfyUIにはPython 3.13が同梱されており、FBXエクスポートが動作しません。Condaを使えば、 メインのPython環境に影響を与えることなく、Python 3.11専用の別環境を作成できます。

システムのPythonが既に3.11であれば、Condaは不要かもしれません。しかし、私のように3.13にアップデート済みの場合、 Condaが最もクリーンな解決策です。この環境が不要になったら、単純に削除できます。

ステップ1:Python 3.11環境の作成

PowerShellを開いてください(Condaが正しく動作するために必要です)。 また、CursorまたはVS Codeのターミナルの使用もおすすめします — 問題が発生した場合、AIエージェントにデバッグを依頼できます。

Conda環境の作成と有効化
# Python 3.11で新しい環境を作成
conda create -n comfy311 python=3.11 -y

# 環境を有効化
conda activate comfy311

これで新しいPython 3.11環境に入りました。ここからインストールするものはすべて、この環境に隔離されます。


ステップ2:ComfyUIのクローンとインストール

新しいComfyUIインスタンスをインストールしたいディレクトリに移動してください。 場所はどこでも構いません。私はE:ドライブを選びましたが、お好きな場所で大丈夫です。

ComfyUIをクローン
# お好みのディレクトリに移動(任意の場所に変更してください)
cd E:\

# ComfyUIを新しいフォルダにクローン
git clone https://github.com/comfyanonymous/ComfyUI.git ComfyUI_py311

# ComfyUIフォルダに入る
cd ComfyUI_py311

重要: ComfyUIのrequirementsをインストールする前に、CUDAサポート付きのPyTorchをインストールする必要があります。 このステップを飛ばしてpip install torchだけを実行すると、 CPU版がインストールされ、大幅に遅くなります。

CUDAフラグを省略しないでください! --index-urlパラメータがないと、 pipはCPU専用のPyTorchをインストールします。GPU高速化が必要です。
CUDA対応PyTorchとComfyUIの依存関係をインストール
# まずpipをアップグレード
python -m pip install --upgrade pip

# CUDAサポート付きPyTorchをインストール(これが重要!)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124

# ComfyUIの依存関係をインストール
pip install -r requirements.txt

ここまでで、動作するComfyUIのインストールが完了しました。しかし、まだHY-Motionを追加する必要があります。


ステップ3:HY-Motionプラグインのインストール

では、ComfyUI-HY-Motion1プラグインをインストールしましょう。custom_nodesフォルダにクローンする必要があります。

HY-Motionのクローンとインストール
# custom_nodesフォルダに移動
cd custom_nodes

# HY-Motionプラグインをクローン
git clone https://github.com/jtydhr88/ComfyUI-HY-Motion1

# プラグインフォルダに入る
cd ComfyUI-HY-Motion1

# プラグインの依存関係をインストール(FBX SDKを含む)
pip install -r requirements.txt

requirements.txtにはすでに FBX SDK(fbxsdkpy)が含まれています。 インストールされているか確認したい場合は、以下のコマンドを実行してください — 問題なければ "requirement already satisfied"と表示されます:

オプション:FBX SDKのインストール確認
pip install fbxsdkpy --extra-index-url https://gitlab.inria.fr/api/v4/projects/18692/packages/pypi/simple

ステップ4:モデルウェイトのダウンロード

HY-MotionにはHugging Faceから手動でダウンロードする必要があるモデルウェイトが必要です。 ComfyUIインストール内に正しいフォルダ構造を作成する必要があります。

フォルダ構造のセットアップ方法は以下の通りです:

  1. ComfyUIのmodelsフォルダに移動します
  2. HY-Motionという新しいフォルダを作成します
  3. その中にckptsを作成します
  4. ckpts内にtencentを作成します
  5. HY-Motion-1.0HY-Motion-1.0-Liteのフォルダをダウンロードして配置します
Folder Structure
ComfyUI/
└── models/
    └── HY-Motion/           # このフォルダを作成
        └── ckpts/           # このフォルダを作成
            ├── tencent/     # このフォルダを作成
            │   ├── HY-Motion-1.0/        # HuggingFaceからダウンロード
            │   │   ├── config.yml
            │   │   └── latest.ckpt
            │   └── HY-Motion-1.0-Lite/   # HuggingFaceからダウンロード
            │       ├── config.yml
            │       └── latest.ckpt
            └── GGUF/                     # オプション:GGUFを使用する場合のみ
                └── Qwen3-8B-Q4_K_M.gguf

テキストエンコーダーにGGUF量子化モデルを使用したい場合は、 別途ダウンロードする必要があります:


VRAM要件

利用可能なVRAMに基づいてモデルを選択してください。モーションモデルとテキストエンコーダーは同時に動作するため、 必要なVRAMを合計する必要があります:

モーションモデル

  • HY-Motion-1.0~8GB以上のVRAM
  • HY-Motion-1.0-Lite~4GB以上のVRAM

Qwen3-8Bテキストエンコーダー

  • HuggingFace(量子化なし)~16GB VRAM
  • HuggingFace int8~8GB VRAM
  • HuggingFace int4~4GB VRAM
  • GGUF Q4_K_M~5GB VRAM
私の環境(12GB GPU): HY-Motion-1.0-Lite(~4GB)と Qwen3のint4量子化(~4GB)を使用しています。合計:~8GB VRAMで、生成に余裕があります。

ステップ5:ComfyUIの起動

ComfyUIのルートフォルダでターミナルを開き(Conda環境がまだ有効であることを確認してください)、 ComfyUIを起動します:

ComfyUIを起動
# ComfyUIのルートフォルダにいることを確認
cd E:\ComfyUI_py311

# ComfyUIを実行
python main.py

テスト用のワークフローは、HY-Motionプラグインディレクトリ内のworkflowフォルダにあります。 そのうちの1つを読み込んで始めてみましょう。

ComfyUIでのHY-Motionワークフローとアニメーションプレビュー
ComfyUIでのHY-Motionワークフロー(アニメーションプレビュー付き)

FBXエクスポートとパフォーマンス

FBXエクスポートは非常にうまく動作します。12GB GPUとLiteモデルで、12秒のアニメーションに約40秒 — これはかなり高速です。

出力形式はSMPLXアニメーションで、Blenderに直接インポートできます。 別のスケルトン(Unreal Engine向けのMixamoなど)でアニメーションを使用したい場合は、リターゲットが必要です。

BlenderでAuto-Rig Proを使用してSMPLXアニメーションをMixamoリグにリターゲット
BlenderのAuto-Rig Proを使用してSMPLXアニメーションをMixamoスケルトンにリターゲット
BlenderのAuto-Rig Proでリターゲットをテストしました — SMPLXスケルトンをMixamoスケルトンにマッピングし、 見事に動作しました。全体のプロセスは約3分でした。一度マッピングを保存すれば、 次回以降のリターゲットはほぼ瞬時に完了します。ただし、これは別のチュートリアルで扱う内容です!

まとめ

HY-Motionは非常に強力なツールです。 テキストプロンプトだけで生成されるアニメーションの品質は素晴らしく、FBXエクスポートにより 実際のプロダクションワークフローで活用できます。

HY-Motionを開発したTencent Hunyuanチーム、 そしてComfyUI統合を構築して誰もがアクセスできるようにしたjtydhr88氏に 大きな感謝を送ります。

まとめ: Minicondaをインストール → Python 3.11環境を作成 → ComfyUIをクローン → CUDA対応PyTorchをインストール → HY-Motionプラグインをクローン → ウェイトをダウンロード → FBXエクスポート付きテキストからアニメーション生成を楽しみましょう!

これらのツールを自分で比較してみませんか?3D AIアリーナをご覧ください。

アリーナを試す
HY-Motion ComfyUIセットアップ:テキストから3Dアニメーションチュートリアル | TOP 3D AI Learn | Top 3D AI