オープンソースの人体アニメーション生成モデルで、音声を通じて半身人物のリアルなアニメーション効果を生成することをサポートします。魅力的な動作表現、簡素化された生成プロセス、半身人物アニメーションの特徴を持ち、音声駆動の人物の会話、表情、肢体動作の調和を実現します。
V1 モデルはデジタルフェイスプロジェクトを行い、V2 では魅力的な半身人物動画の生成をサポートします。これは新しい音声ポーズ動的調整戦略を利用しており、ポーズサンプリングと音声拡散を含むことで、半身の詳細、顔、ジェスチャーの表現力を強化し、条件の冗長性を減少させます。デジタル人のライブ配信、バーチャルアナウンサー、動画編集、AI ナレーションなどのプロジェクトに使用できます。
GitHub リポジトリ:https://github.com/antgroup/echomimic_v2