論文の概要: MVAnimate: Enhancing Character Animation with Multi-View Optimization
- arxiv url: http://arxiv.org/abs/2602.08753v1
- Date: Mon, 09 Feb 2026 14:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.310088
- Title: MVAnimate: Enhancing Character Animation with Multi-View Optimization
- Title(参考訳): MVAnimate:マルチビュー最適化によるキャラクタアニメーションの強化
- Authors: Tianyu Sun, Zhoujie Fu, Bang Zhang, Guosheng Lin,
- Abstract要約: MVAnimateは,マルチビュー先行情報に基づく動的図形の2次元情報と3次元情報の両方を合成する新しいフレームワークである。
提案手法は,複数ビュー先行情報を利用して時間的一貫性と空間的整合性のあるアニメーション出力を生成する。
- 参考スコア(独自算出の注目度): 55.4217617472079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The demand for realistic and versatile character animation has surged, driven by its wide-ranging applications in various domains. However, the animation generation algorithms modeling human pose with 2D or 3D structures all face various problems, including low-quality output content and training data deficiency, preventing the related algorithms from generating high-quality animation videos. Therefore, we introduce MVAnimate, a novel framework that synthesizes both 2D and 3D information of dynamic figures based on multi-view prior information, to enhance the generated video quality. Our approach leverages multi-view prior information to produce temporally consistent and spatially coherent animation outputs, demonstrating improvements over existing animation methods. Our MVAnimate also optimizes the multi-view videos of the target character, enhancing the video quality from different views. Experimental results on diverse datasets highlight the robustness of our method in handling various motion patterns and appearances.
- Abstract(参考訳): 現実的で多目的なキャラクターアニメーションの需要は、様々な分野の幅広い応用によって急増している。
しかし、人間のポーズを2Dまたは3D構造でモデル化するアニメーション生成アルゴリズムは、低品質な出力内容やトレーニングデータ不足など、様々な問題に直面し、関連するアルゴリズムが高品質なアニメーションビデオを生成するのを防ぐ。
そこで本研究では,マルチビュー先行情報に基づく動的人物の2次元情報と3次元情報の両方を合成し,生成した映像品質を向上させる新しいフレームワークであるMVAnimateを紹介する。
提案手法では,複数ビューの事前情報を利用して時間的一貫した空間的コヒーレントなアニメーション出力を生成し,既存のアニメーション手法に対する改善を実証する。
MVAnimateはまた、ターゲットキャラクタのマルチビュービデオを最適化し、異なるビューからビデオ品質を向上させる。
多様なデータセットに対する実験結果は、様々な動きパターンや外観を扱う際の我々の手法の頑健さを浮き彫りにした。
関連論文リスト
- Animating the Uncaptured: Humanoid Mesh Animation with Video Diffusion Models [71.78723353724493]
ヒューマノイド文字のアニメーションは、様々なグラフィックス応用において不可欠である。
入力された静的な3次元ヒューマノイドメッシュの4次元アニメーションシーケンスを合成する手法を提案する。
論文 参考訳(メタデータ) (2025-03-20T10:00:22Z) - Towards Multiple Character Image Animation Through Enhancing Implicit Decoupling [77.08568533331206]
文字画像アニメーションのための新しい多条件ガイドフレームワークを提案する。
我々は、モデルが暗黙的に疎結合する能力を高めるために、よく設計された入力モジュールをいくつか採用する。
本手法は,特に複雑な背景と複数の文字のシナリオにおいて,高品質なキャラクタアニメーションの生成に優れる。
論文 参考訳(メタデータ) (2024-06-05T08:03:18Z) - Zero-shot High-fidelity and Pose-controllable Character Animation [89.74818983864832]
イメージ・ツー・ビデオ(I2V)生成は、単一の画像からビデオシーケンスを作成することを目的としている。
既存のアプローチは、キャラクターの外観の不整合と細部保存の貧弱さに悩まされている。
文字アニメーションのための新しいゼロショットI2VフレームワークPoseAnimateを提案する。
論文 参考訳(メタデータ) (2024-04-21T14:43:31Z) - Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation [27.700371215886683]
拡散モデルは、その堅牢な生成能力のために、視覚世代研究の主流となっている。
本稿では,キャラクターアニメーションに適した新しいフレームワークを提案する。
トレーニングデータを拡張することにより、任意の文字をアニメーション化することが可能となり、他の画像とビデオの手法と比較して、文字アニメーションにおいて優れた結果が得られる。
論文 参考訳(メタデータ) (2023-11-28T12:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。