論文の概要: DynaPose4D: High-Quality 4D Dynamic Content Generation via Pose Alignment Loss
- arxiv url: http://arxiv.org/abs/2510.22473v1
- Date: Sun, 26 Oct 2025 01:11:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.967407
- Title: DynaPose4D: High-Quality 4D Dynamic Content Generation via Pose Alignment Loss
- Title(参考訳): DynaPose4D:Pose Alignment Lossによる高品質4D動的コンテンツ生成
- Authors: Jing Yang, Yufeng Yang,
- Abstract要約: DynaPose4Dは、単一の静的画像から高品質な4D動的コンテンツを生成するフレームワークである。
その結果,DynaPose4Dは動的運動生成において優れたコヒーレンス,一貫性,流動性が得られた。
- 参考スコア(独自算出の注目度): 5.644194272935956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in 2D and 3D generative models have expanded the capabilities of computer vision. However, generating high-quality 4D dynamic content from a single static image remains a significant challenge. Traditional methods have limitations in modeling temporal dependencies and accurately capturing dynamic geometry changes, especially when considering variations in camera perspective. To address this issue, we propose DynaPose4D, an innovative solution that integrates 4D Gaussian Splatting (4DGS) techniques with Category-Agnostic Pose Estimation (CAPE) technology. This framework uses 3D Gaussian Splatting to construct a 3D model from single images, then predicts multi-view pose keypoints based on one-shot support from a chosen view, leveraging supervisory signals to enhance motion consistency. Experimental results show that DynaPose4D achieves excellent coherence, consistency, and fluidity in dynamic motion generation. These findings not only validate the efficacy of the DynaPose4D framework but also indicate its potential applications in the domains of computer vision and animation production.
- Abstract(参考訳): 2次元および3次元生成モデルの最近の進歩は、コンピュータビジョンの能力を拡大した。
しかし、単一の静的画像から高品質な4D動的コンテンツを生成することは大きな課題である。
従来の手法は時間的依存関係のモデリングに制限があり、特にカメラの視点の変動を考慮した場合、動的幾何学的変化を正確に捉えている。
この問題に対処するために,DynaPose4Dを提案する。これは,4D Gaussian Splatting (4DGS) 技術と Category-Agnostic Pose Estimation (CAPE) 技術を統合する革新的なソリューションである。
このフレームワークは、3D Gaussian Splattingを用いて単一の画像から3Dモデルを構築し、選択されたビューからのワンショットサポートに基づいてマルチビューポーズキーポイントを予測し、監督信号を利用して動きの一貫性を向上させる。
実験結果から,DynaPose4Dは動的運動生成において優れたコヒーレンス,一貫性,流動性が得られた。
これらの結果は、DynaPose4Dフレームワークの有効性を検証するだけでなく、コンピュータビジョンとアニメーション制作の分野にも応用できる可能性を示している。
関連論文リスト
- ShapeGen4D: Towards High Quality 4D Shape Generation from Videos [85.45517487721257]
ビデオからエンドツーエンドに1つの動的3次元表現を合成する,ネイティブなビデオから4次元の形状生成フレームワークを提案する。
本手法は,フレームごとの最適化を行なわずに,非剛性運動,体積変化,および位相遷移を正確にキャプチャする。
論文 参考訳(メタデータ) (2025-10-07T17:58:11Z) - MVG4D: Image Matrix-Based Multi-View and Motion Generation for 4D Content Creation from a Single Image [8.22464804794448]
静止画像から動的4Dコンテンツを生成する新しいフレームワークであるMVG4Dを提案する。
MVG4Dのコアとなるのは、時間的コヒーレントで空間的に多様なマルチビュー画像を合成するイメージマトリックスモジュールである。
本手法は, 時間的一貫性, 幾何学的忠実度, 視覚的リアリズムを効果的に向上させ, 動きの不連続性や背景劣化における重要な課題に対処する。
論文 参考訳(メタデータ) (2025-07-24T12:48:14Z) - Diffusion4D: Fast Spatial-temporal Consistent 4D Generation via Video Diffusion Models [116.31344506738816]
高速でスケーラブルな4Dコンテンツ生成のための新しいフレームワーク textbfDiffusion4D を提案する。
ダイナミックな3Dアセットの軌道ビューを合成できる4D対応ビデオ拡散モデルを開発した。
提案手法は, 生成効率と4次元幾何整合性の観点から, 従来の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-05-26T17:47:34Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z) - 4DGen: Grounded 4D Content Generation with Spatial-temporal Consistency [118.15258850780417]
textbf4DGenは、4Dコンテンツ作成のための新しいフレームワークである。
我々のパイプラインは、制御可能な4D生成を容易にし、ユーザがモノクロビデオで動きを指定したり、画像から映像への世代を適用できる。
既存のビデオから4Dのベースラインと比較すると,入力信号の忠実な再構成には優れた結果が得られる。
論文 参考訳(メタデータ) (2023-12-28T18:53:39Z) - Consistent4D: Consistent 360{\deg} Dynamic Object Generation from
Monocular Video [15.621374353364468]
Consistent4Dは、モノクロビデオから4D動的オブジェクトを生成するための新しいアプローチである。
我々は、360度ダイナミックオブジェクト再構成を4次元生成問題として、退屈なマルチビューデータ収集とカメラキャリブレーションの必要性を排除した。
論文 参考訳(メタデータ) (2023-11-06T03:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。