論文の概要: CAMO: Category-Agnostic 3D Motion Transfer from Monocular 2D Videos
- arxiv url: http://arxiv.org/abs/2601.02716v1
- Date: Tue, 06 Jan 2026 05:03:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.803709
- Title: CAMO: Category-Agnostic 3D Motion Transfer from Monocular 2D Videos
- Title(参考訳): CAMO: モノクロ2Dビデオからのカテゴリー非依存の3Dモーショントランスファー
- Authors: Taeyeon Kim, Youngju Na, Jumin Lee, Minhyuk Sung, Sung-Eui Yoon,
- Abstract要約: 2Dビデオから3Dアセットへのモーション転送は、固有のポーズのあいまいさと多様なオブジェクト形状のため、難しい問題である。
モノクロ2Dビデオから直接、多様なターゲットメッシュに動きを転送するカテゴリに依存しないフレームワークであるCAMOを提案する。
- 参考スコア(独自算出の注目度): 35.29260609851614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motion transfer from 2D videos to 3D assets is a challenging problem, due to inherent pose ambiguities and diverse object shapes, often requiring category-specific parametric templates. We propose CAMO, a category-agnostic framework that transfers motion to diverse target meshes directly from monocular 2D videos without relying on predefined templates or explicit 3D supervision. The core of CAMO is a morphology-parameterized articulated 3D Gaussian splatting model combined with dense semantic correspondences to jointly adapt shape and pose through optimization. This approach effectively alleviates shape-pose ambiguities, enabling visually faithful motion transfer for diverse categories. Experimental results demonstrate superior motion accuracy, efficiency, and visual coherence compared to existing methods, significantly advancing motion transfer in varied object categories and casual video scenarios.
- Abstract(参考訳): 2Dビデオから3Dアセットへのモーション転送は、固有のポーズのあいまいさと多様なオブジェクト形状のため、しばしばカテゴリ固有のパラメトリックテンプレートを必要とするため、難しい問題である。
予め定義されたテンプレートや明示的な3D監視に頼ることなく、モノクロ2Dビデオから直接、多様なターゲットメッシュに動きを転送するカテゴリに依存しないフレームワークであるCAMOを提案する。
CAMOのコアは形態パラメータ化された3次元ガウススプラッティングモデルであり、密接な意味対応と組み合わせて形状を適応させ、最適化を通してポーズする。
このアプローチは、形状のあいまいさを効果的に軽減し、多様なカテゴリに対する視覚的に忠実な動き伝達を可能にする。
実験の結果,既存の手法に比べて動作精度,効率,視覚的コヒーレンスが優れており,様々な対象カテゴリーやカジュアルな映像シナリオにおける動きの伝達が著しく向上していることがわかった。
関連論文リスト
- UniMo: Unifying 2D Video and 3D Human Motion with an Autoregressive Framework [54.337290937468175]
統合された枠組み内での2次元映像と3次元映像の協調モデリングのための自己回帰モデルUniMoを提案する。
本手法は,正確なモーションキャプチャを行いながら,対応する映像と動きを同時に生成することを示す。
論文 参考訳(メタデータ) (2025-12-03T16:03:18Z) - Motion4D: Learning 3D-Consistent Motion and Semantics for 4D Scene Understanding [54.859943475818234]
基礎モデルからの2次元先行を統一された4次元ガウススプラッティング表現に統合する新しいフレームワークであるMotion4Dを提案する。
1) 局所的な一貫性を維持するために連続的に動き場と意味体を更新する逐次最適化,2) 長期的コヒーレンスのために全ての属性を共同で洗練するグローバル最適化,である。
提案手法は,ポイントベーストラッキング,ビデオオブジェクトセグメンテーション,新しいビュー合成など,多様なシーン理解タスクにおいて,2次元基礎モデルと既存の3Dベースアプローチの両方に優れる。
論文 参考訳(メタデータ) (2025-12-03T09:32:56Z) - In-2-4D: Inbetweening from Two Single-View Images to 4D Generation [63.68181731564576]
Inbetween-2-4Dという,2枚のシングルビュー画像を補間する4次元(つまり3D + モーション)の生成問題を提案する。
テキストや1つの画像のみからの映像/4D生成とは対照的に、補間タスクはより正確なモーション制御を利用して生成をよりよく制約することができる。
論文 参考訳(メタデータ) (2025-04-11T09:01:09Z) - Shape of Motion: 4D Reconstruction from a Single Video [42.42669078777769]
本稿では,世界座標フレーム内の3次元運動軌跡を明示的かつ永続的に特徴付ける,ジェネリックダイナミックシーンの再構築手法を提案する。
まず,コンパクトなSE(3)モーションベースでシーンの動きを表現することで,3次元動作の低次元構造を利用する。
第2に,単眼深度マップや長距離2Dトラックなどの既成データ駆動の先行データを利用して,これらのノイズを効果的に処理する方法を考案する。
論文 参考訳(メタデータ) (2024-07-18T17:59:08Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。