論文の概要: CAMM: Building Category-Agnostic and Animatable 3D Models from Monocular
Videos
- arxiv url: http://arxiv.org/abs/2304.06937v1
- Date: Fri, 14 Apr 2023 06:07:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 14:31:36.280630
- Title: CAMM: Building Category-Agnostic and Animatable 3D Models from Monocular
Videos
- Title(参考訳): CAMM:モノクロビデオからカテゴリー非依存でアニマタブルな3Dモデルを構築する
- Authors: Tianshu Kuai, Akash Karthikeyan, Yash Kant, Ashkan Mirzaei, Igor
Gilitschenski
- Abstract要約: そこで本研究では,任意の対象に対してアニマタブルなキネマティックチェインを学習する手法を提案する。
本手法は,多種多様な対象カテゴリーにおける最先端の3次元表面再構成法と同等である。
- 参考スコア(独自算出の注目度): 3.356334042188362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animating an object in 3D often requires an articulated structure, e.g. a
kinematic chain or skeleton of the manipulated object with proper skinning
weights, to obtain smooth movements and surface deformations. However, existing
models that allow direct pose manipulations are either limited to specific
object categories or built with specialized equipment. To reduce the work
needed for creating animatable 3D models, we propose a novel reconstruction
method that learns an animatable kinematic chain for any articulated object.
Our method operates on monocular videos without prior knowledge of the object's
shape or underlying structure. Our approach is on par with state-of-the-art 3D
surface reconstruction methods on various articulated object categories while
enabling direct pose manipulations by re-posing the learned kinematic chain.
- Abstract(参考訳): 3dでオブジェクトをアニメーションするには、操作対象のキネマティック・チェーンやスケルトンなどの関節構造を適切なスキニング重量で必要とし、滑らかな動きと表面変形を得る。
しかしながら、直接ポーズ操作を可能にする既存のモデルは、特定の対象カテゴリに限られるか、特別な機器で構築される。
そこで,3dモデル作成に必要な作業を減らすため,任意の調音物体に対してアニメーション可能なキネマティックチェーンを学習する新しい再構築手法を提案する。
本手法は,物体の形状や基礎構造を事前に知ることなく,単眼映像で動作する。
本手法は,学習したキネマティック・チェーンを再構成することで直接ポーズ操作が可能でありながら,様々な対象カテゴリーにおける最先端の3次元表面再構成手法と同等である。
関連論文リスト
- Hierarchically Structured Neural Bones for Reconstructing Animatable Objects from Casual Videos [37.455535904703204]
カジュアルなビデオを用いて任意のオブジェクトの3Dモデルを作成し,操作するための新しいフレームワークを提案する。
我々の中核となる要素は、木構造骨で物体の動きをキャプチャする新しい変形階層モデルである。
筆者らのフレームワークは,(1) 任意のオブジェクトのアニマタブルな3Dモデルを得ることができ,(2) ユーザは最小限のコストで直感的に3Dモデルを操作でき,(3) ユーザーは必要に応じてインタラクティブに制御ポイントを追加・削除することができる。
論文 参考訳(メタデータ) (2024-08-01T07:42:45Z) - REACTO: Reconstructing Articulated Objects from a Single Video [64.89760223391573]
関節の柔軟な変形を維持しつつ各部の剛性を向上する新しい変形モデルを提案する。
提案手法は, 従来よりも高忠実度な3D再構成を実現する上で, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T08:01:55Z) - HOLD: Category-agnostic 3D Reconstruction of Interacting Hands and
Objects from Video [70.11702620562889]
HOLD - 単分子インタラクションビデオから手とオブジェクトを共同で再構成する最初のカテゴリーに依存しない方法。
我々は,3次元手と物体を2次元画像から切り離すことができる構成的明瞭な暗黙モデルを開発した。
本手法は,3次元手オブジェクトアノテーションに頼らず,組込みと組込みの両面において,完全教師付きベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-30T10:50:35Z) - Reconstructing Animatable Categories from Videos [65.14948977749269]
アニマタブルな3Dモデルの構築は、3Dスキャン、精巧な登録、手動リグの必要性のために難しい。
本稿では,一眼レフビデオからカテゴリ3Dモデルを構築するRACについて述べる。
私たちは、人間、猫、犬の3Dモデルが50-100のインターネットビデオから学習できることを示します。
論文 参考訳(メタデータ) (2023-05-10T17:56:21Z) - Watch It Move: Unsupervised Discovery of 3D Joints for Re-Posing of
Articulated Objects [73.23249640099516]
複数視点からの移動を観察することで,これまで見えなかった物体の外観と構造の両方を学習する。
我々の洞察では、互いに相対的に動く隣り合う部分は関節で繋がらなければならない。
本手法は,四足歩行から単腕ロボット,人間に至るまで,さまざまな構造に対して有効であることを示す。
論文 参考訳(メタデータ) (2021-12-21T16:37:48Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - LASR: Learning Articulated Shape Reconstruction from a Monocular Video [97.92849567637819]
1つのビデオから3d形状を学習するためのテンプレートフリー手法を提案する。
本手法は,人間,動物,未知のクラスの映像から,非剛体3D構造を忠実に再構築する。
論文 参考訳(メタデータ) (2021-05-06T21:41:11Z) - Learning monocular 3D reconstruction of articulated categories from
motion [39.811816510186475]
ビデオの自己スーパービジョンは、動きに基づくサイクルロスによる連続した3次元再構成の一貫性を強要する。
少数の局所的学習可能なハンドルの変位を介して3D表面を制御する3Dテンプレート変形の解釈可能なモデルを紹介します。
多様な形状, 視点, テクスチャを具体化して, 複数の対象カテゴリーのテクスチャを再現する。
論文 参考訳(メタデータ) (2021-03-30T13:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。