論文の概要: 4DPV: 4D Pet from Videos by Coarse-to-Fine Non-Rigid Radiance Fields
- arxiv url: http://arxiv.org/abs/2411.10275v1
- Date: Fri, 15 Nov 2024 15:31:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-18 15:38:04.197837
- Title: 4DPV: 4D Pet from Videos by Coarse-to-Fine Non-Rigid Radiance Fields
- Title(参考訳): 4DPV:大きめの非デジタル放射場によるビデオからの4Dペット
- Authors: Sergio M. de Paco, Antonio Agudo,
- Abstract要約: 野生の複数のRGB配列からカメラのポーズと未知の物体の4次元再構成を復元するための粗大なニューラルモデルを提案する。
提案手法では,事前構築した3Dテンプレートや3Dトレーニングデータ,制御条件を考慮しない。
複素および実世界の変形を伴う挑戦シナリオにおいて,本手法を徹底的に検証する。
- 参考スコア(独自算出の注目度): 16.278222277579655
- License:
- Abstract: We present a coarse-to-fine neural deformation model to simultaneously recover the camera pose and the 4D reconstruction of an unknown object from multiple RGB sequences in the wild. To that end, our approach does not consider any pre-built 3D template nor 3D training data as well as controlled illumination conditions, and can sort out the problem in a self-supervised manner. Our model exploits canonical and image-variant spaces where both coarse and fine components are considered. We introduce a neural local quadratic model with spatio-temporal consistency to encode fine details that is combined with canonical embeddings in order to establish correspondences across sequences. We thoroughly validate the method on challenging scenarios with complex and real-world deformations, providing both quantitative and qualitative evaluations, an ablation study and a comparison with respect to competing approaches. Our project is available at https://github.com/smontode24/4DPV.
- Abstract(参考訳): 野生の複数のRGB配列からカメラのポーズと未知の物体の4次元再構成を同時に再現する粗大なニューラル変形モデルを提案する。
そこで本研究では,事前に構築した3Dテンプレートや3Dトレーニングデータだけでなく,照明条件の制御も考慮せず,自己管理的な方法で問題をソートすることができる。
我々のモデルは、粗いコンポーネントと細かなコンポーネントの両方が考慮される標準空間と画像不変空間を利用する。
時空間整合性を持つニューラル局所二次モデルを導入し, 細部を符号化し, 正準埋め込みと組み合わせ, シーケンス間の対応性を確立する。
複雑かつ現実的な変形を伴う挑戦シナリオについて,定量的かつ定性的な評価,アブレーション研究,競合するアプローチとの比較を徹底的に検証した。
私たちのプロジェクトはhttps://github.com/smontode24/4DPVで利用可能です。
関連論文リスト
- No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - Object-Centric Domain Randomization for 3D Shape Reconstruction in the Wild [22.82439286651921]
ワンビュー3次元形状復元における最大の課題の1つは、現実世界の環境から得られる3次元形状2次元画像データの不足である。
ドメインランダム化による顕著な成果にインスパイアされたObjectDRは、オブジェクトの外観や背景の視覚的変化をランダムにシミュレーションすることで、そのようなペア化されたデータを合成する。
論文 参考訳(メタデータ) (2024-03-21T16:40:10Z) - FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - 3D Surface Reconstruction in the Wild by Deforming Shape Priors from
Synthetic Data [24.97027425606138]
1枚の画像から被写体の3次元表面を再構築することは難しい問題である。
本稿では,1枚の画像から3次元合成とオブジェクトポーズ推定を行う新しい手法を提案する。
提案手法は,複数の実世界のデータセットにまたがって,最先端の再構築性能を実現する。
論文 参考訳(メタデータ) (2023-02-24T20:37:27Z) - $PC^2$: Projection-Conditioned Point Cloud Diffusion for Single-Image 3D
Reconstruction [97.06927852165464]
単一のRGB画像から物体の3次元形状を再構築することは、コンピュータビジョンにおける長年の課題である。
条件付き偏光拡散プロセスによりスパース点雲を生成する単一像3次元再構成法を提案する。
論文 参考訳(メタデータ) (2023-02-21T13:37:07Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。