論文の概要: Object Reconstruction under Occlusion with Generative Priors and Contact-induced Constraints
- arxiv url: http://arxiv.org/abs/2512.05079v1
- Date: Thu, 04 Dec 2025 18:45:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.321335
- Title: Object Reconstruction under Occlusion with Generative Priors and Contact-induced Constraints
- Title(参考訳): 生成優先条件と接触拘束条件を併用した物体再構成
- Authors: Minghan Zhu, Zhiyi Wang, Qihang Sun, Maani Ghaffari, Michael Posa,
- Abstract要約: 本稿では、視覚信号のあいまいさを軽減するために、2つの余分な情報源を利用する。
まず、生成モデルは、よく見られる物体の形状の先行を学習し、幾何学の見当たらない部分について合理的な推測をすることができる。
第二に、ビデオと物理的相互作用から得られる接触情報は、幾何学の境界にスパース制約を与える。
- 参考スコア(独自算出の注目度): 20.702086497025494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Object geometry is key information for robot manipulation. Yet, object reconstruction is a challenging task because cameras only capture partial observations of objects, especially when occlusion occurs. In this paper, we leverage two extra sources of information to reduce the ambiguity of vision signals. First, generative models learn priors of the shapes of commonly seen objects, allowing us to make reasonable guesses of the unseen part of geometry. Second, contact information, which can be obtained from videos and physical interactions, provides sparse constraints on the boundary of the geometry. We combine the two sources of information through contact-guided 3D generation. The guidance formulation is inspired by drag-based editing in generative models. Experiments on synthetic and real-world data show that our approach improves the reconstruction compared to pure 3D generation and contact-based optimization.
- Abstract(参考訳): オブジェクト幾何学はロボット操作の鍵となる情報である。
しかし、カメラが物体の部分的な観察のみを捉えているため、物体の復元は難しい作業である。
本稿では、視覚信号のあいまいさを軽減するために、2つの余分な情報源を利用する。
まず、生成モデルは、よく見られる物体の形状の先行を学習し、幾何学の見当たらない部分について合理的な推測をすることができる。
第二に、ビデオと物理的相互作用から得られる接触情報は、幾何学の境界にスパース制約を与える。
接触誘導3D生成により2つの情報ソースを結合する。
ガイダンスの定式化は、ジェネレーティブモデルにおけるドラッグベースの編集にインスパイアされている。
合成および実世界のデータを用いた実験により,本手法は純粋な3次元生成と接触に基づく最適化と比較して再構成を改善することが示された。
関連論文リスト
- VideoArtGS: Building Digital Twins of Articulated Objects from Monocular Video [60.63575135514847]
モノクロビデオから音声化されたオブジェクトのデジタルツインを構築することは、コンピュータビジョンにおいて重要な課題である。
本稿では,モノクロ映像から高忠実度デジタル双対を再構成する新しい手法であるVideoArtGSを紹介する。
VideoArtGSは、調音およびメッシュ再構成における最先端性能を示し、既存の方法に比べて約2桁の再現誤差を低減している。
論文 参考訳(メタデータ) (2025-09-22T11:52:02Z) - Online 3D Scene Reconstruction Using Neural Object Priors [83.14204014687938]
本稿では,RGB-Dビデオシーケンスが与えられたオブジェクトのレベルにおいて,オンラインでシーンを再構成する問題に対処する。
本稿では,新しい対象部品が明らかになれば,オブジェクト中心の暗黙表現を継続的に更新する特徴グリッド機構を提案する。
提案手法は, 再建精度と完全性の観点から, 最先端のニューラル暗黙モデルより優れている。
論文 参考訳(メタデータ) (2025-03-24T17:09:36Z) - GREAT: Geometry-Intention Collaborative Inference for Open-Vocabulary 3D Object Affordance Grounding [53.42728468191711]
Open-Vocabulary 3D object affordance groundingは、任意の命令で3Dオブジェクト上のアクション可能性の領域を予測することを目的としている。
GREAT (GeometRy-intEntion collAboraTive Inference) を提案する。
論文 参考訳(メタデータ) (2024-11-29T11:23:15Z) - GeoGen: Geometry-Aware Generative Modeling via Signed Distance Functions [22.077366472693395]
単一ビューコレクションから3次元形状と画像を合成するための新しい生成手法を提案する。
ニューラルラディアンス場を用いたボリュームレンダリングを用いることで、生成した幾何学はノイズが多く、制約がないという重要な制限を継承する。
エンド・ツー・エンドで訓練された新しいSDFベースの3D生成モデルであるGeoGenを提案する。
論文 参考訳(メタデータ) (2024-06-06T17:00:10Z) - REACTO: Reconstructing Articulated Objects from a Single Video [64.89760223391573]
関節の柔軟な変形を維持しつつ各部の剛性を向上する新しい変形モデルを提案する。
提案手法は, 従来よりも高忠実度な3D再構成を実現する上で, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T08:01:55Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。