論文の概要: Refine Any Object in Any Scene
- arxiv url: http://arxiv.org/abs/2506.23835v1
- Date: Mon, 30 Jun 2025 13:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.074465
- Title: Refine Any Object in Any Scene
- Title(参考訳): あらゆる場面でオブジェクトをリファインする
- Authors: Ziwei Chen, Ziling Liu, Zitong Huang, Mingqi Gao, Feng Zheng,
- Abstract要約: Refine Any Object In Any ScenE (RAISE) は、細粒度オブジェクトの形状と外観を失くしたビューで復元する新しい3D拡張フレームワークである。
RAISEは、各プロキシを7-DOFのポーズで劣化したプロキシにアライメントすることで、幾何やテクスチャを徐々に洗練する。
挑戦的なベンチマーク実験により、RAISEは新しいビュー合成と幾何完成タスクの両方において最先端の手法を著しく上回っていることが示された。
- 参考スコア(独自算出の注目度): 39.109559659959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Viewpoint missing of objects is common in scene reconstruction, as camera paths typically prioritize capturing the overall scene structure rather than individual objects. This makes it highly challenging to achieve high-fidelity object-level modeling while maintaining accurate scene-level representation. Addressing this issue is critical for advancing downstream tasks requiring detailed object understanding and appearance modeling. In this paper, we introduce Refine Any object In any ScenE (RAISE), a novel 3D enhancement framework that leverages 3D generative priors to recover fine-grained object geometry and appearance under missing views. Starting from substituting degraded objects with proxies, via a 3D generative model with strong 3D understanding, RAISE progressively refines geometry and texture by aligning each proxy to its degraded counterpart in 7-DOF pose, followed by correcting spatial and appearance inconsistencies via registration-constrained enhancement. This two-stage refinement ensures the high-fidelity geometry and appearance of the original object in unseen views while maintaining consistency in spatial positioning, observed geometry, and appearance. Extensive experiments on challenging benchmarks show that RAISE significantly outperforms state-of-the-art methods in both novel view synthesis and geometry completion tasks. RAISE is made publicly available at https://github.com/PolySummit/RAISE.
- Abstract(参考訳): カメラパスは通常、個々のオブジェクトではなく、全体のシーン構造をキャプチャすることを優先する。
これにより、正確なシーンレベルの表現を維持しながら、高忠実度オブジェクトレベルのモデリングを実現することが極めて困難になる。
この問題に対処することは、詳細なオブジェクト理解と外観モデリングを必要とする下流タスクを進めるために重要である。
本稿では,3次元生成前処理を生かした新しい3次元拡張フレームワークであるRefine Any Object In Any ScenE(RAISE)を紹介する。
RAISEは、プロキシによる劣化したオブジェクトの置換から始まり、強力な3D理解を持つ3D生成モデルを通じて、各プロキシを7-DOFポーズで劣化したオブジェクトに整列させ、次いで登録制約付き拡張によって空間的および外観上の不整合を補正することで、幾何とテクスチャを段階的に洗練する。
この2段階の改良により、空間的位置、観察された幾何学、外観の整合性を維持しながら、目に見えない視点において、元の物体の高忠実な形状と外観が保証される。
挑戦的なベンチマークに関する大規模な実験により、RAISEは新しいビュー合成と幾何完成タスクの両方において最先端の手法を著しく上回っていることが示された。
RAISEはhttps://github.com/PolySummit/RAISEで公開されている。
関連論文リスト
- Object-X: Learning to Reconstruct Multi-Modal 3D Object Representations [112.29763628638112]
Object-Xは多目的なマルチモーダル3D表現フレームワークである。
リッチなオブジェクトの埋め込みをエンコードして、幾何学的および視覚的再構成に復号することができる。
シーンアライメント、シングルイメージの3Dオブジェクト再構成、ローカライゼーションなど、さまざまなダウンストリームタスクをサポートする。
論文 参考訳(メタデータ) (2025-06-05T09:14:42Z) - HiScene: Creating Hierarchical 3D Scenes with Isometric View Generation [50.206100327643284]
HiSceneは、2D画像生成と3Dオブジェクト生成のギャップを埋める新しい階層的なフレームワークである。
構成構造を維持しながら2次元表現に整合した3次元コンテンツを生成する。
論文 参考訳(メタデータ) (2025-04-17T16:33:39Z) - CAST: Component-Aligned 3D Scene Reconstruction from an RGB Image [44.8172828045897]
現在のメソッドはドメイン固有の制限や低品質のオブジェクト生成に悩まされることが多い。
本稿では,3次元シーンの復元と復元のための新しい手法であるCASTを提案する。
論文 参考訳(メタデータ) (2025-02-18T14:29:52Z) - Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。