論文の概要: Refine Any Object in Any Scene
- arxiv url: http://arxiv.org/abs/2506.23835v1
- Date: Mon, 30 Jun 2025 13:26:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.074465
- Title: Refine Any Object in Any Scene
- Title(参考訳): あらゆる場面でオブジェクトをリファインする
- Authors: Ziwei Chen, Ziling Liu, Zitong Huang, Mingqi Gao, Feng Zheng,
- Abstract要約: Refine Any Object In Any ScenE (RAISE) は、細粒度オブジェクトの形状と外観を失くしたビューで復元する新しい3D拡張フレームワークである。
RAISEは、各プロキシを7-DOFのポーズで劣化したプロキシにアライメントすることで、幾何やテクスチャを徐々に洗練する。
挑戦的なベンチマーク実験により、RAISEは新しいビュー合成と幾何完成タスクの両方において最先端の手法を著しく上回っていることが示された。
- 参考スコア(独自算出の注目度): 39.109559659959
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Viewpoint missing of objects is common in scene reconstruction, as camera paths typically prioritize capturing the overall scene structure rather than individual objects. This makes it highly challenging to achieve high-fidelity object-level modeling while maintaining accurate scene-level representation. Addressing this issue is critical for advancing downstream tasks requiring detailed object understanding and appearance modeling. In this paper, we introduce Refine Any object In any ScenE (RAISE), a novel 3D enhancement framework that leverages 3D generative priors to recover fine-grained object geometry and appearance under missing views. Starting from substituting degraded objects with proxies, via a 3D generative model with strong 3D understanding, RAISE progressively refines geometry and texture by aligning each proxy to its degraded counterpart in 7-DOF pose, followed by correcting spatial and appearance inconsistencies via registration-constrained enhancement. This two-stage refinement ensures the high-fidelity geometry and appearance of the original object in unseen views while maintaining consistency in spatial positioning, observed geometry, and appearance. Extensive experiments on challenging benchmarks show that RAISE significantly outperforms state-of-the-art methods in both novel view synthesis and geometry completion tasks. RAISE is made publicly available at https://github.com/PolySummit/RAISE.
- Abstract(参考訳): カメラパスは通常、個々のオブジェクトではなく、全体のシーン構造をキャプチャすることを優先する。
これにより、正確なシーンレベルの表現を維持しながら、高忠実度オブジェクトレベルのモデリングを実現することが極めて困難になる。
この問題に対処することは、詳細なオブジェクト理解と外観モデリングを必要とする下流タスクを進めるために重要である。
本稿では,3次元生成前処理を生かした新しい3次元拡張フレームワークであるRefine Any Object In Any ScenE(RAISE)を紹介する。
RAISEは、プロキシによる劣化したオブジェクトの置換から始まり、強力な3D理解を持つ3D生成モデルを通じて、各プロキシを7-DOFポーズで劣化したオブジェクトに整列させ、次いで登録制約付き拡張によって空間的および外観上の不整合を補正することで、幾何とテクスチャを段階的に洗練する。
この2段階の改良により、空間的位置、観察された幾何学、外観の整合性を維持しながら、目に見えない視点において、元の物体の高忠実な形状と外観が保証される。
挑戦的なベンチマークに関する大規模な実験により、RAISEは新しいビュー合成と幾何完成タスクの両方において最先端の手法を著しく上回っていることが示された。
RAISEはhttps://github.com/PolySummit/RAISEで公開されている。
関連論文リスト
- Rethinking Multimodal Point Cloud Completion: A Completion-by-Correction Perspective [8.276620253870338]
ポイント雲の完成は、部分的な観測から完全な3次元形状を再構築することを目的としている。
ほとんどのメソッドは、いまだにCompletion-by-Inpaintingパラダイムに従っている。
完全形状から始まるコンプリーション・バイ・コレクション(Completion-by-Correction)を提案する。
論文 参考訳(メタデータ) (2025-11-15T11:51:13Z) - IGGT: Instance-Grounded Geometry Transformer for Semantic 3D Reconstruction [82.53307702809606]
人間は自然に3次元世界の幾何学的構造と意味的内容を中間次元として知覚する。
本稿では,空間再構成とインスタンスレベルの文脈理解の両面での知識を統合するために,IGGT (InstanceGrounded Geometry Transformer) を提案する。
論文 参考訳(メタデータ) (2025-10-26T14:57:44Z) - WorldGrow: Generating Infinite 3D World [75.81531067447203]
我々は、無限に拡張可能な3D世界、すなわちコヒーレントな幾何学と現実的な外観を持つ大規模で連続的な環境を生み出すという課題に取り組む。
本研究では,非有界な3次元シーン合成のための階層的フレームワークWorldGrowを提案する。
提案手法は,(1)高品質なシーンブロックを抽出し,シーン生成に適した3D構造化潜在表現を作成するデータキュレーションパイプライン,(2)コンテキスト認識シーン拡張を可能にする3Dブロックインペイント機構,(3)グローバルなレイアウトの妥当性と局所幾何学的/音声的忠実性の両立を保証する粗大かつ微細な生成戦略,の3つのコアコンポーネントを特徴とする。
論文 参考訳(メタデータ) (2025-10-24T17:39:52Z) - Structural Energy-Guided Sampling for View-Consistent Text-to-3D [18.973527029488746]
テキスト・トゥ・3D生成はしばしばジャヌス問題に悩まされ、オブジェクトが他の角度から重複または歪んだ幾何学に崩壊する。
本研究では, 実時間で完全にマルチビューの整合性を実現する学習自由なプラグイン・アンド・プレイフレームワークSEGSを提案する。
論文 参考訳(メタデータ) (2025-08-23T06:26:04Z) - Object-X: Learning to Reconstruct Multi-Modal 3D Object Representations [112.29763628638112]
Object-Xは多目的なマルチモーダル3D表現フレームワークである。
リッチなオブジェクトの埋め込みをエンコードして、幾何学的および視覚的再構成に復号することができる。
シーンアライメント、シングルイメージの3Dオブジェクト再構成、ローカライゼーションなど、さまざまなダウンストリームタスクをサポートする。
論文 参考訳(メタデータ) (2025-06-05T09:14:42Z) - Learning Fine-Grained Geometry for Sparse-View Splatting via Cascade Depth Loss [15.425094458647933]
粗い部分から細かい部分まで幾何を段階的に洗練する深度監視フレームワークである階層深度誘導平滑化(HDGS)を導入する。
マルチスケールの奥行き整合性を実現することにより,スパースビューのシナリオにおける構造的忠実度を大幅に改善する。
論文 参考訳(メタデータ) (2025-05-28T12:16:42Z) - HiScene: Creating Hierarchical 3D Scenes with Isometric View Generation [50.206100327643284]
HiSceneは、2D画像生成と3Dオブジェクト生成のギャップを埋める新しい階層的なフレームワークである。
構成構造を維持しながら2次元表現に整合した3次元コンテンツを生成する。
論文 参考訳(メタデータ) (2025-04-17T16:33:39Z) - Online 3D Scene Reconstruction Using Neural Object Priors [83.14204014687938]
本稿では,RGB-Dビデオシーケンスが与えられたオブジェクトのレベルにおいて,オンラインでシーンを再構成する問題に対処する。
本稿では,新しい対象部品が明らかになれば,オブジェクト中心の暗黙表現を継続的に更新する特徴グリッド機構を提案する。
提案手法は, 再建精度と完全性の観点から, 最先端のニューラル暗黙モデルより優れている。
論文 参考訳(メタデータ) (2025-03-24T17:09:36Z) - REArtGS: Reconstructing and Generating Articulated Objects via 3D Gaussian Splatting with Geometric and Motion Constraints [48.80178020541189]
REArtGSは、幾何学的および運動的制約を3Dガウスプリミティブに導入する新しいフレームワークである。
我々は,3次元ガウス多様体の変形可能場を定式化対象の運動構造に拘束し,未知の状態における表面メッシュの教師なし生成を実現する。
論文 参考訳(メタデータ) (2025-03-09T16:05:36Z) - CAST: Component-Aligned 3D Scene Reconstruction from an RGB Image [44.8172828045897]
現在のメソッドはドメイン固有の制限や低品質のオブジェクト生成に悩まされることが多い。
本稿では,3次元シーンの復元と復元のための新しい手法であるCASTを提案する。
論文 参考訳(メタデータ) (2025-02-18T14:29:52Z) - Gaussian Object Carver: Object-Compositional Gaussian Splatting with surfaces completion [16.379647695019308]
3Dシーンの再構築はコンピュータビジョンの基本的な問題である。
本稿では,Gaussian Object Carver (GOC)を紹介した。
GOCは、高品質で柔軟な再構築を実現するために、モノクラー幾何学の先行と多視点幾何学の正規化に富んだ3Dガウススプラッティング(GS)を利用する。
論文 参考訳(メタデータ) (2024-12-03T01:34:39Z) - Zero-Shot Multi-Object Scene Completion [59.325611678171974]
1枚のRGB-D画像から複雑なシーンにおける複数の見えない物体の完全な形状を復元する3Dシーン補完法を提案する。
提案手法は, 合成および実世界の両方のデータセットにおいて, 現在の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2024-03-21T17:59:59Z) - Single-view 3D Scene Reconstruction with High-fidelity Shape and Texture [47.44029968307207]
本研究では,物体の形状とテクスチャを同時に高忠実度に再現する新しい枠組みを提案する。
提案手法は,SSR(Single-view Neural implicit Shape and Radiance Field)表現を用いて,明示的な3次元形状制御とボリュームレンダリングの両方を活用する。
我々のフレームワークの特徴は、単一のビュー3D再構成モデルにレンダリング機能をシームレスに統合しながら、きめ細かいテクスチャメッシュを生成する能力である。
論文 参考訳(メタデータ) (2023-11-01T11:46:15Z) - Single-view 3D Mesh Reconstruction for Seen and Unseen Categories [69.29406107513621]
シングルビュー3Dメッシュ再構成は、シングルビューRGB画像から3D形状を復元することを目的とした、基本的なコンピュータビジョンタスクである。
本稿では,一視点3Dメッシュ再構成に取り組み,未知のカテゴリのモデル一般化について検討する。
我々は、再構築におけるカテゴリ境界を断ち切るために、エンドツーエンドの2段階ネットワークであるGenMeshを提案する。
論文 参考訳(メタデータ) (2022-08-04T14:13:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。