論文の概要: IPDRecon: Image-Plane Geometric Decoding for View-Invariant Indoor Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2509.25744v1
- Date: Tue, 30 Sep 2025 04:01:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.010197
- Title: IPDRecon: Image-Plane Geometric Decoding for View-Invariant Indoor Scene Reconstruction
- Title(参考訳): IPDRecon:ビュー不変の室内シーン再構成のための画像平面幾何デコーディング
- Authors: Mingyang Li, Yimeng Fan, Changsong Liu, Tianyu Zhou, Xin Wang, Yanyan Liu, Wei Zhang,
- Abstract要約: 3つのコアコンポーネントからなる画像プレーンデコードフレームワークであるPDReconを提案する。
IPDReconは、ビューカウントが40%削減された場合、ほぼ同じ品質を維持しながら、より優れた再構築安定性を実現する。
- 参考スコア(独自算出の注目度): 14.596329258751524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Volume-based indoor scene reconstruction methods demonstrate significant research value due to their superior generalization capability and real-time deployment potential. However, existing methods rely on multi-view pixel back-projection ray intersections as weak geometric constraints to determine spatial positions, causing reconstruction quality to depend heavily on input view density with poor performance in overlapping regions and unobserved areas. To address these issues, the key lies in reducing dependency on inter-view geometric constraints while exploiting rich spatial information within individual views. We propose IPDRecon, an image-plane decoding framework comprising three core components: Pixel-level Confidence Encoder (PCE), Affine Compensation Module (ACM), and Image-Plane Spatial Decoder (IPSD). These modules collaboratively decode 3D structural information encoded in 2D images through physical imaging processes, effectively preserving spatial geometric features including edges, hollow structures, and complex textures while significantly enhancing view-invariant reconstruction. Experiments on ScanNetV2 confirm that IPDRecon achieves superior reconstruction stability, maintaining nearly identical quality when view count reduces by 40%. The method achieves a coefficient of variation of only 0.24%, performance retention rate of 99.7%, and maximum performance drop of merely 0.42%. This demonstrates that exploiting intra-view spatial information provides a robust solution for view-limited scenarios in practical applications.
- Abstract(参考訳): ボリュームに基づく屋内シーン再構築手法は, より優れた一般化能力とリアルタイム展開の可能性から, 重要な研究価値を示す。
しかし、既存の手法では、空間的位置を決定するのに弱い幾何学的制約としてマルチビュー・バックプロジェクション・レイ・交差点を頼りにしており、重なり合う領域や観測されていない領域での性能が低い入力ビュー密度に大きく依存する。
これらの問題に対処するためには、ビュー間の幾何学的制約への依存を減らすと同時に、個々のビュー内の豊富な空間情報を活用することが重要である。
IPDReconは,3つのコアコンポーネントからなる画像平面デコードフレームワークである。 画素レベルの信頼エンコーダ(PCE),アフィン補償モジュール(ACM),イメージプレーン空間デコーダ(IPSD)である。
これらのモジュールは、物理的イメージングプロセスを通じて2次元画像に符号化された3D構造情報を協調的に復号し、エッジ、中空構造、複雑なテクスチャを含む空間的特徴を効果的に保存し、ビュー不変の再構成を大幅に強化する。
ScanNetV2の実験では、IDDReconは、ビューカウントが40%削減された場合、ほぼ同じ品質を維持しながら、より優れた再構築安定性を実現することを確認した。
この方法は、わずか0.24%、性能保持率99.7%、最大性能低下率0.42%である。
このことは、ビュー内空間情報の利用が、実用的なアプリケーションにおけるビュー制限シナリオに対する堅牢なソリューションを提供することを示している。
関連論文リスト
- Deep Equilibrium Convolutional Sparse Coding for Hyperspectral Image Denoising [16.405355853358202]
ハイパースペクトル画像(HSI)はリモートセンシングにおいて重要な役割を果たすが、複雑なノイズパターンによって劣化することが多い。
分解されたHSIの物理的特性の確保は、強靭なHSIの分解に不可欠であり、深層展開法が台頭する。
本研究では,局所的空間スペクトル相関,非局所的空間自己相似性,大域的空間一貫性を統一するDeep Equilibrium Convolutional Sparse Coding(DECSC)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-21T13:35:11Z) - Boosting Multi-View Indoor 3D Object Detection via Adaptive 3D Volume Construction [10.569056109735735]
本研究では,適応型3次元ボリューム構造に基づく室内3次元物体検出フレームワークであるSGCDetを提案する。
各画像の適応領域に幾何学的・文脈的情報を統合するための幾何学的・文脈的アグリゲーションモジュールを導入する。
SGCDetは、ScanNet、ScanNet200、ARKitScenesデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-24T11:58:01Z) - HiNeuS: High-fidelity Neural Surface Mitigating Low-texture and Reflective Ambiguity [8.74691272469226]
HiNeuSは、既存のアプローチにおける3つの中核的な制限に、一貫したフレームワークである。
1) SDF誘導線トレーシングによる微分可視性検証, 2) レイアライン幾何パッチによる平面コンフォーマルな正規化, 3) 局所勾配に基づく幾何的制約を動的に調節する物理的に接地されたアイコン緩和。
論文 参考訳(メタデータ) (2025-06-30T13:45:25Z) - 3D Occupancy Prediction with Low-Resolution Queries via Prototype-aware View Transformation [16.69186493462387]
本稿では,階層化された画像セグメントのプロトタイプをビュー変換に活用し,低解像度のコンテキストを向上する新しい占有ネットワークであるProtoOccを紹介する。
特に、2Dプロトタイプの3Dボクセルクエリへのマッピングは、高レベルなビジュアルジオメトリを符号化し、クエリの解像度の低下から空間情報の損失を補う。
ProtoOcc は 75% のボクセル分解能が低下しても, ベースラインに対する競争性能が向上することを示す。
論文 参考訳(メタデータ) (2025-03-19T13:14:57Z) - 360Recon: An Accurate Reconstruction Method Based on Depth Fusion from 360 Images [10.564434148892362]
360度画像は、従来のピンホールカメラに比べてはるかに広い視野を提供する。
これにより、VR、AR、および関連分野のアプリケーションにとって重要である。
ERP画像のための革新的MVSアルゴリズムである360Reconを提案する。
論文 参考訳(メタデータ) (2024-11-28T12:30:45Z) - Efficient Visual State Space Model for Image Deblurring [99.54894198086852]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
提案したEVSSMは、ベンチマークデータセットや実世界の画像に対する最先端の手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。