論文の概要: Image-Plane Geometric Decoding for View-Invariant Indoor Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2509.25744v2
- Date: Mon, 27 Oct 2025 04:03:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 17:41:21.815499
- Title: Image-Plane Geometric Decoding for View-Invariant Indoor Scene Reconstruction
- Title(参考訳): ビュー不変な屋内シーン再構成のための画像平面幾何デコーディング
- Authors: Mingyang Li, Yimeng Fan, Changsong Liu, Lixue Xu, Xin Wang, Yanyan Liu, Wei Zhang,
- Abstract要約: ボリュームベースの屋内シーン再構築手法は、より優れた一般化能力とリアルタイムな展開可能性を提供する。
既存の手法では、空間的位置を決定するのに弱い幾何学的制約として、マルチビューのバックプロジェクション線交叉に依存している。
本稿では,画素レベルの信頼度,アフィン補償モジュール,イメージプレーン空間デコーダの3つのコアコンポーネントからなる画像平面デコードフレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.657247288761438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Volume-based indoor scene reconstruction methods offer superior generalization capability and real-time deployment potential. However, existing methods rely on multi-view pixel back-projection ray intersections as weak geometric constraints to determine spatial positions. This dependence results in reconstruction quality being heavily influenced by input view density. Performance degrades in overlapping regions and unobserved areas.To address these limitations, we reduce dependency on inter-view geometric constraints by exploiting spatial information within individual views. We propose an image-plane decoding framework with three core components: Pixel-level Confidence Encoder, Affine Compensation Module, and Image-Plane Spatial Decoder. These modules decode three-dimensional structural information encoded in images through physical imaging processes. The framework effectively preserves spatial geometric features including edges, hollow structures, and complex textures. It significantly enhances view-invariant reconstruction.Experiments on indoor scene reconstruction datasets confirm superior reconstruction stability. Our method maintains nearly identical quality when view count reduces by 40%. It achieves a coefficient of variation of 0.24%, performance retention rate of 99.7%, and maximum performance drop of 0.42%. These results demonstrate that exploiting intra-view spatial information provides a robust solution for view-limited scenarios in practical applications.
- Abstract(参考訳): ボリュームベースの屋内シーン再構築手法は、より優れた一般化能力とリアルタイムな展開可能性を提供する。
しかし、既存の手法は空間的位置を決定するのに弱い幾何学的制約としてマルチビュー・バックプロジェクション・レイの交叉に依存している。
この依存は、入力ビュー密度に大きく影響される再構成品質をもたらす。
これらの制約に対処するため、個々のビュー内の空間情報を活用することにより、ビュー間の幾何学的制約への依存を減らす。
本稿では,Pixelレベルの信頼度エンコーダ,アフィン補償モジュール,イメージプレーン空間デコーダの3つのコアコンポーネントからなる画像平面デコードフレームワークを提案する。
これらのモジュールは、物理的イメージングプロセスを通じて、画像に符号化された3次元構造情報をデコードする。
この枠組みは、エッジ、中空構造、複雑なテクスチャを含む空間幾何学的特徴を効果的に保存する。
室内シーン復元データセットの実験により, 良好な復元安定性が確認された。
本手法は,ビューカウントが40%削減された場合,ほぼ同じ品質を維持する。
変動係数は0.24%、性能保持率は99.7%、最大性能低下率は0.42%である。
これらの結果は、ビュー内空間情報を活用することで、実用的なアプリケーションにおけるビュー制限シナリオに対する堅牢なソリューションを提供することを示す。
関連論文リスト
- Deep Equilibrium Convolutional Sparse Coding for Hyperspectral Image Denoising [16.405355853358202]
ハイパースペクトル画像(HSI)はリモートセンシングにおいて重要な役割を果たすが、複雑なノイズパターンによって劣化することが多い。
分解されたHSIの物理的特性の確保は、強靭なHSIの分解に不可欠であり、深層展開法が台頭する。
本研究では,局所的空間スペクトル相関,非局所的空間自己相似性,大域的空間一貫性を統一するDeep Equilibrium Convolutional Sparse Coding(DECSC)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-21T13:35:11Z) - Boosting Multi-View Indoor 3D Object Detection via Adaptive 3D Volume Construction [10.569056109735735]
本研究では,適応型3次元ボリューム構造に基づく室内3次元物体検出フレームワークであるSGCDetを提案する。
各画像の適応領域に幾何学的・文脈的情報を統合するための幾何学的・文脈的アグリゲーションモジュールを導入する。
SGCDetは、ScanNet、ScanNet200、ARKitScenesデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-07-24T11:58:01Z) - HiNeuS: High-fidelity Neural Surface Mitigating Low-texture and Reflective Ambiguity [8.74691272469226]
HiNeuSは、既存のアプローチにおける3つの中核的な制限に、一貫したフレームワークである。
1) SDF誘導線トレーシングによる微分可視性検証, 2) レイアライン幾何パッチによる平面コンフォーマルな正規化, 3) 局所勾配に基づく幾何的制約を動的に調節する物理的に接地されたアイコン緩和。
論文 参考訳(メタデータ) (2025-06-30T13:45:25Z) - 3D Occupancy Prediction with Low-Resolution Queries via Prototype-aware View Transformation [16.69186493462387]
本稿では,階層化された画像セグメントのプロトタイプをビュー変換に活用し,低解像度のコンテキストを向上する新しい占有ネットワークであるProtoOccを紹介する。
特に、2Dプロトタイプの3Dボクセルクエリへのマッピングは、高レベルなビジュアルジオメトリを符号化し、クエリの解像度の低下から空間情報の損失を補う。
ProtoOcc は 75% のボクセル分解能が低下しても, ベースラインに対する競争性能が向上することを示す。
論文 参考訳(メタデータ) (2025-03-19T13:14:57Z) - 360Recon: An Accurate Reconstruction Method Based on Depth Fusion from 360 Images [10.564434148892362]
360度画像は、従来のピンホールカメラに比べてはるかに広い視野を提供する。
これにより、VR、AR、および関連分野のアプリケーションにとって重要である。
ERP画像のための革新的MVSアルゴリズムである360Reconを提案する。
論文 参考訳(メタデータ) (2024-11-28T12:30:45Z) - Efficient Visual State Space Model for Image Deblurring [99.54894198086852]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
提案したEVSSMは、ベンチマークデータセットや実世界の画像に対する最先端の手法に対して好意的に機能する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。