論文の概要: AiSDF: Structure-aware Neural Signed Distance Fields in Indoor Scenes
- arxiv url: http://arxiv.org/abs/2403.01861v1
- Date: Mon, 4 Mar 2024 09:18:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 19:28:40.837898
- Title: AiSDF: Structure-aware Neural Signed Distance Fields in Indoor Scenes
- Title(参考訳): aisdf:室内シーンにおける構造認識ニューラルサイン付き距離場
- Authors: Jaehoon Jang, Inha Lee, Minje Kim, Kyungdon Joo
- Abstract要約: 本研究では,屋内シーンを対象とした構造化対応オンライン署名距離場 (SDF) 再構築フレームワークを提案する。
アトランタ構造を推定し,アトランタ構造を支える平面的サーベイル領域を推定する。
提案手法は, 暗黙的にオブジェクトの細部を再構築し, ルームスケールのシーンで明示的に構造を再構築できることを示す。
- 参考スコア(独自算出の注目度): 20.939706866015662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Indoor scenes we are living in are visually homogenous or textureless, while
they inherently have structural forms and provide enough structural priors for
3D scene reconstruction. Motivated by this fact, we propose a structure-aware
online signed distance fields (SDF) reconstruction framework in indoor scenes,
especially under the Atlanta world (AW) assumption. Thus, we dub this
incremental SDF reconstruction for AW as AiSDF. Within the online framework, we
infer the underlying Atlanta structure of a given scene and then estimate
planar surfel regions supporting the Atlanta structure. This Atlanta-aware
surfel representation provides an explicit planar map for a given scene. In
addition, based on these Atlanta planar surfel regions, we adaptively sample
and constrain the structural regularity in the SDF reconstruction, which
enables us to improve the reconstruction quality by maintaining a high-level
structure while enhancing the details of a given scene. We evaluate the
proposed AiSDF on the ScanNet and ReplicaCAD datasets, where we demonstrate
that the proposed framework is capable of reconstructing fine details of
objects implicitly, as well as structures explicitly in room-scale scenes.
- Abstract(参考訳): 私たちが住んでいる屋内シーンは、視覚的に均質またはテクスチャがなく、本質的に構造的な形状を持ち、3dシーンの再構築に十分な構造的優先を提供する。
そこで本研究では,特にアトランタ・ワールド(AW)の仮定の下で,屋内シーンにおけるSDF(Standard distance Field)再構成フレームワークを提案する。
そこで我々は,AiSDFとしてAWの段階的SDF再構成を行った。
オンラインフレームワーク内では、所定のシーンのアトランタ構造を推測し、アトランタ構造をサポートする平面サーフィン領域を推定します。
このアトランタを意識したサーフェル表現は、与えられたシーンに対して明示的な平面マップを提供する。
さらに,アトランタの平面サーベイル領域をベースとして,SDF再建における構造規則性を適応的にサンプリングし,制約することにより,シーンの細部を拡大しながら高レベル構造を維持することで,復元品質を向上させることができる。
提案したAiSDFをScanNetおよびReplicaCADデータセット上で評価し,提案フレームワークが暗黙的にオブジェクトの細部を再構築できることを示す。
関連論文リスト
- NC-SDF: Enhancing Indoor Scene Reconstruction Using Neural SDFs with View-Dependent Normal Compensation [13.465401006826294]
我々は、ビュー依存正規補償(NC)を用いたニューラルサイン付き距離場(SDF)3次元再構成フレームワークNC-SDFを提案する。
適応的にバイアスを学習し、修正することにより、NC-SDFは、一貫性のない監督の悪影響を効果的に軽減する。
合成および実世界のデータセットの実験により、NC-SDFは復元品質において既存のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2024-05-01T06:26:35Z) - StructRe: Rewriting for Structured Shape Modeling [63.792684115318906]
本稿では,構造化形状モデリングの新しいアプローチとして,構造書換えシステムであるStructReを提案する。
ポイントとコンポーネントで表される3Dオブジェクトが与えられたら、StructReはそれを上向きに、より簡潔な構造に書き直すか、より詳細な構造に書き直すことができる。
論文 参考訳(メタデータ) (2023-11-29T10:35:00Z) - Lazy Visual Localization via Motion Averaging [89.8709956317671]
本研究では,データベースからシーンを再構築することなく,高精度なローカライゼーションを実現することができることを示す。
実験の結果、我々の視覚的ローカライゼーションの提案であるLazyLocは、最先端の構造に基づく手法に対して同等のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-07-19T13:40:45Z) - gSDF: Geometry-Driven Signed Distance Functions for 3D Hand-Object
Reconstruction [94.46581592405066]
我々は手の構造を利用してSDFによる形状復元の指導を行う。
我々は、ポーズ変換のキネマティック連鎖を予測し、SDFを高調波ハンドポーズと整列させる。
論文 参考訳(メタデータ) (2023-04-24T10:05:48Z) - P$^2$SDF for Neural Indoor Scene Reconstruction [29.355255923026597]
そこで本研究では,屋内シーン再構築のためのPseudo Plane-regularized Signed Distance Field (P$2$SDF)を提案する。
P$2$SDFはマンハッタンのシーンで競争力のある再現性能を発揮することを示す実験である。
論文 参考訳(メタデータ) (2023-03-01T05:07:48Z) - Learning Reconstructability for Drone Aerial Path Planning [51.736344549907265]
本研究では,無人ドローンを用いた大規模3次元都市景観獲得のためのビューとパスプランニングを改善するための,学習に基づく最初の再構成可能性予測器を提案する。
従来の手法とは対照的に,本手法では,一組の視点から3次元都市景観をいかによく再構築するかを明示的に予測するモデルを学習する。
論文 参考訳(メタデータ) (2022-09-21T08:10:26Z) - TC-SfM: Robust Track-Community-Based Structure-from-Motion [24.956499348500763]
本研究では,現場における高次情報,すなわち地域空間の文脈情報を活用することで,復興を導くことを提案する。
新たな構造、すなわち、各コミュニティがトラックのグループで構成され、シーン内の局所的なセグメントを表現する、テキストトラックコミュニティが提案されている。
論文 参考訳(メタデータ) (2022-06-13T01:09:12Z) - Gradient-SDF: A Semi-Implicit Surface Representation for 3D
Reconstruction [53.315347543761426]
Gradient-SDFは、暗黙的表現と明示的表現の利点を組み合わせた3次元幾何学の新しい表現である。
すべてのボクセルに符号付き距離場とその勾配ベクトル場を格納することにより、暗黙表現の能力を高める。
本研究では,(1)グラディエント・SDFは,ハッシュマップなどの効率的な記憶方式を用いて,深度画像からの直接SDF追跡を行うことができ,(2)グラディエント・SDF表現はボクセル表現で直接光度バンドル調整を行うことができることを示す。
論文 参考訳(メタデータ) (2021-11-26T18:33:14Z) - PanoDR: Spherical Panorama Diminished Reality for Indoor Scenes [0.0]
Diminished Reality (DR)は、シーン内の既存のオブジェクトを削除するために、そのようなアプリケーションの要件を満たす。
屋内(再)計画アプリケーションにおける「現実」の保存には,シーンの構造保存が不可欠である。
本研究では,まず屋内シーンの構造を予測するモデルを提案し,そのモデルを用いて,同じシーンの空の背景のみを再現する手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T12:56:53Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z) - Deep Local Shapes: Learning Local SDF Priors for Detailed 3D
Reconstruction [19.003819911951297]
本稿では,メモリの制限なしに高品質な3次元形状の符号化と再構成が可能な深部形状表現であるDeep Local Shapes (DeepLS)を紹介する。
ニューラルネットワークと1つの潜伏符号を持つオブジェクトレベルのSDFを表すDeepSDFとは異なり、我々は独立した潜伏符号のグリッドを格納し、それぞれが小さな局所的に表面に関する情報を格納する。
このシーンを局所的な形状に分解することで、ネットワークが学習しなければならない事前分布を単純化し、効率的な推論を可能にする。
論文 参考訳(メタデータ) (2020-03-24T17:21:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。