論文の概要: Shallow2Deep: Indoor Scene Modeling by Single Image Understanding
- arxiv url: http://arxiv.org/abs/2002.09790v1
- Date: Sat, 22 Feb 2020 23:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 19:38:23.535989
- Title: Shallow2Deep: Indoor Scene Modeling by Single Image Understanding
- Title(参考訳): Shallow2Deep:シングルイメージ理解による屋内シーンモデリング
- Authors: Yinyu Nie, Shihui Guo, Jian Chang, Xiaoguang Han, Jiahui Huang,
Shi-Min Hu, Jian Jun Zhang
- Abstract要約: 本稿では,ニューラルネットワークの深い特徴を用いた屋内シーンの自動モデリング手法を提案する。
一つのRGB画像が与えられた場合,本手法は同時に意味内容,3次元幾何学,オブジェクト関係を復元する。
- 参考スコア(独自算出の注目度): 42.87957414916607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dense indoor scene modeling from 2D images has been bottlenecked due to the
absence of depth information and cluttered occlusions. We present an automatic
indoor scene modeling approach using deep features from neural networks. Given
a single RGB image, our method simultaneously recovers semantic contents, 3D
geometry and object relationship by reasoning indoor environment context.
Particularly, we design a shallow-to-deep architecture on the basis of
convolutional networks for semantic scene understanding and modeling. It
involves multi-level convolutional networks to parse indoor semantics/geometry
into non-relational and relational knowledge. Non-relational knowledge
extracted from shallow-end networks (e.g. room layout, object geometry) is fed
forward into deeper levels to parse relational semantics (e.g. support
relationship). A Relation Network is proposed to infer the support relationship
between objects. All the structured semantics and geometry above are assembled
to guide a global optimization for 3D scene modeling. Qualitative and
quantitative analysis demonstrates the feasibility of our method in
understanding and modeling semantics-enriched indoor scenes by evaluating the
performance of reconstruction accuracy, computation performance and scene
complexity.
- Abstract(参考訳): 2次元画像からの高密度屋内シーンモデリングは、奥行き情報や乱雑なオクルージョンの欠如によりボトルネックとなっている。
ニューラルネットワークの深い特徴を用いた屋内シーンの自動モデリング手法を提案する。
単一のrgb画像が与えられた場合, 室内環境コンテキストを推論することにより, 意味的内容, 3次元形状, 物体関係を同時に復元する。
特に,セマンティックシーン理解とモデリングのための畳み込みネットワークに基づいて,浅層から深層までのアーキテクチャを設計する。
屋内意味論/幾何学を非関係的および関係的知識に解析する多層畳み込みネットワークを含む。
浅い端ネットワーク(例えば、部屋のレイアウト、オブジェクトの幾何学)から抽出された非関係知識は、関係性意味論(例えば、サポート関係)を解析するためにより深いレベルに送られます。
オブジェクト間のサポート関係を推測する関係ネットワークを提案する。
上記の構造的なセマンティクスと幾何学はすべて、3dシーンモデリングのグローバル最適化を導くために組み立てられる。
質的,定量的分析により,再現精度,計算性能,シーンの複雑さを評価することにより,セマンティクスに富んだ屋内シーンの理解とモデル化が可能であることを示す。
関連論文リスト
- Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - Object-level 3D Semantic Mapping using a Network of Smart Edge Sensors [25.393382192511716]
我々は,分散エッジセンサのネットワークとオブジェクトレベルの情報からなる多視点3次元意味マッピングシステムを拡張した。
提案手法は,数cm以内でのポーズ推定と,実験室環境におけるセンサネットワークを用いた実環境実験により,Behaveデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-11-21T11:13:08Z) - Self-Supervised Image Representation Learning with Geometric Set
Consistency [50.12720780102395]
本稿では,3次元幾何整合性に基づく自己教師付き画像表現学習法を提案する。
具体的には、画像ビュー内の特徴整合性を強化するために、コントラスト学習フレームワークに3次元幾何学的整合性を導入する。
論文 参考訳(メタデータ) (2022-03-29T08:57:33Z) - A Real-Time Online Learning Framework for Joint 3D Reconstruction and
Semantic Segmentation of Indoor Scenes [87.74952229507096]
本稿では,屋内シーンの3次元構造とセマンティックラベルを協調的に復元するリアルタイムオンライン視覚フレームワークを提案する。
列車時、ノイズの多い深度マップ、カメラ軌跡、および2Dセマンティックラベルを与えられたニューラルネットワークは、シーン空間に適切なセマンティックラベルでフレームの奥行きを融合させることを学習する。
論文 参考訳(メタデータ) (2021-08-11T14:29:01Z) - S2R-DepthNet: Learning a Generalizable Depth-specific Structural
Representation [63.58891781246175]
人間はリアルなイメージではなくスケッチからシーンの3次元幾何学を推測することができ、空間構造がシーンの深さを理解する上で基本的な役割を果たすことを示す。
我々は,深度推定に不可欠な特徴を捉え,無関係なスタイル情報を無視する,深度特異的な構造表現の学習を初めて行う。
当社のS2R-DepthNetは、合成データでのみ訓練されているにもかかわらず、目に見えない実際のデータに直接一般化できます。
論文 参考訳(メタデータ) (2021-04-02T03:55:41Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。