論文の概要: PanelNet: Understanding 360 Indoor Environment via Panel Representation
- arxiv url: http://arxiv.org/abs/2305.09078v1
- Date: Tue, 16 May 2023 00:37:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 16:42:21.141765
- Title: PanelNet: Understanding 360 Indoor Environment via Panel Representation
- Title(参考訳): panelnet:パネル表現による360度室内環境の理解
- Authors: Haozheng Yu, Lu He, Bing Jian, Weiwei Feng, Shan Liu
- Abstract要約: PanelNetは360度画像の新しいパネル表現を用いて屋内環境を理解するフレームワークである。
パノラマ歪みの負の影響を低減するため、パネル幾何学埋め込みネットワークを組み込んだ。
Local2Global Transformerはパネル内のローカル情報とパネルワイドグローバルコンテキストを集約する。
- 参考スコア(独自算出の注目度): 21.45423960145392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Indoor 360 panoramas have two essential properties. (1) The panoramas are
continuous and seamless in the horizontal direction. (2) Gravity plays an
important role in indoor environment design. By leveraging these properties, we
present PanelNet, a framework that understands indoor environments using a
novel panel representation of 360 images. We represent an equirectangular
projection (ERP) as consecutive vertical panels with corresponding 3D panel
geometry. To reduce the negative impact of panoramic distortion, we incorporate
a panel geometry embedding network that encodes both the local and global
geometric features of a panel. To capture the geometric context in room design,
we introduce Local2Global Transformer, which aggregates local information
within a panel and panel-wise global context. It greatly improves the model
performance with low training overhead. Our method outperforms existing methods
on indoor 360 depth estimation and shows competitive results against
state-of-the-art approaches on the task of indoor layout estimation and
semantic segmentation.
- Abstract(参考訳): 屋内360パノラマには2つの必須特性がある。
1)パノラマは連続しており、水平方向にシームレスである。
2) 重力は室内環境設計において重要な役割を担っている。
そこで,これらの特性を活かして,360度画像の新しいパネル表現を用いた室内環境理解フレームワーク panelnet を提案する。
等角射影(ERP)を,対応する3次元パネル形状を持つ連続垂直パネルとして表現する。
パノラマ歪みの負の影響を低減するため、パネルの局所的特徴と大域的特徴の両方を符号化するパネル幾何学埋め込みネットワークを組み込んだ。
室内設計における幾何学的コンテキストを捉えるために,パネル内の局所情報を集約するLocal2Global Transformerを導入する。
トレーニングオーバーヘッドの少ないモデルパフォーマンスを大幅に向上します。
提案手法は,既存の室内360度深度推定手法を上回り,室内レイアウト推定と意味セグメンテーションの課題における最先端アプローチと競合する結果を示す。
関連論文リスト
- Scaled 360 layouts: Revisiting non-central panoramas [5.2178708158547025]
非中央パノラマを用いた室内環境の3次元レイアウト復元手法を提案する。
我々は、新しい幾何学的処理において、非中央プロジェクションシステムの特性を利用して、スケールしたレイアウトを復元する。
論文 参考訳(メタデータ) (2024-02-02T14:55:36Z) - PanoGRF: Generalizable Spherical Radiance Fields for Wide-baseline
Panoramas [54.4948540627471]
広帯域パノラマのための一般化可能な球面放射場パノGRFを提案する。
パノGRFは、視線画像に基づいて訓練された一般化可能な放射場とは異なり、パノラマからパースペクティブへの変換から情報損失を回避する。
複数のパノラマデータセットの結果は、パノGRFが最先端の一般化可能なビュー合成法よりも著しく優れていることを示している。
論文 参考訳(メタデータ) (2023-06-02T13:35:07Z) - Local-to-Global Panorama Inpainting for Locale-Aware Indoor Lighting
Prediction [28.180205012351802]
単一視点の画像からパノラマ的な室内照明を予測することは、コンピュータビジョンとグラフィックスの基本的な問題である。
最近の手法は主に、ワープされたパノラマの不足した内容を満たすために畳み込みニューラルネットワーク(CNN)に依存している。
大規模パノラマ塗布における局所的・言語的戦略を提案する。
論文 参考訳(メタデータ) (2023-03-18T06:18:49Z) - PanoViT: Vision Transformer for Room Layout Estimation from a Single
Panoramic Image [11.053777620735175]
PanoViTはパノラマ視覚変換器で、1枚のパノラマ画像から部屋のレイアウトを推定する。
CNNモデルと比較して、私たちのPanoViTはパノラマ画像からグローバル情報を学ぶのに熟練しています。
本手法は,室内配置予測精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2022-12-23T05:37:11Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - GPR-Net: Multi-view Layout Estimation via a Geometry-aware Panorama
Registration Network [44.06968418800436]
一対のパノラマからパノラマ登録とレイアウト推定を共同で学習する完全パノラマレイアウト推定フレームワークを提案する。
PSMNetに対する大きな改善は、新しいGeometry-aware Panorama Registration Network(GPR-Net)によるものである。
実験結果から,大規模な屋内パノラマデータセットZInDにおけるパノラマ登録とレイアウト推定の両面での最先端性能が得られた。
論文 参考訳(メタデータ) (2022-10-20T17:10:41Z) - LGT-Net: Indoor Panoramic Room Layout Estimation with Geometry-Aware
Transformer Network [1.3512949730789903]
部屋レイアウト推定のための効率的なネットワークLGT-Netを提案する。
実験の結果,提案したLGT-Netは,ベンチマークデータセット上での現在のSOTA(State-of-the-arts)よりも優れたパフォーマンスを実現することがわかった。
論文 参考訳(メタデータ) (2022-03-03T16:28:10Z) - DeepPanoContext: Panoramic 3D Scene Understanding with Holistic Scene
Context Graph and Relation-based Optimization [66.25948693095604]
本研究では,パノラマ画像から各オブジェクトの3次元空間配置と形状,ポーズ,位置,意味的カテゴリを復元するパノラマ3次元シーン理解手法を提案する。
実験により, この手法は, パノラマシーン理解において, 幾何学的精度とオブジェクト配置の両方の観点から, 既存の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-08-24T13:55:29Z) - LED2-Net: Monocular 360 Layout Estimation via Differentiable Depth
Rendering [59.63979143021241]
パノラマの地平線上での深度予測問題として360度レイアウト推定のタスクを定式化する。
レイアウトから深度予測への変換を区別できるように、差分可能な深度レンダリング手順を提案します。
提案手法は,360 レイアウトのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T15:48:41Z) - Panoramic Panoptic Segmentation: Towards Complete Surrounding
Understanding via Unsupervised Contrastive Learning [97.37544023666833]
我々は,パノラマパオプティックセグメンテーションを最も総合的なシーン理解として導入する。
完全な周囲の理解は、エージェントに最大限の情報を提供する。
標準ピンホール画像のモデルトレーニングを可能にし、学習した機能を異なるドメインに転送するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-01T09:37:27Z) - Learning Geometry-Disentangled Representation for Complementary
Understanding of 3D Object Point Cloud [50.56461318879761]
3次元画像処理のためのGDANet(Geometry-Disentangled Attention Network)を提案する。
GDANetは、点雲を3Dオブジェクトの輪郭と平らな部分に切り離し、それぞれ鋭い変化成分と穏やかな変化成分で表される。
3Dオブジェクトの分類とセグメンテーションベンチマークの実験は、GDANetがより少ないパラメータで最先端の処理を実現していることを示している。
論文 参考訳(メタデータ) (2020-12-20T13:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。