論文の概要: OmniLayout: Room Layout Reconstruction from Indoor Spherical Panoramas
- arxiv url: http://arxiv.org/abs/2104.09403v1
- Date: Mon, 19 Apr 2021 15:44:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 17:37:02.209891
- Title: OmniLayout: Room Layout Reconstruction from Indoor Spherical Panoramas
- Title(参考訳): OmniLayout:屋内球状パノラマからの部屋レイアウト再構築
- Authors: Shivansh Rao and Vikas Kumar and Daniel Kifer and Lee Giles and Ankur
Mali
- Abstract要約: 単一のRGBパノラマを考えると、3Dレイアウトの再構築の目的は、コーナー、境界、天井境界を予測して部屋のレイアウトを推定することです。
一般的なアプローチは、標準的な畳み込みネットワークを使用してコーナーと境界を予測し、3Dレイアウトを生成するための後処理を行うことでした。
我々は球面上で直接畳み込みを行う球面畳み込みを用いて、等角射影に従ってサンプリングすることを提案する。
- 参考スコア(独自算出の注目度): 16.38156002774853
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Given a single RGB panorama, the goal of 3D layout reconstruction is to
estimate the room layout by predicting the corners, floor boundary, and ceiling
boundary. A common approach has been to use standard convolutional networks to
predict the corners and boundaries, followed by post-processing to generate the
3D layout. However, the space-varying distortions in panoramic images are not
compatible with the translational equivariance property of standard
convolutions, thus degrading performance. Instead, we propose to use spherical
convolutions. The resulting network, which we call OmniLayout performs
convolutions directly on the sphere surface, sampling according to inverse
equirectangular projection and hence invariant to equirectangular distortions.
Using a new evaluation metric, we show that our network reduces the error in
the heavily distorted regions (near the poles) by approx 25 % when compared to
standard convolutional networks. Experimental results show that OmniLayout
outperforms the state-of-the-art by approx 4% on two different benchmark
datasets (PanoContext and Stanford 2D-3D). Code is available at
https://github.com/rshivansh/OmniLayout.
- Abstract(参考訳): 1つのrgbパノラマが与えられると、3dレイアウト再構成の目標は、コーナー、フロア境界、天井境界を予測して部屋レイアウトを推定することである。
一般的なアプローチは、標準的な畳み込みネットワークを使用してコーナーとバウンダリを予測し、3Dレイアウトを生成する後処理である。
しかしながら、パノラマ画像における空間変動歪みは標準畳み込みの変換同分散特性とは相容れないため、性能が低下する。
代わりに球状畳み込みを使うように提案する。
我々がOmniLayoutと呼ぶ結果のネットワークは球面上で直接畳み込みを行い、逆正方形投影に従ってサンプリングし、したがって等方形歪みに不変である。
新しい評価指標を用いて,本ネットワークは,標準畳み込みネットワークと比較して,歪んだ領域(極付近)の誤差を約25%低減することを示した。
実験の結果、OmniLayoutは2つの異なるベンチマークデータセット(PanoContextとStanford 2D-3D)で最先端の4%を達成している。
コードはhttps://github.com/rshivansh/OmniLayout.comから入手できる。
関連論文リスト
- No Pose, No Problem: Surprisingly Simple 3D Gaussian Splats from Sparse Unposed Images [100.80376573969045]
NoPoSplatは、多視点画像から3Dガウスアンによってパラメータ化された3Dシーンを再構成できるフィードフォワードモデルである。
提案手法は,推定時にリアルタイムな3次元ガウス再構成を実現する。
この研究は、ポーズフリーの一般化可能な3次元再構成において大きな進歩をもたらし、実世界のシナリオに適用可能であることを示す。
論文 参考訳(メタデータ) (2024-10-31T17:58:22Z) - Parcel3D: Shape Reconstruction from Single RGB Images for Applications
in Transportation Logistics [62.997667081978825]
本研究では,ロジスティクスにおける損傷の防止と改ざん検出に焦点をあて,損傷の可能性のあるパーセルの3次元形状復元問題に取り組む。
本稿では,Google Scanned Objects (GSO)データセットに基づく新しい合成データセットParcel3Dを提案する。
本稿では,3次元境界ボックスと反復メッシュリファインメントを併用した,CubeRefine R-CNNという新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-18T13:55:51Z) - Disentangling Orthogonal Planes for Indoor Panoramic Room Layout
Estimation with Cross-Scale Distortion Awareness [38.096482841789275]
複素シーンから平面を前分割することで1次元表現を解き放つことを提案する。
床の境界と天井の境界の対称性を考えると,ソフトフリップ融合戦略も設計する。
4つの人気のあるベンチマークの実験は、既存のSoTAソリューションよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-03-02T05:10:23Z) - 3D Room Layout Estimation from a Cubemap of Panorama Image via Deep
Manhattan Hough Transform [17.51123287432334]
学習可能なハフ変換ブロックにおける長距離幾何学的パターンをモデル化することにより、3次元空間の壁面を推定する別の手法を提案する。
我々は、この特徴を立方体写像タイルからマンハッタン世界のハフ空間に変換し、その特徴を直接幾何学的出力にマッピングする。
畳み込み層は局所勾配のような線の特徴を学習するだけでなく、グローバル情報を利用して単純なネットワーク構造で閉塞壁を予測する。
論文 参考訳(メタデータ) (2022-07-19T14:22:28Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Transferable End-to-end Room Layout Estimation via Implicit Encoding [34.99591465853653]
一つのパノラマ画像から部屋のレイアウトを推定する問題について検討する。
入力パノラマ画像からパラメトリックレイアウトを直接予測するエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2021-12-21T16:33:14Z) - LED2-Net: Monocular 360 Layout Estimation via Differentiable Depth
Rendering [59.63979143021241]
パノラマの地平線上での深度予測問題として360度レイアウト推定のタスクを定式化する。
レイアウトから深度予測への変換を区別できるように、差分可能な深度レンダリング手順を提案します。
提案手法は,360 レイアウトのベンチマークデータセットで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T15:48:41Z) - Learning Deformable Tetrahedral Meshes for 3D Reconstruction [78.0514377738632]
学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラル3D再構成に関するこれまでの研究は、利点だけでなく、ポイントクラウド、ボクセル、サーフェスメッシュ、暗黙の関数表現といった制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
論文 参考訳(メタデータ) (2020-11-03T02:57:01Z) - Geometric Correspondence Fields: Learned Differentiable Rendering for 3D
Pose Refinement in the Wild [96.09941542587865]
野生の任意のカテゴリのオブジェクトに対する微分可能レンダリングに基づく新しい3次元ポーズ精細化手法を提案する。
このようにして、3DモデルとRGB画像のオブジェクトを正確に整列し、3Dポーズ推定を大幅に改善する。
我々は、Pix3Dデータセットの挑戦に対するアプローチを評価し、複数のメトリクスにおける最先端の精錬手法と比較して、最大55%の改善を実現した。
論文 参考訳(メタデータ) (2020-07-17T12:34:38Z) - General 3D Room Layout from a Single View by Render-and-Compare [36.94817376590415]
一つの視点から部屋の3次元レイアウトを再構築する新しい手法を提案する。
データセットはScanNetの293の画像で構成されており、正確な3Dレイアウトで注釈を付けました。
論文 参考訳(メタデータ) (2020-01-07T16:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。