論文の概要: 3D Room Layout Estimation from a Cubemap of Panorama Image via Deep
Manhattan Hough Transform
- arxiv url: http://arxiv.org/abs/2207.09291v1
- Date: Tue, 19 Jul 2022 14:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:00:50.036167
- Title: 3D Room Layout Estimation from a Cubemap of Panorama Image via Deep
Manhattan Hough Transform
- Title(参考訳): 深マンハッタンハフ変換によるパノラマ画像のキューブマップからの3次元部屋配置推定
- Authors: Yining Zhao, Chao Wen, Zhou Xue, Yue Gao
- Abstract要約: 学習可能なハフ変換ブロックにおける長距離幾何学的パターンをモデル化することにより、3次元空間の壁面を推定する別の手法を提案する。
我々は、この特徴を立方体写像タイルからマンハッタン世界のハフ空間に変換し、その特徴を直接幾何学的出力にマッピングする。
畳み込み層は局所勾配のような線の特徴を学習するだけでなく、グローバル情報を利用して単純なネットワーク構造で閉塞壁を予測する。
- 参考スコア(独自算出の注目度): 17.51123287432334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant geometric structures can be compactly described by global
wireframes in the estimation of 3D room layout from a single panoramic image.
Based on this observation, we present an alternative approach to estimate the
walls in 3D space by modeling long-range geometric patterns in a learnable
Hough Transform block. We transform the image feature from a cubemap tile to
the Hough space of a Manhattan world and directly map the feature to the
geometric output. The convolutional layers not only learn the local
gradient-like line features, but also utilize the global information to
successfully predict occluded walls with a simple network structure. Unlike
most previous work, the predictions are performed individually on each cubemap
tile, and then assembled to get the layout estimation. Experimental results
show that we achieve comparable results with recent state-of-the-art in
prediction accuracy and performance. Code is available at
https://github.com/Starrah/DMH-Net.
- Abstract(参考訳): 1枚のパノラマ画像から3次元の空間配置を推定する際、大域的なワイヤーフレームによって重要な幾何学的構造をコンパクトに記述することができる。
この観察に基づいて, 学習可能なハフ変換ブロックにおける長距離幾何パターンのモデル化により, 3次元空間の壁を推定する方法を提案する。
我々は、この特徴を立方体写像タイルからマンハッタン世界のハフ空間に変換し、その特徴を直接幾何学的出力にマッピングする。
畳み込み層は局所勾配のような線の特徴を学習するだけでなく、グローバル情報を利用して単純なネットワーク構造で閉塞壁を予測する。
以前のほとんどの作業とは異なり、予測は各キューブマップタイル上で個別に行われ、レイアウト推定を得るために組み立てられる。
実験の結果,近年の予測精度と性能において比較結果が得られた。
コードはhttps://github.com/starrah/dmh-netで入手できる。
関連論文リスト
- Self-supervised 3D Point Cloud Completion via Multi-view Adversarial Learning [61.14132533712537]
我々は、オブジェクトレベルとカテゴリ固有の幾何学的類似性の両方を効果的に活用するフレームワークであるMAL-SPCを提案する。
私たちのMAL-SPCは3Dの完全な監視を一切必要とせず、各オブジェクトに1つの部分点クラウドを必要とするだけです。
論文 参考訳(メタデータ) (2024-07-13T06:53:39Z) - Learning to Generate 3D Representations of Building Roofs Using
Single-View Aerial Imagery [68.3565370706598]
本研究では,空撮画像から建物屋根メッシュの条件分布を学習するための新しいパイプラインを提案する。
同一物体の複数の画像を必要とする代替手法とは違って,本手法では,一つの画像のみを用いて予測を行う3次元屋根メッシュを推定できる。
論文 参考訳(メタデータ) (2023-03-20T15:47:05Z) - SketchSampler: Sketch-based 3D Reconstruction via View-dependent Depth
Sampling [75.957103837167]
1枚のスケッチ画像に基づいて3次元形状を再構成することは、スパースで不規則なスケッチと正規の高密度な3次元形状との間に大きな領域ギャップがあるため困難である。
既存の作品では、3D座標を直接予測するためにスケッチから抽出されたグローバルな特徴を活用しようとするが、通常は入力スケッチに忠実でない細部を失う。
論文 参考訳(メタデータ) (2022-08-14T16:37:51Z) - Towards High-Fidelity Single-view Holistic Reconstruction of Indoor
Scenes [50.317223783035075]
単視点画像から総合的な3次元屋内シーンを再構築するための新しい枠組みを提案する。
詳細なオブジェクト再構成のためのインスタンス整列型暗黙関数(InstPIFu)を提案する。
私たちのコードとモデルは公開されます。
論文 参考訳(メタデータ) (2022-07-18T14:54:57Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - LGT-Net: Indoor Panoramic Room Layout Estimation with Geometry-Aware
Transformer Network [1.3512949730789903]
部屋レイアウト推定のための効率的なネットワークLGT-Netを提案する。
実験の結果,提案したLGT-Netは,ベンチマークデータセット上での現在のSOTA(State-of-the-arts)よりも優れたパフォーマンスを実現することがわかった。
論文 参考訳(メタデータ) (2022-03-03T16:28:10Z) - Learning to Reconstruct 3D Non-Cuboid Room Layout from a Single RGB
Image [32.5277483805739]
単一画像から部屋の囲い3次元構造を再構築することを目的としている。
本稿では,室内のより一般的な仮定,すなわち1つの天井,1つの床,2つの垂直壁からなる部屋配置について考察する。
論文 参考訳(メタデータ) (2021-04-16T09:24:08Z) - GeoLayout: Geometry Driven Room Layout Estimation Based on Depth Maps of
Planes [18.900646770506256]
レイアウト推定のための深層学習に幾何学的推論を取り入れることを提案する。
提案手法では,画素レベルの表面パラメータを推定することにより,シーン内の支配面の深さマップを推測する。
支配平面の画素レベル深度アノテーションを用いた新しいデータセットを提案する。
論文 参考訳(メタデータ) (2020-08-14T10:34:24Z) - General 3D Room Layout from a Single View by Render-and-Compare [36.94817376590415]
一つの視点から部屋の3次元レイアウトを再構築する新しい手法を提案する。
データセットはScanNetの293の画像で構成されており、正確な3Dレイアウトで注釈を付けました。
論文 参考訳(メタデータ) (2020-01-07T16:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。