論文の概要: PLNet: Plane and Line Priors for Unsupervised Indoor Depth Estimation
- arxiv url: http://arxiv.org/abs/2110.05839v1
- Date: Tue, 12 Oct 2021 09:02:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-13 14:52:12.178879
- Title: PLNet: Plane and Line Priors for Unsupervised Indoor Depth Estimation
- Title(参考訳): plnet: 教師なし屋内深度推定のための平面および線先行
- Authors: Hualie Jiang, Laiyan Ding, Junjie Hu, Rui Huang
- Abstract要約: 本稿では,平面と直線の先行値を利用して深度推定を行うPLNetを提案する。
NYU Depth V2とScanNetの実験では、PLNetが既存のメソッドより優れていることが示されている。
- 参考スコア(独自算出の注目度): 15.751045404065465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised learning of depth from indoor monocular videos is challenging as
the artificial environment contains many textureless regions. Fortunately, the
indoor scenes are full of specific structures, such as planes and lines, which
should help guide unsupervised depth learning. This paper proposes PLNet that
leverages the plane and line priors to enhance the depth estimation. We first
represent the scene geometry using local planar coefficients and impose the
smoothness constraint on the representation. Moreover, we enforce the planar
and linear consistency by randomly selecting some sets of points that are
probably coplanar or collinear to construct simple and effective consistency
losses. To verify the proposed method's effectiveness, we further propose to
evaluate the flatness and straightness of the predicted point cloud on the
reliable planar and linear regions. The regularity of these regions indicates
quality indoor reconstruction. Experiments on NYU Depth V2 and ScanNet show
that PLNet outperforms existing methods. The code is available at
\url{https://github.com/HalleyJiang/PLNet}.
- Abstract(参考訳): 人工環境にはテクスチャのない領域が多いため,屋内単眼映像からの奥行きの教師なし学習は困難である。
幸いなことに、屋内のシーンは平面や線のような特定の構造でいっぱいで、教師なしの深層学習をガイドするのに役立ちます。
本稿では,平面と直線の先行値を利用して深度推定を行うPLNetを提案する。
まず,局所平面係数を用いてシーン形状を表現し,その表現に滑らかさ制約を課す。
さらに,コプランナあるいはコリニアであろう点の集合をランダムに選択して,単純かつ効果的な一貫性損失を構築することにより,平面的および線形的一貫性を強制する。
さらに,提案手法の有効性を検証するために,信頼できる平面領域と線形領域における予測点雲の平坦性と直線性を評価することを提案する。
これらの地域の規則性は、質の高い屋内復元を示している。
NYU Depth V2とScanNetの実験では、PLNetが既存のメソッドより優れていることが示されている。
コードは \url{https://github.com/halleyjiang/plnet} で入手できる。
関連論文リスト
- Plane2Depth: Hierarchical Adaptive Plane Guidance for Monocular Depth Estimation [38.81275292687583]
平面情報を適応的に利用し,階層的なフレームワーク内での深度予測を改善するPlane2Depthを提案する。
提案する平面案内深度発生器 (PGDG) では, 現場の平面をソフトにモデル化し, 画素ごとの平面係数を予測するためのプロトタイプとして, 一連の平面クエリを設計する。
提案するアダプティブプレーンクエリアグリゲーション(APGA)モジュールでは,マルチスケール平面特徴のアグリゲーションを改善するために,新たな機能インタラクションアプローチを導入する。
論文 参考訳(メタデータ) (2024-09-04T07:45:06Z) - P$^2$SDF for Neural Indoor Scene Reconstruction [29.355255923026597]
そこで本研究では,屋内シーン再構築のためのPseudo Plane-regularized Signed Distance Field (P$2$SDF)を提案する。
P$2$SDFはマンハッタンのシーンで競争力のある再現性能を発揮することを示す実験である。
論文 参考訳(メタデータ) (2023-03-01T05:07:48Z) - Flattening-Net: Deep Regular 2D Representation for 3D Point Cloud
Analysis [66.49788145564004]
我々は、任意の幾何学と位相の不規則な3次元点雲を表現するために、Flattning-Netと呼ばれる教師なしのディープニューラルネットワークを提案する。
我々の手法は、現在の最先端の競合相手に対して好意的に機能する。
論文 参考訳(メタデータ) (2022-12-17T15:05:25Z) - Ground Plane Matters: Picking Up Ground Plane Prior in Monocular 3D
Object Detection [92.75961303269548]
先行する地平面は、モノクル3次元物体検出(M3OD)における非常に情報的な幾何学的手がかりである
本稿では,両問題を一度に解決するGPENetを提案する。
我々のGPENetは、他の手法よりも優れ、最先端のパフォーマンスを実現し、提案手法の有効性と優位性を示すことができる。
論文 参考訳(メタデータ) (2022-11-03T02:21:35Z) - DevNet: Self-supervised Monocular Depth Learning via Density Volume
Construction [51.96971077984869]
単眼画像からの自己教師付き深度学習は、通常、時間的に隣接する画像フレーム間の2Dピクセル単位の光度関係に依存する。
本研究は, 自己教師型単眼深度学習フレームワークであるDevNetを提案する。
論文 参考訳(メタデータ) (2022-09-14T00:08:44Z) - Neural 3D Scene Reconstruction with the Manhattan-world Assumption [58.90559966227361]
本稿では,多視点画像から3次元屋内シーンを再構築する課題について述べる。
平面的制約は、最近の暗黙の神経表現に基づく再構成手法に便利に組み込むことができる。
提案手法は, 従来の手法よりも3次元再構成品質に優れていた。
論文 参考訳(メタデータ) (2022-05-05T17:59:55Z) - P3Depth: Monocular Depth Estimation with a Piecewise Planarity Prior [133.76192155312182]
本研究では,コプラナー画素からの情報を選択的に活用して予測深度を改善する手法を提案する。
本手法の広範な評価により, 教師付き単分子深度推定法において, 新たな手法の確立が期待できる。
論文 参考訳(メタデータ) (2022-04-05T10:03:52Z) - StructDepth: Leveraging the structural regularities for self-supervised
indoor depth estimation [7.028319464940422]
自己教師付き単分子深度推定は、屋外データセットで印象的な性能を達成した。
しかし、その性能はテクスチャが不足しているため、特に屋内環境では劣化する。
屋内のシーンに現れる構造的規則性を活用して、より深いネットワークをトレーニングします。
論文 参考訳(メタデータ) (2021-08-19T09:26:13Z) - P$^{2}$Net: Patch-match and Plane-regularization for Unsupervised Indoor
Depth Estimation [37.95666188829359]
本稿では,屋内環境における教師なし深度推定課題に取り組む。
論文は、貧弱なパフォーマンスは差別的でない点ベースのマッチングに苦しむと主張している。
NYUv2とScanNetの実験では、P$2$Netは既存のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-07-15T14:10:43Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。