論文の概要: Deeper into Self-Supervised Monocular Indoor Depth Estimation
- arxiv url: http://arxiv.org/abs/2312.01283v1
- Date: Sun, 3 Dec 2023 04:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 18:05:13.989943
- Title: Deeper into Self-Supervised Monocular Indoor Depth Estimation
- Title(参考訳): 自己教師付き単眼室内深度推定
- Authors: Chao Fan, Zhenyu Yin, Yue Li, Feiqing Zhang
- Abstract要約: 単分子配列から室内深度を自己教師付きで学習することは、研究者にとって非常に難しい。
本研究では,IndoorDepthという手法を2つのイノベーションから構成する。
NYUv2ベンチマークの実験では、私たちのIndoorDepthは従来の最先端の手法よりも大きなマージンで優れています。
- 参考スコア(独自算出の注目度): 7.30562653023176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular depth estimation using Convolutional Neural Networks (CNNs) has
shown impressive performance in outdoor driving scenes. However,
self-supervised learning of indoor depth from monocular sequences is quite
challenging for researchers because of the following two main reasons. One is
the large areas of low-texture regions and the other is the complex ego-motion
on indoor training datasets. In this work, our proposed method, named
IndoorDepth, consists of two innovations. In particular, we first propose a
novel photometric loss with improved structural similarity (SSIM) function to
tackle the challenge from low-texture regions. Moreover, in order to further
mitigate the issue of inaccurate ego-motion prediction, multiple photometric
losses at different stages are used to train a deeper pose network with two
residual pose blocks. Subsequent ablation study can validate the effectiveness
of each new idea. Experiments on the NYUv2 benchmark demonstrate that our
IndoorDepth outperforms the previous state-of-the-art methods by a large
margin. In addition, we also validate the generalization ability of our method
on ScanNet dataset. Code is availabe at https://github.com/fcntes/IndoorDepth.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)を用いた単眼深度推定は,屋外運転シーンにおいて顕著な性能を示した。
しかし,2つの主な理由から,単眼列から室内奥行きの自己教師あり学習は研究者にとって極めて困難である。
1つは低テクスチャ領域の大きな領域であり、もう1つは屋内トレーニングデータセットの複雑なエゴモーションである。
本研究において,提案手法は2つのイノベーションから成り立っている。
特に,低テクスチャ領域の課題に対処するために,構造類似性(SSIM)を改良した新しい光度損失を提案する。
さらに、不正確なエゴモーション予測の問題を緩和するために、2つの残留ポーズブロックを持つより深いポーズネットワークをトレーニングするために、異なる段階における複数の光メトリック損失を使用する。
その後のアブレーション研究は、それぞれの新しいアイデアの有効性を検証することができる。
NYUv2ベンチマークの実験では、私たちのIndoorDepthは従来の最先端の手法よりも大きなマージンで優れています。
また,ScanNetデータセット上での手法の一般化能力についても検証した。
コードはhttps://github.com/fcntes/IndoorDepth.comで利用可能である。
関連論文リスト
- Towards Cross-View-Consistent Self-Supervised Surround Depth Estimation [9.569646683579899]
連続画像からの自己監督下周深度推定は経済的な代替手段を提供する。
従来のSSSDE法では、画像間で情報を融合する異なるメカニズムが提案されているが、それらのいくつかは、クロスビュー制約を明示的に考慮している。
本稿では,SSSDEのクロスビュー一貫性を高めるために,効率的で一貫したポーズ推定設計と2つの損失関数を提案する。
論文 参考訳(メタデータ) (2024-07-04T16:29:05Z) - GasMono: Geometry-Aided Self-Supervised Monocular Depth Estimation for
Indoor Scenes [47.76269541664071]
本稿では,フレームと低テクスチャの大きな回転に起因する屋内シーンにおける自己教師型単眼深度推定の課題に対処する。
モノクラーシーケンスから粗いカメラポーズを多視点形状で取得し,前者に対応する。
低テクスチャの効果を和らげるために、視覚変換器のグローバルな推論と過度に適合する反復的な自己蒸留機構を組み合わせる。
論文 参考訳(メタデータ) (2023-09-26T17:59:57Z) - DevNet: Self-supervised Monocular Depth Learning via Density Volume
Construction [51.96971077984869]
単眼画像からの自己教師付き深度学習は、通常、時間的に隣接する画像フレーム間の2Dピクセル単位の光度関係に依存する。
本研究は, 自己教師型単眼深度学習フレームワークであるDevNetを提案する。
論文 参考訳(メタデータ) (2022-09-14T00:08:44Z) - Optimization-Based Separations for Neural Networks [57.875347246373956]
本研究では,2層のシグモダルアクティベーションを持つディープ2ニューラルネットワークを用いて,ボールインジケータ関数を効率よく学習できることを示す。
これは最適化に基づく最初の分離結果であり、より強力なアーキテクチャの近似の利点は、実際に確実に現れる。
論文 参考訳(メタデータ) (2021-12-04T18:07:47Z) - Self-Supervised Monocular Depth Estimation of Untextured Indoor Rotated
Scenes [6.316693022958222]
自己教師付き深層学習法はステレオ画像を利用して単眼深度推定の訓練を行っている。
これらの手法は, 室内環境における監視手法の性能とカメラ回転とを一致しない。
テクスチャレス領域における画像再構成誤りの曖昧さを補正する新しい不均一損失項を提案する。
論文 参考訳(メタデータ) (2021-06-24T12:27:16Z) - Sparse Auxiliary Networks for Unified Monocular Depth Prediction and
Completion [56.85837052421469]
コスト効率のよいセンサで得られたデータからシーン形状を推定することは、ロボットや自動運転車にとって鍵となる。
本稿では,1枚のRGB画像から,低コストな能動深度センサによるスパース計測により,深度を推定する問題について検討する。
sparse networks (sans) は,深さ予測と完了という2つのタスクをmonodepthネットワークで実行可能にする,新しいモジュールである。
論文 参考訳(メタデータ) (2021-03-30T21:22:26Z) - SelfDeco: Self-Supervised Monocular Depth Completion in Challenging
Indoor Environments [50.761917113239996]
自己教師付き単分子深度補完のための新しいアルゴリズムを提案する。
提案手法は,深度ラベルを含まない疎深度測定とそれに対応する単眼ビデオシーケンスのみを必要とするニューラルネットワークのトレーニングに基づく。
我々の自己監督アルゴリズムは、テクスチャのない領域、光沢のない透明な表面、非ランバートの表面、動く人々、より長く多様な深度範囲、複雑なエゴモーションによって捉えられたシーンを含む屋内環境に挑戦するために設計されている。
論文 参考訳(メタデータ) (2020-11-10T08:55:07Z) - Accurate RGB-D Salient Object Detection via Collaborative Learning [101.82654054191443]
RGB-Dサリエンシ検出は、いくつかの課題シナリオにおいて素晴らしい能力を示している。
本稿では,エッジ,深度,塩分濃度をより効率的に活用する新しい協調学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-23T04:33:36Z) - Guiding Monocular Depth Estimation Using Depth-Attention Volume [38.92495189498365]
本研究では,特に屋内環境に広く分布する平面構造を優先するための奥行き推定法を提案する。
2つのポピュラーな屋内データセットであるNYU-Depth-v2とScanNetの実験により,本手法が最先端の深度推定結果を実現することを示す。
論文 参考訳(メタデータ) (2020-04-06T15:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。