論文の概要: Unsupervised Monocular Depth Estimation in Highly Complex Environments
- arxiv url: http://arxiv.org/abs/2107.13137v1
- Date: Wed, 28 Jul 2021 02:35:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-29 14:00:44.814028
- Title: Unsupervised Monocular Depth Estimation in Highly Complex Environments
- Title(参考訳): 複雑環境における教師なし単分子深度推定
- Authors: Chaoqiang Zhao, Yang Tang and Qiyu Sun
- Abstract要約: 教師なし単分子深度推定法は主に日中のシナリオに焦点を当てる。
夜、雨の夜、または雪の冬など、いくつかの困難な環境では、異なるフレーム上の同じピクセルの光度測定は相容れない。
本稿では、ドメイン適応を用いてこの問題に対処し、画像転送に基づく一貫した適応フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.580317751486636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Previous unsupervised monocular depth estimation methods mainly focus on the
day-time scenario, and their frameworks are driven by warped photometric
consistency. While in some challenging environments, like night, rainy night or
snowy winter, the photometry of the same pixel on different frames is
inconsistent because of the complex lighting and reflection, so that the
day-time unsupervised frameworks cannot be directly applied to these complex
scenarios. In this paper, we investigate the problem of unsupervised monocular
depth estimation in certain highly complex scenarios. We address this
challenging problem by using domain adaptation, and a unified image
transfer-based adaptation framework is proposed based on monocular videos in
this paper. The depth model trained on day-time scenarios is adapted to
different complex scenarios. Instead of adapting the whole depth network, we
just consider the encoder network for lower computational complexity. The depth
models adapted by the proposed framework to different scenarios share the same
decoder, which is practical. Constraints on both feature space and output space
promote the framework to learn the key features for depth decoding, and the
smoothness loss is introduced into the adaptation framework for better depth
estimation performance. Extensive experiments show the effectiveness of the
proposed unsupervised framework in estimating the dense depth map from the
night-time, rainy night-time and snowy winter images.
- Abstract(参考訳): 従来の教師なし単眼深度推定法は主に日中のシナリオに重点を置いており、それらのフレームワークは歪んだ光度一貫性によって駆動される。
夜間、雨の夜、または雪の冬など、いくつかの困難な環境では、異なるフレーム上の同じピクセルの光度測定は、複雑な照明と反射のために不整合であり、日中無監督のフレームワークがこれらの複雑なシナリオに直接適用できない。
本稿では,高度に複雑なシナリオにおける教師なし単眼深度推定の問題について検討する。
本稿では,この課題をドメイン適応を用いて解決し,単眼映像に基づく統一的な画像転送に基づく適応フレームワークを提案する。
日中のシナリオでトレーニングされた深度モデルは、異なる複雑なシナリオに適応する。
深度ネットワーク全体を適応させる代わりに、エンコーダネットワークを計算複雑性の低減のために考慮する。
提案するフレームワークによって異なるシナリオに適応された深さモデルは、同じデコーダを共有する。
特徴空間と出力空間の両方の制約により、深度復号化のための重要な特徴を学ぶフレームワークが促進され、その滑らかさ損失が適応フレームワークに導入され、深さ推定性能が向上する。
大規模な実験により, 夜間, 降雨夜間, 降雪冬季の深度マップを推定する上で, 教師なしの枠組みの有効性が示された。
関連論文リスト
- Adaptive Stereo Depth Estimation with Multi-Spectral Images Across All Lighting Conditions [58.88917836512819]
本稿では,立体深度推定を取り入れた新しいフレームワークを提案し,正確な幾何学的制約を強制する。
照明の劣化がステレオマッチングに与える影響を軽減するために,劣化マスキングを導入する。
提案手法は,Multi-Spectral Stereo(MS2)データセット上でのSOTA(State-of-the-art)性能を実現する。
論文 参考訳(メタデータ) (2024-11-06T03:30:46Z) - Dusk Till Dawn: Self-supervised Nighttime Stereo Depth Estimation using Visual Foundation Models [16.792458193160407]
自己教師付き深さ推定アルゴリズムはフレームウォーピング関係に大きく依存する。
夜間に焦点をあてた自己教師型ステレオ深度推定を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-18T03:07:23Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - Learnable Differencing Center for Nighttime Depth Perception [39.455428679154934]
我々は LDCNet というシンプルなフレームワークを提案する。
我々のキーとなる考え方は、夜間のカラー画像を改善するために、Recurrent Inter-Convolution Difference (RICD) と Illumination-Affinitive Inter-Convolution Difference (IAICD) を使用することである。
夜間深度推定タスクと夜間深度推定タスクの両方において,LDCNetの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2023-06-26T09:21:13Z) - Fully Self-Supervised Depth Estimation from Defocus Clue [79.63579768496159]
スパース焦点スタックから深度を純粋に推定する自己教師型フレームワークを提案する。
筆者らのフレームワークは,深度とAIF画像の接地構造の必要性を回避し,より優れた予測を得られることを示す。
論文 参考訳(メタデータ) (2023-03-19T19:59:48Z) - Uncertainty Guided Depth Fusion for Spike Camera [49.41822923588663]
スパイクカメラのための単分子およびステレオ深度推定ネットワークの予測を融合させる新しい不確かさ誘導深度融合(UGDF)フレームワークを提案する。
我々のフレームワークは、ステレオスパイク深さ推定がより近い範囲でより良い結果をもたらすという事実に動機づけられている。
従来のカメラ深度推定よりもスパイク深度推定の利点を示すため、我々はCitySpike20Kというスパイク深度データセットに貢献する。
論文 参考訳(メタデータ) (2022-08-26T13:04:01Z) - A high-precision self-supervised monocular visual odometry in foggy
weather based on robust cycled generative adversarial networks and multi-task
learning aided depth estimation [0.0]
本稿では,霧の天候下でのナビゲーションに特化して設計された,高精度な自己監督型単分子VOを提案する。
サイクル生成対向ネットワークは、前と後ろの半サイクルに一貫した推定を強制することで、高品質な自己監督的損失を得るように設計されている。
霧の天候における自己監督的損失に対する複雑な光度変化の干渉を取り除くため、勾配に基づく損失と知覚的損失が導入された。
論文 参考訳(メタデータ) (2022-03-09T15:41:57Z) - Regularizing Nighttime Weirdness: Efficient Self-supervised Monocular
Depth Estimation in the Dark [20.66405067066299]
未ペア深度マップから分布知識を学習するために,プリエントベース正規化を導入する。
また、画像の可視性とコントラストを高めるために、マッピング一貫性画像強調モジュールを活用している。
筆者らのフレームワークは,2つの夜間データセットに対して,顕著な改善と最先端の結果を達成している。
論文 参考訳(メタデータ) (2021-08-09T06:24:35Z) - Self-Supervised Monocular Depth Estimation of Untextured Indoor Rotated
Scenes [6.316693022958222]
自己教師付き深層学習法はステレオ画像を利用して単眼深度推定の訓練を行っている。
これらの手法は, 室内環境における監視手法の性能とカメラ回転とを一致しない。
テクスチャレス領域における画像再構成誤りの曖昧さを補正する新しい不均一損失項を提案する。
論文 参考訳(メタデータ) (2021-06-24T12:27:16Z) - Adaptive confidence thresholding for monocular depth estimation [83.06265443599521]
本稿では,自己教師付ステレオマッチング法から生成されたステレオ画像の擬似地上真実深度マップを利用する新しい手法を提案する。
擬似地底深度マップの信頼度マップを推定し、不正確な擬似地底深度マップによる性能劣化を緩和する。
実験結果から, 最先端の単分子深度推定法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-09-27T13:26:16Z) - DeFeat-Net: General Monocular Depth via Simultaneous Unsupervised
Representation Learning [65.94499390875046]
DeFeat-Netは、クロスドメインの高密度な特徴表現を同時に学習するアプローチである。
提案手法は, 誤差対策を全て10%程度減らすことで, 最先端技術よりも優れる。
論文 参考訳(メタデータ) (2020-03-30T13:10:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。