論文の概要: SeasonDepth: Cross-Season Monocular Depth Prediction Dataset and
Benchmark under Multiple Environments
- arxiv url: http://arxiv.org/abs/2011.04408v5
- Date: Fri, 17 Dec 2021 02:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 01:27:19.828929
- Title: SeasonDepth: Cross-Season Monocular Depth Prediction Dataset and
Benchmark under Multiple Environments
- Title(参考訳): seasondepth: 複数の環境下でのクロスシーズン単眼深度予測データセットとベンチマーク
- Authors: Hanjiang Hu, Baoquan Yang, Zhijian Qiao, Ding Zhao, Hesheng Wang
- Abstract要約: 異なる環境は、長期的な自律運転において、屋外の頑健な視覚的知覚にとって大きな課題となる。
我々は、最初のクロスシーズン単眼深度予測データセットを構築し、シーズンDepthをベンチマークする。
細調整でも長期の単眼深度予測は依然として困難であることを示す。
- 参考スコア(独自算出の注目度): 30.178369509136107
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Different environments pose a great challenge to the outdoor robust visual
perception for long-term autonomous driving and the generalization of
learning-based algorithms on different environmental effects is still an open
problem. Although monocular depth prediction has been well studied recently,
there is few work focusing on the robust learning-based depth prediction across
different environments, e.g. changing illumination and seasons, owing to the
lack of such a multi-environment real-world dataset and benchmark. To this end,
the first cross-season monocular depth prediction dataset and benchmark
SeasonDepth is built based on CMU Visual Localization dataset. To benchmark the
depth estimation performance under different environments, we investigate
representative and recent state-of-the-art open-source supervised,
self-supervised and domain adaptation depth prediction methods from KITTI
benchmark using several newly-formulated metrics. Through extensive
experimental evaluation on the proposed dataset, the influence of multiple
environments on performance and robustness is analyzed qualitatively and
quantitatively, showing that the long-term monocular depth prediction is still
challenging even with fine-tuning. We further give promising avenues that
self-supervised training and stereo geometry constraint help to enhance the
robustness to changing environments. The dataset is available on
https://seasondepth.github.io, and benchmark toolkit is available on
https://github.com/SeasonDepth/SeasonDepth.
- Abstract(参考訳): 異なる環境は、長期の自動運転のための屋外の堅牢な視覚認識にとって大きな課題となり、異なる環境効果に対する学習ベースのアルゴリズムの一般化は、まだ未解決の問題である。
近年、単眼深度予測はよく研究されているが、このような多環境実世界のデータセットとベンチマークが欠如しているため、異なる環境、例えば照明や季節の変化など、学習に基づく堅牢な深さ予測に焦点を当てた研究は少ない。
この目的のために、最初のクロスシーズン単眼深度予測データセットとベンチマーク季節深度は、cmuビジュアルローカライゼーションデータセットに基づいて構築される。
異なる環境下での深度推定性能のベンチマークを行うため,KITTIベンチマークによる最先端のオープンソース管理,自己監督,ドメイン適応深度予測手法について,複数の新形式メトリクスを用いて検討した。
提案したデータセットに対する広範囲な実験評価を通じて,複数環境が性能およびロバスト性に与える影響を質的,定量的に分析し,微調整でも長期の単眼深度予測は依然として困難であることを示す。
さらに,自己指導型トレーニングとステレオ幾何学的制約が環境変化に対する堅牢性を高める上で有効であることを示す。
データセットはhttps://seasondepth.github.ioで、ベンチマークツールキットはhttps://github.com/SeasonDepth/SeasonDepthで入手できる。
関連論文リスト
- A New Dataset for Monocular Depth Estimation Under Viewpoint Shifts [6.260553883409459]
本稿では,異なるカメラ位置と方向が単眼深度推定性能に与える影響を定量化するための新しいデータセットと評価手法を提案する。
ホログラフィー推定と物体検出に基づく地中真理戦略を提案し,高価なライダーセンサの必要性を排除した。
論文 参考訳(メタデータ) (2024-09-26T13:57:05Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Dusk Till Dawn: Self-supervised Nighttime Stereo Depth Estimation using Visual Foundation Models [16.792458193160407]
自己教師付き深さ推定アルゴリズムはフレームウォーピング関係に大きく依存する。
夜間に焦点をあてた自己教師型ステレオ深度推定を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-18T03:07:23Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - MonoIndoor++:Towards Better Practice of Self-Supervised Monocular Depth
Estimation for Indoor Environments [45.89629401768049]
自己監督型単分子深度推定は近年,特に屋外環境において顕著な進歩を遂げている。
しかし、既存のデータの大半を携帯端末で捉えている屋内シーンでは、深度予測結果は満足できない。
室内環境における自己教師型単眼深度推定の性能向上を目的とした,新しいフレームワーク-IndoorMono++を提案する。
論文 参考訳(メタデータ) (2022-07-18T21:34:43Z) - Multi-Frame Self-Supervised Depth with Transformers [33.00363651105475]
本稿では,コストボリューム生成のためのトランスフォーマーアーキテクチャを提案する。
深度分布型エピポーラサンプリングを用いて、マッチング候補を選択する。
私たちは、一連の自己と横断的なレイヤを通じて予測を洗練します。
論文 参考訳(メタデータ) (2022-04-15T19:04:57Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - JHU-CROWD++: Large-Scale Crowd Counting Dataset and A Benchmark Method [92.15895515035795]
我々は、"4,372"イメージと"1.51万"アノテーションを含む、新しい大規模非制約クラウドカウントデータセット(JHU-CROWD++)を導入する。
本稿では, 残差誤差推定により, 群集密度マップを段階的に生成する新しい群集カウントネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T14:59:35Z) - Monocular Depth Estimation Based On Deep Learning: An Overview [16.2543991384566]
単一の画像から深度情報(眼深度推定)を推定することは不適切な問題である。
ディープラーニングは最近広く研究され、精度で有望なパフォーマンスを達成した。
深度推定の精度を向上させるために,様々な種類のネットワークフレームワーク,損失関数,トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T12:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。