論文の概要: SeasonDepth: Cross-Season Monocular Depth Prediction Dataset and
Benchmark under Multiple Environments
- arxiv url: http://arxiv.org/abs/2011.04408v7
- Date: Mon, 17 Jul 2023 23:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 19:54:07.164694
- Title: SeasonDepth: Cross-Season Monocular Depth Prediction Dataset and
Benchmark under Multiple Environments
- Title(参考訳): seasondepth: 複数の環境下でのクロスシーズン単眼深度予測データセットとベンチマーク
- Authors: Hanjiang Hu, Baoquan Yang, Zhijian Qiao, Shiqi Liu, Jiacheng Zhu,
Zuxin Liu, Wenhao Ding, Ding Zhao, Hesheng Wang
- Abstract要約: 本研究では,最初のクロスシーズン単眼深度予測データセットとベンチマークである seasonDepth を紹介する。
提案手法は, 提案手法を用いて, 最先端の代表的オープンソース管理手法と自己監督型深度予測手法について検討する。
長期的な単眼深度予測はいまだに困難であり、我々の研究は、屋外視覚知覚の長期的な堅牢性と一般化に関するさらなる研究を促進することができると信じている。
- 参考スコア(独自算出の注目度): 34.96507991067661
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Different environments pose a great challenge to the outdoor robust visual
perception for long-term autonomous driving, and the generalization of
learning-based algorithms on different environments is still an open problem.
Although monocular depth prediction has been well studied recently, few works
focus on the robustness of learning-based depth prediction across different
environments, e.g. changing illumination and seasons, owing to the lack of such
a multi-environment real-world dataset and benchmark. To this end, the first
cross-season monocular depth prediction dataset and benchmark, SeasonDepth, is
introduced to benchmark the depth estimation performance under different
environments. We investigate several state-of-the-art representative
open-source supervised and self-supervised depth prediction methods using
newly-formulated metrics. Through extensive experimental evaluation on the
proposed dataset and cross-dataset evaluation with current autonomous driving
datasets, the performance and robustness against the influence of multiple
environments are analyzed qualitatively and quantitatively. We show that
long-term monocular depth prediction is still challenging and believe our work
can boost further research on the long-term robustness and generalization for
outdoor visual perception. The dataset is available on
https://seasondepth.github.io, and the benchmark toolkit is available on
https://github.com/ SeasonDepth/SeasonDepth.
- Abstract(参考訳): 異なる環境は、長期的な自動運転のための屋外の堅牢な視覚認識にとって大きな課題であり、異なる環境における学習ベースのアルゴリズムの一般化は、まだ未解決の問題である。
単眼深度予測は近年よく研究されているが、例えば照明や季節の変化など、様々な環境における学習に基づく深度予測の堅牢性に焦点を当てた研究はほとんどない。
この目的のために,最初のクロスシーズン単眼深度予測データセットとベンチマークである seasondepth を導入し,異なる環境下での深さ推定性能のベンチマークを行った。
提案手法は,提案手法を応用した,最先端のオープンソースの教師付きおよび自己教師型深度予測手法である。
提案したデータセットの広範囲な実験的評価と、現在の自律運転データセットによるクロスデータセット評価により、複数の環境の影響に対する性能と堅牢性を質的かつ定量的に分析する。
また,我々の研究は,屋外視知覚の長期的ロバスト性と一般化に関するさらなる研究を促進できると信じている。
データセットはhttps://seasondepth.github.ioで、ベンチマークツールキットはhttps://github.com/ SeasonDepth/SeasonDepthで入手できる。
関連論文リスト
- ViewpointDepth: A New Dataset for Monocular Depth Estimation Under Viewpoint Shifts [6.260553883409459]
本稿では,異なるカメラ位置と方向が単眼深度推定性能に与える影響を定量化するための新しいデータセットと評価手法を提案する。
ホログラフィー推定とオブジェクト検出に基づく地上真実戦略を提案し、高価なLIDARセンサの必要性を排除した。
論文 参考訳(メタデータ) (2024-09-26T13:57:05Z) - A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Dusk Till Dawn: Self-supervised Nighttime Stereo Depth Estimation using Visual Foundation Models [16.792458193160407]
自己教師付き深さ推定アルゴリズムはフレームウォーピング関係に大きく依存する。
夜間に焦点をあてた自己教師型ステレオ深度推定を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-18T03:07:23Z) - 4Seasons: Benchmarking Visual SLAM and Long-Term Localization for
Autonomous Driving in Challenging Conditions [54.59279160621111]
大規模4Seasonsデータセットに基づく課題条件下での自律運転のための新しい視覚的SLAMと長期局所化ベンチマークを提案する。
提案したベンチマークでは,季節変化や天候,照明条件の変動による劇的な外見の変化が報告されている。
本稿では,視覚計測,大域的位置認識,および地図に基づく視覚的位置決め性能を共同評価するための統合ベンチマークを提案する。
論文 参考訳(メタデータ) (2022-12-31T13:52:36Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - MonoIndoor++:Towards Better Practice of Self-Supervised Monocular Depth
Estimation for Indoor Environments [45.89629401768049]
自己監督型単分子深度推定は近年,特に屋外環境において顕著な進歩を遂げている。
しかし、既存のデータの大半を携帯端末で捉えている屋内シーンでは、深度予測結果は満足できない。
室内環境における自己教師型単眼深度推定の性能向上を目的とした,新しいフレームワーク-IndoorMono++を提案する。
論文 参考訳(メタデータ) (2022-07-18T21:34:43Z) - Multi-Frame Self-Supervised Depth with Transformers [33.00363651105475]
本稿では,コストボリューム生成のためのトランスフォーマーアーキテクチャを提案する。
深度分布型エピポーラサンプリングを用いて、マッチング候補を選択する。
私たちは、一連の自己と横断的なレイヤを通じて予測を洗練します。
論文 参考訳(メタデータ) (2022-04-15T19:04:57Z) - SelfTune: Metrically Scaled Monocular Depth Estimation through
Self-Supervised Learning [53.78813049373321]
本稿では,事前学習した教師付き単分子深度ネットワークに対する自己教師付き学習手法を提案する。
本手法は移動ロボットナビゲーションなどの様々な応用に有用であり,多様な環境に適用可能である。
論文 参考訳(メタデータ) (2022-03-10T12:28:42Z) - JHU-CROWD++: Large-Scale Crowd Counting Dataset and A Benchmark Method [92.15895515035795]
我々は、"4,372"イメージと"1.51万"アノテーションを含む、新しい大規模非制約クラウドカウントデータセット(JHU-CROWD++)を導入する。
本稿では, 残差誤差推定により, 群集密度マップを段階的に生成する新しい群集カウントネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T14:59:35Z) - Monocular Depth Estimation Based On Deep Learning: An Overview [16.2543991384566]
単一の画像から深度情報(眼深度推定)を推定することは不適切な問題である。
ディープラーニングは最近広く研究され、精度で有望なパフォーマンスを達成した。
深度推定の精度を向上させるために,様々な種類のネットワークフレームワーク,損失関数,トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-03-14T12:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。