論文の概要: The RoboDepth Challenge: Methods and Advancements Towards Robust Depth Estimation
- arxiv url: http://arxiv.org/abs/2307.15061v2
- Date: Tue, 24 Sep 2024 23:49:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 14:40:04.775479
- Title: The RoboDepth Challenge: Methods and Advancements Towards Robust Depth Estimation
- Title(参考訳): RoboDepth Challenge:ロバスト深さ推定に向けた手法と進歩
- Authors: Lingdong Kong, Yaru Niu, Shaoyuan Xie, Hanjiang Hu, Lai Xing Ng, Benoit R. Cottereau, Liangjun Zhang, Hesheng Wang, Wei Tsang Ooi, Ruijie Zhu, Ziyang Song, Li Liu, Tianzhu Zhang, Jun Yu, Mohan Jing, Pengwei Li, Xiaohua Qi, Cheng Jin, Yingfeng Chen, Jie Hou, Jie Zhang, Zhen Kan, Qiang Ling, Liang Peng, Minglei Li, Di Xu, Changpeng Yang, Yuanqi Yao, Gang Wu, Jian Kuai, Xianming Liu, Junjun Jiang, Jiamian Huang, Baojun Li, Jiale Chen, Shuang Zhang, Sun Ao, Zhenyu Li, Runze Chen, Haiyong Luo, Fang Zhao, Jingze Yu,
- Abstract要約: 我々は,RoboDepth Challengeの優勝ソリューションを要約する。
この課題は、堅牢なOoD深度推定を容易にし、前進させるように設計された。
この課題が、堅牢で信頼性の高い深度推定に関する将来の研究の基盤となることを願っている。
- 参考スコア(独自算出の注目度): 97.63185634482552
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Accurate depth estimation under out-of-distribution (OoD) scenarios, such as adverse weather conditions, sensor failure, and noise contamination, is desirable for safety-critical applications. Existing depth estimation systems, however, suffer inevitably from real-world corruptions and perturbations and are struggled to provide reliable depth predictions under such cases. In this paper, we summarize the winning solutions from the RoboDepth Challenge -- an academic competition designed to facilitate and advance robust OoD depth estimation. This challenge was developed based on the newly established KITTI-C and NYUDepth2-C benchmarks. We hosted two stand-alone tracks, with an emphasis on robust self-supervised and robust fully-supervised depth estimation, respectively. Out of more than two hundred participants, nine unique and top-performing solutions have appeared, with novel designs ranging from the following aspects: spatial- and frequency-domain augmentations, masked image modeling, image restoration and super-resolution, adversarial training, diffusion-based noise suppression, vision-language pre-training, learned model ensembling, and hierarchical feature enhancement. Extensive experimental analyses along with insightful observations are drawn to better understand the rationale behind each design. We hope this challenge could lay a solid foundation for future research on robust and reliable depth estimation and beyond. The datasets, competition toolkit, workshop recordings, and source code from the winning teams are publicly available on the challenge website.
- Abstract(参考訳): 悪天候, センサ故障, 騒音汚染など, アウト・オブ・ディストリビューション(OoD)のシナリオ下での正確な深度推定は, 安全クリティカルな応用に望ましい。
しかし、既存の深度推定システムは、必然的に現実世界の腐敗や摂動に悩まされ、そのような場合の信頼性の高い深度予測に苦慮している。
本稿では,頑健なOoD深度推定を容易にすることを目的とした学術コンペであるRoboDepth Challengeの優勝ソリューションを要約する。
この問題は、新たに確立されたKITTI-CとNYUDepth2-Cベンチマークに基づいて開発された。
我々は2つのスタンドアローントラックをホストし、それぞれ、頑健な自己監督と頑健な完全教師付き深度推定に重点を置いていた。
200人を超える参加者のうち、9つの独特で最高のソリューションが登場し、空間領域と周波数領域の強化、マスク付き画像モデリング、画像復元と超高解像度化、対向訓練、拡散に基づくノイズ抑圧、視覚言語による事前学習、学習モデルエンハンスブル、階層的特徴強化など、新しい設計がなされている。
各設計の背景にある理論的根拠をよりよく理解するために、総合的な実験分析と洞察に富んだ観察を描いている。
この課題が、堅牢で信頼性の高い深度推定などに関する将来の研究の確固たる基盤となることを願っている。
データセット、競争ツールキット、ワークショップ記録、優勝チームのソースコードは、チャレンジウェブサイトで公開されている。
関連論文リスト
- Uncertainty-guided Optimal Transport in Depth Supervised Sparse-View 3D Gaussian [49.21866794516328]
3次元ガウシアンスプラッティングは、リアルタイムな新規ビュー合成において顕著な性能を示した。
これまでのアプローチでは、3Dガウスの訓練に奥行き監視を取り入れ、オーバーフィッティングを軽減してきた。
本研究では,3次元ガウスの深度分布を可視化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:18:30Z) - STBA: Towards Evaluating the Robustness of DNNs for Query-Limited Black-box Scenario [50.37501379058119]
本研究では,クエリ制限シナリオにおいて,悪意のある逆の例を作成するために,空間変換ブラックボックス攻撃(STBA)を提案する。
そこで本研究では,STBAが対向例の認識不能性を効果的に改善し,クエリ制限条件下での攻撃成功率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-03-30T13:28:53Z) - Stealing Stable Diffusion Prior for Robust Monocular Depth Estimation [33.140210057065644]
本稿では, 単分子深度推定に先立って, ステアリング安定拡散 (SSD) という新しい手法を提案する。
このアプローチは、安定拡散を利用して、挑戦的な条件を模倣した合成画像を生成することにより、この制限に対処する。
このアプローチの有効性は、nuScenesとOxford RobotCarで評価されている。
論文 参考訳(メタデータ) (2024-03-08T05:06:31Z) - Unveiling the Depths: A Multi-Modal Fusion Framework for Challenging
Scenarios [103.72094710263656]
本稿では,学習に基づくフレームワークを用いて,支配的モダリティの奥行きを識別し,統合する手法を提案する。
本稿では,信頼度予測ネットワークを操り,潜在電位深度領域を特定する信頼マップを作成する新しい信頼損失を提案する。
得られた信頼度マップを用いて,最終深度をエンドツーエンドに融合するマルチモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-19T04:39:16Z) - RoboDepth: Robust Out-of-Distribution Depth Estimation under Corruptions [7.359657743276515]
3つのカテゴリにまたがる18の汚職にまたがる包括的な堅牢性テストスイートであるRoboDepthを紹介します。
室内および屋外の現場における42の深度推定モデルを用いて,これらの汚損に対するレジリエンスを評価する。
本研究は, 厳密性評価フレームワークが欠如している場合, 多くの先行深度推定モデルが, 典型的な汚職の影響を受けやすいことを示すものである。
論文 参考訳(メタデータ) (2023-10-23T17:59:59Z) - EC-Depth: Exploring the consistency of self-supervised monocular depth estimation in challenging scenes [36.44321460703116]
EC-Depthは、堅牢な深さ推定を実現するための、新しい自己教師型2段階フレームワークである。
第1段階では、信頼性の高い監督を標準から挑戦的な場面に広めるために、奥行き整合正則化を提案する。
第2段階では、疑似ラベルの品質を向上させるために、一貫性に基づく新しい擬似ラベルフィルタリング戦略を採用する。
論文 参考訳(メタデータ) (2023-10-12T05:34:45Z) - Unsupervised Scale-consistent Depth Learning from Video [131.3074342883371]
本研究では,単眼深度推定器SC-Depthを提案する。
スケール一貫性予測の能力により,我々の単分子学習深層ネットワークは簡単にORB-SLAM2システムに統合可能であることを示す。
提案したハイブリッドPseudo-RGBD SLAMは、KITTIにおいて魅力的な結果を示し、追加のトレーニングなしでKAISTデータセットにうまく一般化する。
論文 参考訳(メタデータ) (2021-05-25T02:17:56Z) - Unsupervised Deep Persistent Monocular Visual Odometry and Depth
Estimation in Extreme Environments [7.197188771058501]
教師なしの深層学習アプローチは、未ラベルの単分子画像列から深度と視覚計測(VO)を推定するために大きな注目を集めている。
そこで本稿では,RGB画像列からカメラの6自由度ポーズとシーンの深度マップを予測する,教師なし単眼深度VOフレームワークを提案する。
提案手法は, 従来の非教師付き深度VO法と非教師付き深度VO法の両方より優れ, ポーズ推定と深度回復の両面で良好な結果が得られる。
論文 参考訳(メタデータ) (2020-10-31T19:10:27Z) - On the uncertainty of self-supervised monocular depth estimation [52.13311094743952]
単眼深度推定のための自己監督的パラダイムは、基礎的な真理アノテーションを全く必要としないため、非常に魅力的である。
我々は,このタスクの不確かさを推定する方法と,これが深さ精度にどのように影響するかを初めて検討する。
自己教師型アプローチに特化して設計された,斬新な手法を提案する。
論文 参考訳(メタデータ) (2020-05-13T09:00:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。