論文の概要: The Monocular Depth Estimation Challenge
- arxiv url: http://arxiv.org/abs/2211.12174v1
- Date: Tue, 22 Nov 2022 11:04:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 18:10:06.238127
- Title: The Monocular Depth Estimation Challenge
- Title(参考訳): 単眼深度推定の課題
- Authors: Jaime Spencer, C. Stella Qian, Chris Russell, Simon Hadfield, Erich
Graf, Wendy Adams, Andrew J. Schofield, James Elder, Richard Bowden, Heng
Cong, Stefano Mattoccia, Matteo Poggi, Zeeshan Khan Suri, Yang Tang, Fabio
Tosi, Hao Wang, Youmin Zhang, Yusheng Zhang, Chaoqiang Zhao
- Abstract要約: 本稿では,WACV2103で組織された最初の単分子深度推定チャレンジ(MDEC)の結果を要約する。
この課題は、SynS-Patchesデータセット上での自己教師付き単眼深度推定の進捗を評価した。
- 参考スコア(独自算出の注目度): 74.0535474077928
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper summarizes the results of the first Monocular Depth Estimation
Challenge (MDEC) organized at WACV2023. This challenge evaluated the progress
of self-supervised monocular depth estimation on the challenging SYNS-Patches
dataset. The challenge was organized on CodaLab and received submissions from 4
valid teams. Participants were provided a devkit containing updated reference
implementations for 16 State-of-the-Art algorithms and 4 novel techniques. The
threshold for acceptance for novel techniques was to outperform every one of
the 16 SotA baselines. All participants outperformed the baseline in
traditional metrics such as MAE or AbsRel. However, pointcloud reconstruction
metrics were challenging to improve upon. We found predictions were
characterized by interpolation artefacts at object boundaries and errors in
relative object positioning. We hope this challenge is a valuable contribution
to the community and encourage authors to participate in future editions.
- Abstract(参考訳): 本稿では,WACV2023で組織された最初の単分子深度推定チャレンジ(MDEC)の結果を要約する。
この課題は,syns-patchesデータセット上での自己教師付き単眼深度推定の進展を評価した。
課題はCodaLabで組織され、4つの有効なチームから提出された。
参加者は16のState-of-the-Artアルゴリズムと4つの新しいテクニックのリファレンス実装を更新したデベキットが提供された。
新規技術を受け入れるためのしきい値は、16 SotAベースラインのどれよりも優れていた。
すべての参加者がMAEやAbsRelといった従来のメトリクスでベースラインを上回りました。
しかし、ポイントクラウド再構築メトリクスの改善は困難だった。
予測はオブジェクト境界における補間アーティファクトと相対オブジェクト位置決めにおけるエラーによって特徴づけられた。
この挑戦がコミュニティに価値ある貢献であり、著者に今後のエディションへの参加を促すことを願っています。
関連論文リスト
- AIM 2024 Sparse Neural Rendering Challenge: Methods and Results [64.19942455360068]
本稿では,ECCV 2024と共同で開催されるAIM(Advanceds in Image Manipulation)ワークショップの一部であるスパースニューラルレンダリングの課題についてレビューする。
この課題は、スパース画像から多様なシーンを合成する新しいカメラビューを作ることである。
参加者は、Pak Signal-to-Noise Ratio (PSNR) 測定によって測定された地中真実像に対する客観的忠実度を最適化するよう依頼される。
論文 参考訳(メタデータ) (2024-09-23T14:17:40Z) - The Third Monocular Depth Estimation Challenge [134.16634233789776]
本稿では,モノクロ深度推定チャレンジ(MDEC)の第3版の結果について述べる。
この課題は、自然と屋内の複雑なシーンを特徴とする、挑戦的なSynS-Patchesデータセットへのゼロショットの一般化に焦点を当てている。
挑戦者は17.51%から23.72%の3D Fスコアのパフォーマンスを大幅に改善した。
論文 参考訳(メタデータ) (2024-04-25T17:59:59Z) - The RoboDepth Challenge: Methods and Advancements Towards Robust Depth Estimation [97.63185634482552]
我々は,RoboDepth Challengeの優勝ソリューションを要約する。
この課題は、堅牢なOoD深度推定を容易にし、前進させるように設計された。
この課題が、堅牢で信頼性の高い深度推定に関する将来の研究の基盤となることを願っている。
論文 参考訳(メタデータ) (2023-07-27T17:59:56Z) - The Second Monocular Depth Estimation Challenge [93.1678025923996]
MDEC (Monocular Depth Estimation Challenge) の第2版は、いかなる種類の監視方法にも開放された。
この課題はSynS-Patchesデータセットをベースとしており、高品質な高密度地下構造を持つ多様な環境を特徴としている。
上位の監督官は相対的なFスコアを27.62%改善し、上位の監督官は16.61%改善した。
論文 参考訳(メタデータ) (2023-04-14T11:10:07Z) - Unsupervised Deep Persistent Monocular Visual Odometry and Depth
Estimation in Extreme Environments [7.197188771058501]
教師なしの深層学習アプローチは、未ラベルの単分子画像列から深度と視覚計測(VO)を推定するために大きな注目を集めている。
そこで本稿では,RGB画像列からカメラの6自由度ポーズとシーンの深度マップを予測する,教師なし単眼深度VOフレームワークを提案する。
提案手法は, 従来の非教師付き深度VO法と非教師付き深度VO法の両方より優れ, ポーズ推定と深度回復の両面で良好な結果が得られる。
論文 参考訳(メタデータ) (2020-10-31T19:10:27Z) - Recognizing Families In the Wild: White Paper for the 4th Edition Data
Challenge [91.55319616114943]
本稿では,Recognizing Families In the Wild(RFIW)評価における支援課題(親族検証,三対象検証,行方不明児の検索・検索)を要約する。
本研究の目的は、2020年のRFIWチャレンジと、将来的な方向性の予測について述べることである。
論文 参考訳(メタデータ) (2020-02-15T02:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。