論文の概要: The Fourth Monocular Depth Estimation Challenge
- arxiv url: http://arxiv.org/abs/2504.17787v1
- Date: Thu, 24 Apr 2025 17:59:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.492227
- Title: The Fourth Monocular Depth Estimation Challenge
- Title(参考訳): 第4回単分子深度推定チャレンジ
- Authors: Anton Obukhov, Matteo Poggi, Fabio Tosi, Ripudaman Singh Arora, Jaime Spencer, Chris Russell, Simon Hadfield, Richard Bowden, Shuaihang Wang, Zhenxin Ma, Weijie Chen, Baobei Xu, Fengyu Sun, Di Xie, Jiang Zhu, Mykola Lavreniuk, Haining Guan, Qun Wu, Yupei Zeng, Chao Lu, Huanran Wang, Guangyuan Zhou, Haotian Zhang, Jianxiong Wang, Qiang Rao, Chunjie Wang, Xiao Liu, Zhiqiang Lou, Hualie Jiang, Yihao Chen, Rui Xu, Minglang Tan, Zihan Qin, Yifan Mao, Jiayang Liu, Jialei Xu, Yifan Yang, Wenbo Zhao, Junjun Jiang, Xianming Liu, Mingshuai Zhao, Anlong Ming, Wu Chen, Feng Xue, Mengying Yu, Shida Gao, Xiangfeng Wang, Gbenga Omotara, Ramy Farag, Jacket Demby, Seyed Mohamad Ali Tousi, Guilherme N DeSouza, Tuan-Anh Yang, Minh-Quang Nguyen, Thien-Phuc Tran, Albert Luginov, Muhammad Shahzad,
- Abstract要約: 本報告では, 単眼深度推定チャレンジ(MDEC)の第4版の結果について述べる。
SynS-Patchesベンチマークへのゼロショットの一般化に焦点を当てており、自然環境と屋内環境の両方で挑戦的な環境を特徴とするデータセットである。
この挑戦は合計24件の応募を受け、テストセットのベースラインを上回りました。
優勝者は3D F-Scoreを22.58%から23.05%に引き上げた。
- 参考スコア(独自算出の注目度): 100.38910331027051
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the results of the fourth edition of the Monocular Depth Estimation Challenge (MDEC), which focuses on zero-shot generalization to the SYNS-Patches benchmark, a dataset featuring challenging environments in both natural and indoor settings. In this edition, we revised the evaluation protocol to use least-squares alignment with two degrees of freedom to support disparity and affine-invariant predictions. We also revised the baselines and included popular off-the-shelf methods: Depth Anything v2 and Marigold. The challenge received a total of 24 submissions that outperformed the baselines on the test set; 10 of these included a report describing their approach, with most leading methods relying on affine-invariant predictions. The challenge winners improved the 3D F-Score over the previous edition's best result, raising it from 22.58% to 23.05%.
- Abstract(参考訳): 本稿では,自然環境と屋内環境の両方において挑戦的な環境を特徴とするデータセットであるSynS-Patchesベンチマークへのゼロショット一般化に焦点を当てた,モノクロ深度推定チャレンジ(MDEC)の第4版の結果について述べる。
本稿では,2自由度と最小二乗アライメントを用いて,不均一性およびアフィン不変予測をサポートするための評価プロトコルを改訂した。
ベースラインも改訂し、Depth Anything v2 と Marigold という、市販の一般的なメソッドも追加しました。
この挑戦は、合計24件の応募を受け、テストセットのベースラインを上回り、そのうち10件は、アフィン不変の予測に頼って、彼らのアプローチを説明するレポートを含んでいた。
優勝者は3D F-Scoreを22.58%から23.05%に引き上げた。
関連論文リスト
- AIM 2024 Sparse Neural Rendering Challenge: Methods and Results [64.19942455360068]
本稿では,ECCV 2024と共同で開催されるAIM(Advanceds in Image Manipulation)ワークショップの一部であるスパースニューラルレンダリングの課題についてレビューする。
この課題は、スパース画像から多様なシーンを合成する新しいカメラビューを作ることである。
参加者は、Pak Signal-to-Noise Ratio (PSNR) 測定によって測定された地中真実像に対する客観的忠実度を最適化するよう依頼される。
論文 参考訳(メタデータ) (2024-09-23T14:17:40Z) - The Third Monocular Depth Estimation Challenge [134.16634233789776]
本稿では,モノクロ深度推定チャレンジ(MDEC)の第3版の結果について述べる。
この課題は、自然と屋内の複雑なシーンを特徴とする、挑戦的なSynS-Patchesデータセットへのゼロショットの一般化に焦点を当てている。
挑戦者は17.51%から23.72%の3D Fスコアのパフォーマンスを大幅に改善した。
論文 参考訳(メタデータ) (2024-04-25T17:59:59Z) - Semi-Supervised Unconstrained Head Pose Estimation in the Wild [60.08319512840091]
本研究では,最初の半教師なしヘッドポーズ推定手法であるSemiUHPEを提案する。
本手法は, 前回のランドマークに基づくアフィンアライメントよりも, 野生の頭部のアスペクト比不変収穫が優れているという観測に基づいている。
提案手法は, 汎用物体回転回帰法や3次元頭部再構成法など, その他の密接に関連する問題を解く上でも有用である。
論文 参考訳(メタデータ) (2024-04-03T08:01:00Z) - The Second Monocular Depth Estimation Challenge [93.1678025923996]
MDEC (Monocular Depth Estimation Challenge) の第2版は、いかなる種類の監視方法にも開放された。
この課題はSynS-Patchesデータセットをベースとしており、高品質な高密度地下構造を持つ多様な環境を特徴としている。
上位の監督官は相対的なFスコアを27.62%改善し、上位の監督官は16.61%改善した。
論文 参考訳(メタデータ) (2023-04-14T11:10:07Z) - The Monocular Depth Estimation Challenge [74.0535474077928]
本稿では,WACV2103で組織された最初の単分子深度推定チャレンジ(MDEC)の結果を要約する。
この課題は、SynS-Patchesデータセット上での自己教師付き単眼深度推定の進捗を評価した。
論文 参考訳(メタデータ) (2022-11-22T11:04:15Z) - 5th Place Solution for VSPW 2021 Challenge [29.246666942808673]
本稿では,VSPW 2021 Challengeで使用したソリューションを紹介する。
実験はSwin TransformerとMaskFormerの2つのベースラインモデルに基づいている。
外部セグメンテーションデータセットを使わずに、私たちのソリューションはプライベートリーダーボードで5位にランクインしました。
論文 参考訳(メタデータ) (2021-12-13T02:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。