論文の概要: Evaluating Robustness of Monocular Depth Estimation with Procedural Scene Perturbations
- arxiv url: http://arxiv.org/abs/2507.00981v1
- Date: Tue, 01 Jul 2025 17:33:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.756845
- Title: Evaluating Robustness of Monocular Depth Estimation with Procedural Scene Perturbations
- Title(参考訳): 手続き的シーン摂動による単眼深度推定のロバスト性評価
- Authors: Jack Nugent, Siyang Wu, Zeyu Ma, Beining Han, Meenal Parakh, Abhishek Joshi, Lingjie Mei, Alexander Raistrick, Xinyuan Li, Jia Deng,
- Abstract要約: 我々は,系統的ロバストネス評価を可能にする新しいベンチマークであるPDEを紹介する。
PDEは手続き生成を使用して、様々な制御された摂動に対する堅牢性をテストする3Dシーンを生成する。
我々の分析は、最先端の深度モデルではどのような摂動が困難なのか、興味深い結果をもたらす。
- 参考スコア(独自算出の注目度): 55.4735586739093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed substantial progress on monocular depth estimation, particularly as measured by the success of large models on standard benchmarks. However, performance on standard benchmarks does not offer a complete assessment, because most evaluate accuracy but not robustness. In this work, we introduce PDE (Procedural Depth Evaluation), a new benchmark which enables systematic robustness evaluation. PDE uses procedural generation to create 3D scenes that test robustness to various controlled perturbations, including object, camera, material and lighting changes. Our analysis yields interesting findings on what perturbations are challenging for state-of-the-art depth models, which we hope will inform further research. Code and data are available at https://github.com/princeton-vl/proc-depth-eval.
- Abstract(参考訳): 近年では、特に標準ベンチマークでの大型モデルの成功によって測定されるように、単分子深度推定の大幅な進歩が見られた。
しかしながら、標準ベンチマークのパフォーマンスは、ほとんどの場合精度は評価されるが、堅牢性は提供されないため、完全な評価は提供されない。
本研究では,系統的ロバストネス評価を可能にする新しいベンチマークであるPDE(Procedural Depth Evaluation)を導入する。
PDEは、プロシージャ生成を使用して、3Dシーンを作成し、オブジェクト、カメラ、素材、照明などの様々な制御された摂動に対して堅牢性をテストする。
我々の分析は、最先端の深度モデルにどのような摂動が挑戦しているかという興味深い知見を導き、さらなる研究を期待する。
コードとデータはhttps://github.com/princeton-vl/proc-depth-eval.comで公開されている。
関連論文リスト
- A Simple yet Effective Test-Time Adaptation for Zero-Shot Monocular Metric Depth Estimation [46.037640130193566]
センサや低分解能LiDARなどの技術によって提供される3Dポイントや、IMUが提示したポーズによる構造移動を用いて、奥行きの予測を再現する新しい手法を提案する。
実験では, ゼロショット単角距離推定法, 微調整法と比較しての競合性, 深度補修法よりも頑健さが向上した。
論文 参考訳(メタデータ) (2024-12-18T17:50:15Z) - RoboDepth: Robust Out-of-Distribution Depth Estimation under Corruptions [7.359657743276515]
3つのカテゴリにまたがる18の汚職にまたがる包括的な堅牢性テストスイートであるRoboDepthを紹介します。
室内および屋外の現場における42の深度推定モデルを用いて,これらの汚損に対するレジリエンスを評価する。
本研究は, 厳密性評価フレームワークが欠如している場合, 多くの先行深度推定モデルが, 典型的な汚職の影響を受けやすいことを示すものである。
論文 参考訳(メタデータ) (2023-10-23T17:59:59Z) - SC-DepthV3: Robust Self-supervised Monocular Depth Estimation for
Dynamic Scenes [58.89295356901823]
自己監督型単眼深度推定は静的な場面で顕著な結果を示した。
トレーニングネットワークのマルチビュー整合性の仮定に依存するが、動的オブジェクト領域に違反する。
単一画像の深度を事前に生成するための,外部トレーニング付き単眼深度推定モデルを提案する。
我々のモデルは、高度にダイナミックなシーンのモノクロビデオからトレーニングしても、シャープで正確な深度マップを予測できる。
論文 参考訳(メタデータ) (2022-11-07T16:17:47Z) - From 2D to 3D: Re-thinking Benchmarking of Monocular Depth Prediction [80.67873933010783]
我々は,MDPが現在,3Dアプリケーションにおける予測の有用性を評価するのに有効な指標に頼っていることを論じる。
これにより、2Dベースの距離を最適化するのではなく、シーンの3D構造を正確に認識し、推定に向けて改善する新しい手法の設計と開発が制限される。
本稿では,MDP手法の3次元幾何評価に適した指標セットと,提案手法に不可欠な室内ベンチマークRIO-D3Dを提案する。
論文 参考訳(メタデータ) (2022-03-15T17:50:54Z) - Towards 3D Scene Reconstruction from Locally Scale-Aligned Monocular
Video Depth [90.33296913575818]
映像深度推定や映像からの3次元シーン再構成のようなビデオベースのシナリオでは、フレームごとの予測における未知のスケールとシフトが深度の不整合を引き起こす可能性がある。
局所重み付き線形回帰法を提案する。
提案手法は,複数のゼロショットベンチマークにおいて,既存の最先端手法の性能を50%向上させることができる。
論文 参考訳(メタデータ) (2022-02-03T08:52:54Z) - Variational Monocular Depth Estimation for Reliability Prediction [12.951621755732544]
教師付き学習手法の代替として,単眼深度推定のための自己教師付き学習が広く研究されている。
従来はモデル構造の変更による深度推定の精度向上に成功している。
本稿では, 単眼深度推定のための変分モデルを理論的に定式化し, 推定深度画像の信頼性を推定する。
論文 参考訳(メタデータ) (2020-11-24T06:23:51Z) - RGB-D Salient Object Detection: A Survey [195.83586883670358]
様々な観点からRGB-Dに基づくSODモデルを総合的に調査する。
また、このドメインからSODモデルと人気のあるベンチマークデータセットもレビューします。
今後の研究に向けたRGB-DベースのSODの課題と方向性について論じる。
論文 参考訳(メタデータ) (2020-08-01T10:01:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。