論文の概要: DispBench: Benchmarking Disparity Estimation to Synthetic Corruptions
- arxiv url: http://arxiv.org/abs/2505.05091v1
- Date: Thu, 08 May 2025 09:40:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.834087
- Title: DispBench: Benchmarking Disparity Estimation to Synthetic Corruptions
- Title(参考訳): DispBench: 合成崩壊に対する格差評価のベンチマーク
- Authors: Shashank Agnihotri, Amaan Ansari, Annika Dackermann, Fabian Rösch, Margret Keuper,
- Abstract要約: ディープラーニング(DL)は、標準的なベンチマークで人間のパフォーマンスを上回っ、コンピュータビジョンタスクに広く採用されている。
DispBenchは、分散度推定法の信頼性を体系的に評価するための総合的なベンチマークツールである。
本稿では,従来の不均一性推定手法の性能とロバスト性解析を行い,精度,信頼性,一般化の鍵となる相関関係を明らかにする。
- 参考スコア(独自算出の注目度): 11.35081321966394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning (DL) has surpassed human performance on standard benchmarks, driving its widespread adoption in computer vision tasks. One such task is disparity estimation, estimating the disparity between matching pixels in stereo image pairs, which is crucial for safety-critical applications like medical surgeries and autonomous navigation. However, DL-based disparity estimation methods are highly susceptible to distribution shifts and adversarial attacks, raising concerns about their reliability and generalization. Despite these concerns, a standardized benchmark for evaluating the robustness of disparity estimation methods remains absent, hindering progress in the field. To address this gap, we introduce DispBench, a comprehensive benchmarking tool for systematically assessing the reliability of disparity estimation methods. DispBench evaluates robustness against synthetic image corruptions such as adversarial attacks and out-of-distribution shifts caused by 2D Common Corruptions across multiple datasets and diverse corruption scenarios. We conduct the most extensive performance and robustness analysis of disparity estimation methods to date, uncovering key correlations between accuracy, reliability, and generalization. Open-source code for DispBench: https://github.com/shashankskagnihotri/benchmarking_robustness/tree/disparity_estimation/final/dispa rity_estimation
- Abstract(参考訳): ディープラーニング(DL)は、標準的なベンチマークで人間のパフォーマンスを上回っ、コンピュータビジョンタスクに広く採用されている。
このような課題の一つは、ステレオ画像対におけるマッチングピクセル間の不一致を推定する不一致推定であり、これは医療手術や自律ナビゲーションのような安全上重要なアプリケーションに不可欠である。
しかし,DLに基づく不均一度推定手法は,分散シフトや敵攻撃の影響を受けやすく,信頼性や一般化への懸念が高まっている。
これらの懸念にもかかわらず、不均一推定手法の堅牢性を評価するための標準化されたベンチマークはいまだに欠落しており、この分野の進歩を妨げる。
このギャップに対処するために,差分推定手法の信頼性を体系的に評価する総合的なベンチマークツールであるDispBenchを紹介する。
DispBenchは、敵対的攻撃や複数のデータセットにわたる2D Common Corruptionによるアウト・オブ・ディストリビューションシフトなど、合成画像の破損に対する堅牢性を評価する。
本稿では,従来の不均一性推定手法の性能とロバスト性解析を行い,精度,信頼性,一般化の鍵となる相関関係を明らかにする。
DispBenchのオープンソースコード:https://github.com/shashankskagnihotri/benchmarking_robustness/tree/disparity_estimation/final/disp arity_estimation
関連論文リスト
- Rethinking Robustness in Machine Learning: A Posterior Agreement Approach [45.284633306624634]
モデル検証の後方合意(PA)理論は、ロバストネス評価のための原則的な枠組みを提供する。
本稿では,PA尺度が学習アルゴリズムの脆弱性を,ほとんど観測されていない場合でも,合理的かつ一貫した分析を提供することを示す。
論文 参考訳(メタデータ) (2025-03-20T16:03:39Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Distributional Shift-Aware Off-Policy Interval Estimation: A Unified
Error Quantification Framework [8.572441599469597]
本研究では、無限水平マルコフ決定過程の文脈における高信頼オフ政治評価について検討する。
目的は、未知の行動ポリシーから事前に収集されたオフラインデータのみを用いて、対象の政策値に対する信頼区間(CI)を確立することである。
提案アルゴリズムは, 非線形関数近似設定においても, サンプル効率, 誤差ローバスト, 既知収束性を示す。
論文 参考訳(メタデータ) (2023-09-23T06:35:44Z) - Utilizing Class Separation Distance for the Evaluation of Corruption
Robustness of Machine Learning Classifiers [0.6882042556551611]
本稿では,最小クラス分離距離のデータセットから得られるロバストネス距離$epsilon$を使用するテストデータ拡張手法を提案する。
結果として得られるMSCRメトリックは、その破損の堅牢性に関して異なる分類器のデータセット固有の比較を可能にする。
以上の結果から, 単純なデータ拡張によるロバストネストレーニングにより, 精度が若干向上することが示唆された。
論文 参考訳(メタデータ) (2022-06-27T15:56:16Z) - Probabilistically Robust Learning: Balancing Average- and Worst-case
Performance [105.87195436925722]
我々は、正確で不安定な平均ケースと頑健で保守的な最悪のケースのギャップを埋める、堅牢性確率というフレームワークを提案する。
理論的には、このフレームワークはパフォーマンスと最悪のケースと平均ケース学習のサンプル複雑さの間のトレードオフを克服する。
論文 参考訳(メタデータ) (2022-02-02T17:01:38Z) - Using Synthetic Corruptions to Measure Robustness to Natural
Distribution Shifts [6.445605125467574]
本研究では, 実世界の分布変化に対するロバストネスとより相関したロバストネス推定を行う合成汚濁ベンチマークを構築する手法を提案する。
提案手法を適用し,画像分類器の堅牢性を予測するために,ImageNet-Syn2Natと呼ばれる新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2021-07-26T09:20:49Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Exploiting Sample Uncertainty for Domain Adaptive Person
Re-Identification [137.9939571408506]
各サンプルに割り当てられた擬似ラベルの信頼性を推定・活用し,ノイズラベルの影響を緩和する。
不確実性に基づく最適化は大幅な改善をもたらし、ベンチマークデータセットにおける最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2020-12-16T04:09:04Z) - RobustBench: a standardized adversarial robustness benchmark [84.50044645539305]
ロバストネスのベンチマークにおける主な課題は、その評価がしばしばエラーを起こし、ロバストネス過大評価につながることである。
我々は,白箱攻撃と黒箱攻撃のアンサンブルであるAutoAttackを用いて,敵対的ロバスト性を評価する。
分散シフト,キャリブレーション,アウト・オブ・ディストリビューション検出,フェアネス,プライバシリーク,スムースネス,転送性に対するロバスト性の影響を解析した。
論文 参考訳(メタデータ) (2020-10-19T17:06:18Z) - Robust Learning Through Cross-Task Consistency [92.42534246652062]
クロスタスク整合性を用いた学習向上のための,広く適用可能な完全計算手法を提案する。
クロスタスク一貫性による学習は,より正確な予測と,アウト・オブ・ディストリビューション・インプットの一般化につながることを観察する。
論文 参考訳(メタデータ) (2020-06-07T09:24:33Z) - On Robust Mean Estimation under Coordinate-level Corruption [23.117927954549618]
コーディネートレベルの汚職に対する分布シフトのハミング距離に基づく新しい尺度を導入する。
この尺度は、以前の作品よりも現実的な汚職を捉えた敵モデルが得られることを示す。
本研究では, 構造分布に対して, 理論的により正確な平均推定値を求める手法を提案する。
論文 参考訳(メタデータ) (2020-02-10T23:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。