論文の概要: Learning the Distribution of Errors in Stereo Matching for Joint
Disparity and Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2304.00152v1
- Date: Fri, 31 Mar 2023 21:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 19:28:46.921191
- Title: Learning the Distribution of Errors in Stereo Matching for Joint
Disparity and Uncertainty Estimation
- Title(参考訳): 不確かさ推定のためのステレオマッチングにおける誤差分布の学習
- Authors: Liyan Chen, Weihan Wang, Philippos Mordohai
- Abstract要約: 深部ステレオマッチングにおける関節不均一性と不確実性評価のための新しい損失関数を提案する。
提案手法の有効性を実験的に評価し,大規模データセット上での差分予測と不確実性予測の両面で有意な改善を観察した。
- 参考スコア(独自算出の注目度): 8.057006406834466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a new loss function for joint disparity and uncertainty estimation
in deep stereo matching. Our work is motivated by the need for precise
uncertainty estimates and the observation that multi-task learning often leads
to improved performance in all tasks. We show that this can be achieved by
requiring the distribution of uncertainty to match the distribution of
disparity errors via a KL divergence term in the network's loss function. A
differentiable soft-histogramming technique is used to approximate the
distributions so that they can be used in the loss. We experimentally assess
the effectiveness of our approach and observe significant improvements in both
disparity and uncertainty prediction on large datasets.
- Abstract(参考訳): 深部ステレオマッチングにおける関節不均一性と不確実性評価のための新しい損失関数を提案する。
我々の研究は、正確な不確実性推定の必要性と、マルチタスク学習が全てのタスクのパフォーマンス改善につながることの観察によって動機付けられている。
ネットワークの損失関数におけるKL発散項を介して不確かさの分布を一致させることにより、これを実現できることを示す。
微分可能なソフトヒストグラムの手法は、損失に使用できるように分布を近似するために用いられる。
提案手法の有効性を実験的に評価し,大規模データセット上での差分予測と不確実性予測の両面で有意な改善を観察した。
関連論文リスト
- Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Model-Based Uncertainty in Value Functions [89.31922008981735]
MDP上の分布によって引き起こされる値の分散を特徴付けることに重点を置いている。
従来の作業は、いわゆる不確実性ベルマン方程式を解くことで、値よりも後方の分散を境界にしている。
我々は、解が値の真後分散に収束する新しい不確実性ベルマン方程式を提案する。
論文 参考訳(メタデータ) (2023-02-24T09:18:27Z) - Towards In-distribution Compatibility in Out-of-distribution Detection [30.49191281345763]
本稿では,深層モデルの上位設計と損失関数の両方を適応させることにより,新しい分布外検出法を提案する。
本手法は,最先端の分布検出性能を実現するとともに,分布内精度も向上する。
論文 参考訳(メタデータ) (2022-08-29T09:06:15Z) - Decomposing Representations for Deterministic Uncertainty Estimation [34.11413246048065]
我々は,現在の特徴密度に基づく不確実性推定器は,様々なOoD検出設定で一貫した性能を発揮できないことを示す。
本稿では,学習した表現を分解し,それらを個別に推定した不確実性を統合することを提案する。
論文 参考訳(メタデータ) (2021-12-01T22:12:01Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Logit-based Uncertainty Measure in Classification [18.224344440110862]
我々は,ロジット不確実性と呼ばれる分類タスクに対して,新しい,信頼性が高く,不可知な不確実性尺度を導入する。
この新たな不確実性対策は,従来の課題に対する不確実性対策よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2021-07-06T19:07:16Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。