論文の概要: Hinge-Wasserstein: Mitigating Overconfidence in Regression by
Classification
- arxiv url: http://arxiv.org/abs/2306.00560v2
- Date: Wed, 22 Nov 2023 14:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 19:06:17.135420
- Title: Hinge-Wasserstein: Mitigating Overconfidence in Regression by
Classification
- Title(参考訳): Hinge-Wasserstein: 回帰における過信を分類によって緩和する
- Authors: Ziliang Xiong, Arvi Jonnarth, Abdelrahman Eldesokey, Joakim Johnander,
Bastian Wandt, Per-Erik Forssen
- Abstract要約: 画像からパラメータ値への回帰について検討し、ここでは確率分布を予測して不確実性を検出することが一般的である。
従来の損失関数は、完全な真実分布が存在しない場合、確率分布の予測が低く、自信が強くなる。
トレーニング中の弱い二次モードのペナルティを低減するために, ハンジ・ワッサースタイン(Hungge-Wasserstein)を提案する。
- 参考スコア(独自算出の注目度): 10.013908484468876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer vision systems that are deployed in safety-critical applications
need to quantify their output uncertainty. We study regression from images to
parameter values and here it is common to detect uncertainty by predicting
probability distributions. In this context, we investigate the
regression-by-classification paradigm which can represent multimodal
distributions, without a prior assumption on the number of modes. Through
experiments on a specifically designed synthetic dataset, we demonstrate that
traditional loss functions lead to poor probability distribution estimates and
severe overconfidence, in the absence of full ground truth distributions. In
order to alleviate these issues, we propose hinge-Wasserstein -- a simple
improvement of the Wasserstein loss that reduces the penalty for weak secondary
modes during training. This enables prediction of complex distributions with
multiple modes, and allows training on datasets where full ground truth
distributions are not available. In extensive experiments, we show that the
proposed loss leads to substantially better uncertainty estimation on two
challenging computer vision tasks: horizon line detection and stereo disparity
estimation.
- Abstract(参考訳): 安全クリティカルなアプリケーションにデプロイされるコンピュータビジョンシステムは、出力の不確かさを定量化する必要がある。
画像からパラメータ値への回帰について検討し,確率分布の予測による不確実性の検出が一般的である。
そこで本研究では,モード数に対する事前の仮定なしに,マルチモーダル分布を表現可能な回帰分類パラダイムについて検討する。
特別に設計された合成データセットに関する実験を通じて, 従来の損失関数は, 完全な真理分布が存在しない場合において, 確率分布の推定精度が低く, 過信感が強いことを実証する。
これらの問題を緩和するため、我々は、トレーニング中の弱い二次モードに対するペナルティを低減させる、wasersteinの損失の単純な改善であるhinge-wassersteinを提案する。
これにより、複数のモードで複雑な分布を予測することができ、完全な真実分布が利用できないデータセットのトレーニングが可能になる。
広範にわたる実験において,提案した損失は,水平線検出とステレオ異方性推定という2つの課題のコンピュータビジョンタスクにおいて,かなり優れた不確実性推定をもたらすことを示した。
関連論文リスト
- Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Deep Anti-Regularized Ensembles provide reliable out-of-distribution
uncertainty quantification [4.750521042508541]
深層アンサンブルは、しばしばトレーニングドメインの外で過度に信頼された見積を返す。
トレーニングデータに適合する大きな重みを持つネットワークの集合は、これらの2つの目的を満たす可能性が高いことを示す。
提案手法の理論的枠組みを導出し,提案手法を「水充填問題」とみなすことができることを示す。
論文 参考訳(メタデータ) (2023-04-08T15:25:12Z) - How Reliable is Your Regression Model's Uncertainty Under Real-World
Distribution Shifts? [46.05502630457458]
本研究では,異なるタイプの分散シフトを伴う8つの画像ベース回帰データセットのベンチマークを提案する。
分散シフトがない場合、メソッドは十分に校正されているが、ベンチマークデータセットの多くに非常に自信が持たれていることが分かっています。
論文 参考訳(メタデータ) (2023-02-07T18:54:39Z) - Modeling Multimodal Aleatoric Uncertainty in Segmentation with Mixture
of Stochastic Expert [24.216869988183092]
入力画像にあいまいさが存在する場合、セグメンテーションにおけるデータ独立不確実性(いわゆるアレタリック不確実性)を捉えることに重点を置いている。
本稿では,各専門家ネットワークがアレータティック不確実性の異なるモードを推定する,新しい専門家モデル(MoSE)を提案する。
We developed a Wasserstein-like loss that makes direct minimizes the distribution distance between the MoSE and ground truth annotations。
論文 参考訳(メタデータ) (2022-12-14T16:48:21Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。