論文の概要: On Uncertainty, Tempering, and Data Augmentation in Bayesian
Classification
- arxiv url: http://arxiv.org/abs/2203.16481v1
- Date: Wed, 30 Mar 2022 17:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 13:45:14.173354
- Title: On Uncertainty, Tempering, and Data Augmentation in Bayesian
Classification
- Title(参考訳): ベイズ分類における不確かさ・テンパリング・データ拡張について
- Authors: Sanyam Kapoor, Wesley J. Maddox, Pavel Izmailov, Andrew Gordon Wilson
- Abstract要約: 本研究では,アレータティック不確実性の明示的説明がベイズニューラルネットワークの性能を著しく向上させることを示す。
寒冷な後部は一つ以上の力によって誘惑され、しばしばより率直に言って、誘惑を伴わないよりもエレタリックな不確実性についての私たちの信念を反映している。
- 参考スコア(独自算出の注目度): 47.13680267076843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aleatoric uncertainty captures the inherent randomness of the data, such as
measurement noise. In Bayesian regression, we often use a Gaussian observation
model, where we control the level of aleatoric uncertainty with a noise
variance parameter. By contrast, for Bayesian classification we use a
categorical distribution with no mechanism to represent our beliefs about
aleatoric uncertainty. Our work shows that explicitly accounting for aleatoric
uncertainty significantly improves the performance of Bayesian neural networks.
We note that many standard benchmarks, such as CIFAR, have essentially no
aleatoric uncertainty. Moreover, we show data augmentation in approximate
inference has the effect of softening the likelihood, leading to
underconfidence and profoundly misrepresenting our honest beliefs about
aleatoric uncertainty. Accordingly, we find that a cold posterior, tempered by
a power greater than one, often more honestly reflects our beliefs about
aleatoric uncertainty than no tempering -- providing an explicit link between
data augmentation and cold posteriors. We show that we can match or exceed the
performance of posterior tempering by using a Dirichlet observation model,
where we explicitly control the level of aleatoric uncertainty, without any
need for tempering.
- Abstract(参考訳): aleatoric uncertaintyは、測定ノイズなど、データの本質的なランダム性をキャプチャする。
ベイズ回帰では、しばしばガウス観測モデルを使用し、ノイズ分散パラメータを用いてアレタリック不確実性のレベルを制御する。
対照的に、ベイズ分類では、アレラト的不確実性についての信念を表現するメカニズムのないカテゴリー分布を用いる。
本研究は,アレータティック不確実性の明示的説明がベイズニューラルネットワークの性能を著しく向上させることを示す。
CIFARのような多くの標準ベンチマークは、本質的にアレータリックな不確実性を持っていない。
さらに,近似推論におけるデータの増補は,確率を軟化させ,不信感を生じさせ,愛国的不確実性に対する我々の正直な信念を深く誤ったものにする効果を示す。
それゆえ、寒冷な後方は、1より大きい力によって温められ、しばしば率直に言えば、温暖化よりもアリータティックな不確実性に対する我々の信念を反映している。
我々はディリクレ観測モデルを用いて, 座位不確かさのレベルをテンパリングを必要とせずに明示的に制御することにより, 後方テンパリングの性能と一致あるいは超過できることを示す。
関連論文リスト
- Generalized Gaussian Temporal Difference Error for Uncertainty-aware Reinforcement Learning [0.19418036471925312]
深部強化学習における一般化されたガウス誤差モデリングのための新しい枠組みを提案する。
我々のフレームワークは、高次モーメント、特にカルトーシスを付加することにより、エラー分散モデリングの柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-08-05T08:12:25Z) - One step closer to unbiased aleatoric uncertainty estimation [71.55174353766289]
そこで本研究では,観測データのアクティブデノイズ化による新しい推定手法を提案する。
幅広い実験を行うことで,提案手法が標準手法よりも実際のデータ不確実性にはるかに近い近似を与えることを示す。
論文 参考訳(メタデータ) (2023-12-16T14:59:11Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Uncertainty Estimates of Predictions via a General Bias-Variance
Decomposition [7.811916700683125]
本稿では,適切なスコアに対するバイアス分散分解を導入し,分散項としてブレグマン情報を導出する。
モデルアンサンブルや信頼領域を含む下流タスクにおけるこの分解の実践的妥当性を示す。
論文 参考訳(メタデータ) (2022-10-21T21:24:37Z) - A Deeper Look into Aleatoric and Epistemic Uncertainty Disentanglement [7.6146285961466]
本稿では,不整合不整合を生成する手法を一般化し,不整合不整合の定量化を行う。
本研究は,学習失語症とてんかん不確実性との間に相互作用があることを示し,失語症不確実性に対する仮定に違反していることを示す。
我々の定式化と結果は、実践者や研究者が不確実性を選択するのに役立ち、不確実性の利用を拡大するのに役立つと期待する。
論文 参考訳(メタデータ) (2022-04-20T08:41:37Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。