論文の概要: Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression
- arxiv url: http://arxiv.org/abs/2103.13629v1
- Date: Thu, 25 Mar 2021 06:56:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-26 13:50:42.977002
- Title: Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression
- Title(参考訳): 不確実性認識回帰のための確率的順序付け学習
- Authors: Wanhua Li, Xiaoke Huang, Jiwen Lu, Jianjiang Feng, Jie Zhou
- Abstract要約: 不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
- 参考スコア(独自算出の注目度): 91.3373131262391
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Uncertainty is the only certainty there is. Modeling data uncertainty is
essential for regression, especially in unconstrained settings. Traditionally
the direct regression formulation is considered and the uncertainty is modeled
by modifying the output space to a certain family of probabilistic
distributions. On the other hand, classification based regression and ranking
based solutions are more popular in practice while the direct regression
methods suffer from the limited performance. How to model the uncertainty
within the present-day technologies for regression remains an open issue. In
this paper, we propose to learn probabilistic ordinal embeddings which
represent each data as a multivariate Gaussian distribution rather than a
deterministic point in the latent space. An ordinal distribution constraint is
proposed to exploit the ordinal nature of regression. Our probabilistic ordinal
embeddings can be integrated into popular regression approaches and empower
them with the ability of uncertainty estimation. Experimental results show that
our approach achieves competitive performance. Code is available at
https://github.com/Li-Wanhua/POEs.
- Abstract(参考訳): 不確かさが唯一の確実性である。
データの不確かさのモデリングは回帰、特に制約のない設定には不可欠である。
伝統的に、直接回帰定式化は考慮され、不確実性は出力空間をある確率分布の族に変更することでモデル化される。
一方,直接回帰法は性能の制限に苦しむ一方で,分類に基づく回帰とランキングに基づく解は実際より一般的である。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
本稿では,各データを潜在空間における決定論的点ではなく,多変量ガウス分布として表現する確率的順序埋め込みを学習する。
回帰の順序性を利用するために順序分布制約が提案されている。
我々の確率的順序埋め込みは、一般的な回帰アプローチに統合され、不確実性推定の能力でそれらを強化することができる。
実験の結果,本手法は競争性能を発揮できることがわかった。
コードはhttps://github.com/Li-Wanhua/POEsで入手できる。
関連論文リスト
- How Reliable is Your Regression Model's Uncertainty Under Real-World
Distribution Shifts? [43.52154791736676]
本研究では,異なるタイプの分散シフトを伴う8つの画像ベース回帰データセットのベンチマークを提案する。
分散シフトがない場合、メソッドは十分に校正されているが、ベンチマークデータセットの多くに非常に自信が持たれていることが分かっています。
論文 参考訳(メタデータ) (2023-02-07T18:54:39Z) - The Implicit Delta Method [61.36121543728134]
本稿では,不確実性のトレーニング損失を無限に正規化することで機能する,暗黙のデルタ法を提案する。
有限差分により無限小変化が近似された場合でも, 正則化による評価の変化は評価推定器の分散に一定であることを示す。
論文 参考訳(メタデータ) (2022-11-11T19:34:17Z) - Uncertainty Modeling for Out-of-Distribution Generalization [56.957731893992495]
特徴統計を適切に操作することで、ディープラーニングモデルの一般化能力を向上させることができると論じる。
一般的な手法では、特徴統計を学習した特徴から測定された決定論的値とみなすことが多い。
我々は、学習中に合成された特徴統計を用いて、領域シフトの不確かさをモデル化することにより、ネットワークの一般化能力を向上させる。
論文 参考訳(メタデータ) (2022-02-08T16:09:12Z) - Uncertainty estimation under model misspecification in neural network
regression [3.2622301272834524]
モデル選択が不確実性評価に与える影響について検討する。
モデルミスセグメンテーションでは,アレータリック不確実性は適切に捉えられていない。
論文 参考訳(メタデータ) (2021-11-23T10:18:41Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - Logistic Regression Through the Veil of Imprecise Data [0.0]
ロジスティック回帰は、いくつかの予測変数に基づいて結果の確率を評価する重要な統計ツールである。
標準的な手法は、正確に知られているデータのみを扱うことができるが、多くのデータセットには、従来の手法が単一ポイントに縮小するか、完全に無視されるかの不確実性がある。
論文 参考訳(メタデータ) (2021-06-01T13:51:46Z) - Recalibration of Aleatoric and Epistemic Regression Uncertainty in
Medical Imaging [2.126171264016785]
回帰における不確実性は、信頼できない予測の堅牢な拒絶や、分布外サンプルの検出を可能にする。
sigma $ scalingは予測の不確実性を確実に再調整することができる。
論文 参考訳(メタデータ) (2021-04-26T07:18:58Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。