論文の概要: Quantifying Uncertainty in the Presence of Distribution Shifts
- arxiv url: http://arxiv.org/abs/2506.18283v1
- Date: Mon, 23 Jun 2025 04:30:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.853719
- Title: Quantifying Uncertainty in the Presence of Distribution Shifts
- Title(参考訳): 配電シフトの有無における不確かさの定量化
- Authors: Yuli Slavutsky, David M. Blei,
- Abstract要約: ニューラルネットワークは正確な予測を行うが、しばしば信頼できる不確実性推定を提供することができない。
我々は不確実性推定のためのベイズ的枠組みを提案する。
本手法は,合成データと実世界のデータの両方で評価する。
- 参考スコア(独自算出の注目度): 18.273290530700567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks make accurate predictions but often fail to provide reliable uncertainty estimates, especially under covariate distribution shifts between training and testing. To address this problem, we propose a Bayesian framework for uncertainty estimation that explicitly accounts for covariate shifts. While conventional approaches rely on fixed priors, the key idea of our method is an adaptive prior, conditioned on both training and new covariates. This prior naturally increases uncertainty for inputs that lie far from the training distribution in regions where predictive performance is likely to degrade. To efficiently approximate the resulting posterior predictive distribution, we employ amortized variational inference. Finally, we construct synthetic environments by drawing small bootstrap samples from the training data, simulating a range of plausible covariate shift using only the original dataset. We evaluate our method on both synthetic and real-world data. It yields substantially improved uncertainty estimates under distribution shifts.
- Abstract(参考訳): ニューラルネットワークは正確な予測を行うが、トレーニングとテストの間の共変量分布シフトの下では、信頼性の高い不確実性推定を提供することができないことが多い。
この問題に対処するために,共変量シフトを明示的に考慮した不確実性推定のためのベイズ的枠組みを提案する。
従来の手法は固定前処理に依存していたが,本手法の鍵となる考え方は適応前処理であり,トレーニングと新しい共変量の両方を条件としたものである。
このことは、予測性能が低下する可能性のある領域におけるトレーニング分布から遠く離れた入力に対する不確実性を自然に増加させる。
得られた後続の予測分布を効率よく近似するために、償却変分推論を用いる。
最後に、トレーニングデータから小さなブートストラップサンプルを抽出して合成環境を構築し、元のデータセットのみを用いて、可塑性共変量シフトの範囲をシミュレートする。
本手法は,合成データと実世界のデータの両方で評価する。
分布シフトの下では、かなり改善された不確実性推定が得られる。
関連論文リスト
- Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Adapting to Continuous Covariate Shift via Online Density Ratio Estimation [64.8027122329609]
分散シフトへの対処は、現代の機械学習における中心的な課題の1つだ。
歴史的情報を適切に再利用するオンライン手法を提案する。
我々の密度比推定法は, ダイナミックなリセットバウンドを楽しむことにより, 良好に動作できることが証明された。
論文 参考訳(メタデータ) (2023-02-06T04:03:33Z) - Which Invariance Should We Transfer? A Causal Minimax Learning Approach [18.71316951734806]
本稿では、因果的観点からの包括的ミニマックス分析について述べる。
最小の最悪のリスクを持つサブセットを探索する効率的なアルゴリズムを提案する。
本手法の有効性と有効性は, 合成データとアルツハイマー病の診断で実証された。
論文 参考訳(メタデータ) (2021-07-05T09:07:29Z) - Robust Validation: Confident Predictions Even When Distributions Shift [19.327409270934474]
本稿では,モデルが点予測ではなく,その予測に対して不確実な推定を行うような,頑健な予測推論の手順について述べる。
本稿では, トレーニング集団の周囲に$f$-divergence のボールを用いて, 任意のテスト分布に対して適切なカバレッジレベルを与える予測セットを生成する手法を提案する。
私たちの方法論の重要な構成要素は、将来のデータシフトの量を見積り、それに対する堅牢性を構築することです。
論文 参考訳(メタデータ) (2020-08-10T17:09:16Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Balance-Subsampled Stable Prediction [55.13512328954456]
本稿では, 分数分解設計理論に基づく新しいバランスサブサンプル安定予測法を提案する。
設計理論解析により,提案手法は分布シフトによって誘導される予測器間の共起効果を低減できることを示した。
合成および実世界の両方のデータセットに関する数値実験により、BSSPアルゴリズムは未知のテストデータ間で安定した予測を行うためのベースライン法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2020-06-08T07:01:38Z) - Calibrated Prediction with Covariate Shift via Unsupervised Domain
Adaptation [25.97333838935589]
不確実性推定は、自律的なエージェントや人間の意思決定者が予測モデルを理解し、活用するのを助ける重要なツールである。
既存のアルゴリズムは確実性を過大評価し、予測モデルに誤った自信を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-29T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。