論文の概要: PAC Prediction Sets Under Covariate Shift
- arxiv url: http://arxiv.org/abs/2106.09848v1
- Date: Thu, 17 Jun 2021 23:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:20:41.302058
- Title: PAC Prediction Sets Under Covariate Shift
- Title(参考訳): 共変量シフト下でのpac予測セット
- Authors: Sangdon Park and Edgar Dobriban and Insup Lee and Osbert Bastani
- Abstract要約: 基礎となるデータ分布に変化がある場合、不確実性は重要です。
既存の不確実性定量化アルゴリズムの多くは、そのようなシフトの存在下で崩壊する。
本稿では,この課題に対処する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 40.67733209235852
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An important challenge facing modern machine learning is how to rigorously
quantify the uncertainty of model predictions. Conveying uncertainty is
especially important when there are changes to the underlying data distribution
that might invalidate the predictive model. Yet, most existing uncertainty
quantification algorithms break down in the presence of such shifts. We propose
a novel approach that addresses this challenge by constructing \emph{probably
approximately correct (PAC)} prediction sets in the presence of covariate
shift. Our approach focuses on the setting where there is a covariate shift
from the source distribution (where we have labeled training examples) to the
target distribution (for which we want to quantify uncertainty). Our algorithm
assumes given importance weights that encode how the probabilities of the
training examples change under the covariate shift. In practice, importance
weights typically need to be estimated; thus, we extend our algorithm to the
setting where we are given confidence intervals for the importance weights
rather than their true value. We demonstrate the effectiveness of our approach
on various covariate shifts designed based on the DomainNet and ImageNet
datasets.
- Abstract(参考訳): 現代の機械学習が直面する重要な課題は、モデル予測の不確実性を厳格に定量化する方法である。
予測モデルを無効にする可能性のある基礎となるデータ分布の変更がある場合、特に不確実性は重要である。
しかし、既存の不確実性定量化アルゴリズムのほとんどは、そのようなシフトの存在下で崩壊する。
本稿では,共変量シフトの存在下での<emph{probably approximately correct (PAC) 予測セットを構築することで,この問題に対処する新しいアプローチを提案する。
我々のアプローチは、ソース分布(トレーニング例をラベル付けした)からターゲット分布(不確かさを定量化したい)への共変量シフトがあるような設定にフォーカスしています。
我々のアルゴリズムは、トレーニング例の確率が共変量シフトの下でどのように変化するかをエンコードする重要度重みを仮定する。
実際、重要度重み付けは一般的に見積もる必要があるので、アルゴリズムを真の値ではなく重要度重み付けに対して信頼区間が与えられるような設定に拡張します。
我々は, domainnet と imagenet のデータセットに基づいて設計した様々な共変量シフトに対するアプローチの有効性を実証する。
関連論文リスト
- Learning When the Concept Shifts: Confounding, Invariance, and Dimension Reduction [5.38274042816001]
観測データでは、分布シフトは観測されていない共起因子によって駆動されることが多い。
このことは、観測データを用いた領域適応問題の研究を動機付けます。
学習した低次元部分空間を用いて、ターゲットとソースのリスクの間にほぼ理想的なギャップを生じさせるモデルを示す。
論文 参考訳(メタデータ) (2024-06-22T17:43:08Z) - Provable Adversarial Robustness for Group Equivariant Tasks: Graphs,
Point Clouds, Molecules, and More [9.931513542441612]
本稿では,タスク等価性を考慮した正反対ロバスト性の概念を提案する。
しかし、認証方法は、多くのモデルでは利用できない。
我々は、ノード分類のような同型同変タスクに対して、最初のアーキテクチャ固有のグラフ編集距離証明、すなわち、健全性保証を導出する。
論文 参考訳(メタデータ) (2023-12-05T12:09:45Z) - Adapting to Latent Subgroup Shifts via Concepts and Proxies [82.01141290360562]
最適ターゲット予測器は、ソースドメインでのみ利用できる概念とプロキシ変数の助けを借りて、非パラメトリックに識別可能であることを示す。
本研究では,データ生成プロセスに特有の潜在変数モデルを提案する。
論文 参考訳(メタデータ) (2022-12-21T18:30:22Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - Calibrated Prediction with Covariate Shift via Unsupervised Domain
Adaptation [25.97333838935589]
不確実性推定は、自律的なエージェントや人間の意思決定者が予測モデルを理解し、活用するのを助ける重要なツールである。
既存のアルゴリズムは確実性を過大評価し、予測モデルに誤った自信を与える可能性がある。
論文 参考訳(メタデータ) (2020-02-29T20:31:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。