論文の概要: On Calibration in Multi-Distribution Learning
- arxiv url: http://arxiv.org/abs/2412.14142v1
- Date: Wed, 18 Dec 2024 18:41:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:23:33.220727
- Title: On Calibration in Multi-Distribution Learning
- Title(参考訳): マルチディストリビューション学習における校正について
- Authors: Rajeev Verma, Volker Fischer, Eric Nalisnick,
- Abstract要約: マルチディストリビューション学習(MDL)の校正特性について検討する。
まず、MDLのベイズ最適規則を導出し、関連する損失関数の一般化エントロピーを最大化することを示した。
解析の結果,本手法は最小の最悪の損失を許容するが,複数の分布に一様でないキャリブレーション誤差を生じさせる可能性が示唆された。
- 参考スコア(独自算出の注目度): 6.184670046923719
- License:
- Abstract: Modern challenges of robustness, fairness, and decision-making in machine learning have led to the formulation of multi-distribution learning (MDL) frameworks in which a predictor is optimized across multiple distributions. We study the calibration properties of MDL to better understand how the predictor performs uniformly across the multiple distributions. Through classical results on decomposing proper scoring losses, we first derive the Bayes optimal rule for MDL, demonstrating that it maximizes the generalized entropy of the associated loss function. Our analysis reveals that while this approach ensures minimal worst-case loss, it can lead to non-uniform calibration errors across the multiple distributions and there is an inherent calibration-refinement trade-off, even at Bayes optimality. Our results highlight a critical limitation: despite the promise of MDL, one must use caution when designing predictors tailored to multiple distributions so as to minimize disparity.
- Abstract(参考訳): 機械学習における堅牢性、公正性、意思決定に関する現代の課題は、予測器が複数のディストリビューションにまたがって最適化されるマルチディストリビューション学習(MDL)フレームワークの定式化に繋がった。
本研究では,MDLのキャリブレーション特性について検討し,予測器が複数の分布に対して均一に動作するかを明らかにする。
まず, MDLのベイズ最適規則を導出し, 関連する損失関数の一般化エントロピーを最大化することを示した。
解析の結果,本手法は最小の最悪の損失を許容するが,複数分布の非一様キャリブレーション誤差を生じさせる可能性があり,ベイズ最適性においても本質的にキャリブレーション・リファインメントのトレードオフが存在することがわかった。
MDLの約束にもかかわらず、分散性を最小限に抑えるために、複数の分布に合わせた予測器を設計する際には注意が必要である。
関連論文リスト
- A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Calibrated Multivariate Regression with Localized PIT Mappings [4.277516034244117]
本稿では,多変量キャリブレーションに対処するポストホックリカレーション手法を提案する。
このアプローチの2つのバージョンを示す: 1つはK-アネレスト近傍を使い、もう1つは正規化フローを使用する。
本研究では,インドにおける小児栄養失調の回帰モデルの改善と,深層ニューラルネットワークの通貨為替レート予測の緩和という,2つの実データ応用に対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-09-17T02:41:03Z) - Calibrating Large Language Models with Sample Consistency [76.23956851098598]
本稿では,複数サンプルモデル生成系の分布から信頼度を導出する可能性について,一貫性の3つの尺度を用いて検討する。
その結果、一貫性に基づくキャリブレーション手法は、既存のポストホック手法よりも優れていることがわかった。
種々のLMの特性に合わせて,キャリブレーションに適した整合性指標を選択するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-02-21T16:15:20Z) - Distributional Robustness Bounds Generalization Errors [2.3940819037450987]
分散ロバスト性」の定量的定義を提案する。
ベイズ法は, ほぼ正しい意味で分布的に頑健であることを示す。
本研究では,機械学習モデルの一般化誤差を,正規分布の分布不確かさを用いて特徴付けることができることを示す。
論文 参考訳(メタデータ) (2022-12-20T02:30:13Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - A Unified Framework for Multi-distribution Density Ratio Estimation [101.67420298343512]
バイナリ密度比推定(DRE)は多くの最先端の機械学習アルゴリズムの基礎を提供する。
ブレグマン最小化の発散の観点から一般的な枠組みを開発する。
我々のフレームワークはバイナリDREでそれらのフレームワークを厳格に一般化する手法に導かれることを示す。
論文 参考訳(メタデータ) (2021-12-07T01:23:20Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - The Sharpe predictor for fairness in machine learning [0.0]
機械学習の応用においては、不公平な予測が少数派に対して差別されることがある。
フェア機械学習(FML)の既存のアプローチは、MLモデルの最適化において、フェアネスを制約またはペナル化用語として扱う。
本稿では,Multi-Objective Optimization(SMOO)に基づくFMLの新しいパラダイムを提案する。
FMLのシャープ予測器は、予測リスク(不公平)の単位当たりの最も高い予測リターン(精度)を提供する。
論文 参考訳(メタデータ) (2021-08-13T22:22:34Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Robustified Multivariate Regression and Classification Using
Distributionally Robust Optimization under the Wasserstein Metric [11.383869751239166]
我々は多変量線形回帰(MLR)と多クラスロジスティック回帰(MLG)のための分布ロバスト最適化(DRO)の定式化を開発する。
我々は DRO の定式化を、正則化が係数行列のノルムである正規化学習問題に緩和する。
実験の結果, MLRは37%, MLGは100%, 予測誤差は37%改善した。
論文 参考訳(メタデータ) (2020-06-10T22:16:50Z) - Bayesian Neural Networks With Maximum Mean Discrepancy Regularization [13.97417198693205]
画像分類タスクを含む複数のベンチマークにおいて,BNNの精度が向上することを示す。
また, ある予測に対する不確実性を推定するための新しい定式化を行い, 敵の攻撃に対してより堅牢な行動を示す。
論文 参考訳(メタデータ) (2020-03-02T14:54:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。