論文の概要: A Connection Between Learning to Reject and Bhattacharyya Divergences
- arxiv url: http://arxiv.org/abs/2505.05273v1
- Date: Thu, 08 May 2025 14:18:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.915017
- Title: A Connection Between Learning to Reject and Bhattacharyya Divergences
- Title(参考訳): リジェクト学習とバタカリアの多様性の関連性
- Authors: Alexander Soen,
- Abstract要約: インプットとラベルの両面で共同理想分布を学習することを検討する。
我々は、拒絶と統計的相違の閾値付けを関連づける。
一般に、バタチャリアの発散による拒絶は、Chowのルールよりも攻撃的でないことが分かる。
- 参考スコア(独自算出の注目度): 57.942664964198286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to reject provide a learning paradigm which allows for our models to abstain from making predictions. One way to learn the rejector is to learn an ideal marginal distribution (w.r.t. the input domain) - which characterizes a hypothetical best marginal distribution - and compares it to the true marginal distribution via a density ratio. In this paper, we consider learning a joint ideal distribution over both inputs and labels; and develop a link between rejection and thresholding different statistical divergences. We further find that when one considers a variant of the log-loss, the rejector obtained by considering the joint ideal distribution corresponds to the thresholding of the skewed Bhattacharyya divergence between class-probabilities. This is in contrast to the marginal case - that is equivalent to a typical characterization of optimal rejection, Chow's Rule - which corresponds to a thresholding of the Kullback-Leibler divergence. In general, we find that rejecting via a Bhattacharyya divergence is less aggressive than Chow's Rule.
- Abstract(参考訳): 拒否することの学習は、モデルを予測から外すことができる学習パラダイムを提供する。
リジェクタを学習する方法の1つは、理想の限界分布 (w.r.t. 入力領域) を学習することであり、これは仮説上の最良の限界分布を特徴付け、密度比を通じて真の限界分布と比較する。
本稿では,入力とラベルの双方に共通する理想分布を学習することを検討する。
さらに, ログロスの変種を考えると, 連立理想分布を考えることによって得られるリジェクタは, クラス確率間のスキュード・バッタチャリヤ分岐のしきい値に一致することがわかった。
これは、最適拒絶の典型的なキャラクタリゼーションであるChow's Rule(英語版)と同値であり、Kellback-Leiblerの発散のしきい値に相当する。
一般に、バタチャリアの発散による拒絶は、Chowのルールよりも攻撃的でないことが分かる。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
一般のスコアミスマッチ拡散サンプリング器に対する明示的な次元依存性を持つ最初の性能保証を示す。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z) - Fair Regression with Wasserstein Barycenters [39.818025466204055]
本稿では, 実数値関数を学習し, 実数値関数の制約を満たす問題について検討する。
予測された出力の分布は、センシティブな属性から独立することを要求する。
フェア回帰と最適輸送理論の関連性を確立し、最適なフェア予測器に対するクローズドフォーム表現を導出する。
論文 参考訳(メタデータ) (2020-06-12T16:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。