論文の概要: Label Distribution Learning using the Squared Neural Family on the Probability Simplex
- arxiv url: http://arxiv.org/abs/2412.07324v2
- Date: Sat, 07 Jun 2025 12:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 01:40:32.51586
- Title: Label Distribution Learning using the Squared Neural Family on the Probability Simplex
- Title(参考訳): 確率的単純度に基づく正方形ニューラルネットワークを用いたラベル分布学習
- Authors: Daokun Zhang, Russell Tsuchida, Dino Sejdinovic,
- Abstract要約: ラベル分布学習モデルSNEFY-LDLを提案する。
単純体上の全ての可能なラベル分布の確率分布を推定する。
基礎構造ラベル分布を予測し、ラベル分布の信頼区間を構築し、異なるラベル間の相関を測定できる。
- 参考スコア(独自算出の注目度): 15.680835401104247
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Label distribution learning (LDL) provides a framework wherein a distribution over categories rather than a single category is predicted, with the aim of addressing ambiguity in labeled data. Existing research on LDL mainly focuses on the task of point estimation, i.e., finding an optimal distribution in the probability simplex conditioned on the given sample. In this paper, we propose a novel label distribution learning model SNEFY-LDL, which estimates a probability distribution of all possible label distributions over the simplex, by unleashing the expressive power of the recently introduced Squared Neural Family (SNEFY), a new class of tractable probability models. As a way to summarize the fitted model, we derive the closed-form label distribution mean, variance and covariance conditioned on the given sample, which can be used to predict the ground-truth label distributions, construct label distribution confidence intervals, and measure the correlations between different labels. Moreover, more information about the label distribution prediction uncertainties can be acquired from the modeled probability density function. Extensive experiments on conformal prediction, active learning and ensemble learning are conducted, verifying SNEFY-LDL's great effectiveness in LDL uncertainty quantification. The source code of this paper is available at https://github.com/daokunzhang/SNEFY-LDL.
- Abstract(参考訳): ラベル分布学習(LDL)は、ラベル付きデータのあいまいさに対処する目的で、単一のカテゴリではなくカテゴリにまたがる分布を予測するフレームワークを提供する。
LDLに関する既存の研究は、主に点推定のタスク、すなわち、与えられたサンプルに条件付けられた確率単純度における最適な分布を見つけることに焦点を当てている。
本稿では,最近導入された新しい抽出可能な確率モデルである2乗ニューラルネットワーク(SNEFY)の表現力を解き放つことで,すべてのラベル分布の確率分布を単純度上で推定する新しいラベル分布学習モデルSNEFY-LDLを提案する。
提案手法は, 与えられたサンプルに条件付き閉形式ラベル分布平均, 分散, 共分散を導出し, 基底構造ラベル分布の予測, ラベル分布の信頼区間の構築, 異なるラベル間の相関関係の測定に利用できる。
さらに、モデル化された確率密度関数からラベル分布予測の不確実性についてより多くの情報を得ることができる。
共形予測,能動学習,アンサンブル学習に関する大規模な実験を行い,SNEFY-LDLのLDL不確実性定量化における有効性を検証した。
本論文のソースコードはhttps://github.com/daokunzhang/SNEFY-LDL.comで公開されている。
関連論文リスト
- Self-Knowledge Distillation for Learning Ambiguity [11.755814660833549]
最近の言語モデルは、その正確さを考慮せずに単一のラベルを過度に予測することが多い。
本稿では,ラベル分布をより正確に学習できる新しい自己知識蒸留法を提案する。
本手法を多種多様なNLUベンチマークデータセットで検証し,実験結果から,より優れたラベル分布を生成する上での有効性を実証した。
論文 参考訳(メタデータ) (2024-06-14T05:11:32Z) - SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Uncertainty Quantification via Stable Distribution Propagation [60.065272548502]
本稿では,ニューラルネットワークによる安定確率分布の伝播手法を提案する。
提案手法は局所線形化に基づいており,ReLU非線型性に対する全変動距離の近似値として最適であることを示す。
論文 参考訳(メタデータ) (2024-02-13T09:40:19Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Distribution Shift Inversion for Out-of-Distribution Prediction [57.22301285120695]
本稿では,OoD(Out-of-Distribution)予測のためのポータブル分布シフト変換アルゴリズムを提案する。
提案手法は,OoDアルゴリズムを広範囲に接続した場合に,一般的な性能向上をもたらすことを示す。
論文 参考訳(メタデータ) (2023-06-14T08:00:49Z) - Statistical Inference Under Constrained Selection Bias [20.862583584531322]
本稿では,選択バイアスが存在する場合の統計的推測を可能にする枠組みを提案する。
出力は、目標分布に対する推定値に対する高確率境界である。
我々はこれらの境界を推定するための手法の計算的および統計的特性を分析し、これらの手法が様々なシミュレートされた半合成的なタスクに対して情報的境界を生成可能であることを示す。
論文 参考訳(メタデータ) (2023-06-05T23:05:26Z) - Personalized Trajectory Prediction via Distribution Discrimination [78.69458579657189]
トラリミー予測は将来の力学のマルチモーダルな性質を捉えるジレンマと対立する。
本研究では,パーソナライズされた動作パターンを予測するDisDisDis(Disdis)手法を提案する。
本手法は,プラグイン・アンド・プレイモジュールとして既存のマルチモーダル予測モデルと統合することができる。
論文 参考訳(メタデータ) (2021-07-29T17:42:12Z) - Mandoline: Model Evaluation under Distribution Shift [8.007644303175395]
マシンラーニングモデルは、トレーニングや検証対象と異なる設定でデプロイされることが多い。
これらの問題を緩和する新しい評価フレームワークであるMandolineを開発した。
ユーザーは単純な"スライシング関数" - ノイズがあり、分散シフトの可能な軸をキャプチャすることを目的とした、潜在的に相関したバイナリ関数を書く。
論文 参考訳(メタデータ) (2021-07-01T17:57:57Z) - Disentangling Label Distribution for Long-tailed Visual Recognition [8.538887358164438]
我々は、ターゲットとソースのラベルの分布が異なるラベルシフト問題として、長い尾の視覚認識を定式化する。
ラベルシフト問題に対処する上で重要なハードルの1つは、ソースラベル分布とモデル予測との絡み合いである。
我々は,ドンスカー・バラダン表現の最適境界に基づく新しい手法であるLAbel Distribution DisEntangling (LADE)損失を提案する。
論文 参考訳(メタデータ) (2020-12-01T07:56:53Z) - Fair Densities via Boosting the Sufficient Statistics of Exponential
Families [72.34223801798422]
フェアネスのためのデータ前処理にブースティングアルゴリズムを導入する。
私たちのアプローチは、最小限の公平性を確保しながら、より良いデータフィッティングへとシフトします。
実世界のデータに結果の質を示す実験結果が提示される。
論文 参考訳(メタデータ) (2020-12-01T00:49:17Z) - Distributional Reinforcement Learning via Moment Matching [54.16108052278444]
ニューラルネットワークを用いて各戻り分布から統計量の有限集合を学習する手法を定式化する。
我々の手法は、戻り分布とベルマン目標の間のモーメントの全ての順序を暗黙的に一致させるものとして解釈できる。
Atariゲームスイートの実験により,本手法は標準分布RLベースラインよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-24T05:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。