論文の概要: R-divergence for Estimating Model-oriented Distribution Discrepancy
- arxiv url: http://arxiv.org/abs/2310.01109v1
- Date: Mon, 2 Oct 2023 11:30:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 22:12:18.084398
- Title: R-divergence for Estimating Model-oriented Distribution Discrepancy
- Title(参考訳): R-divergenceによるモデル指向分布差の推定
- Authors: Zhilin Zhao and Longbing Cao
- Abstract要約: モデル指向分布の相違性を評価するために設計されたR分割を導入する。
R-発散は混合データ上で最小の仮説を学習し、その間に経験的リスク差を測る。
教師なしタスクおよび教師なしタスクにおけるテストパワーの評価を行い、R分割が最先端のパフォーマンスを達成することを確認する。
- 参考スコア(独自算出の注目度): 37.939239477868796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-life data are often non-IID due to complex distributions and
interactions, and the sensitivity to the distribution of samples can differ
among learning models. Accordingly, a key question for any supervised or
unsupervised model is whether the probability distributions of two given
datasets can be considered identical. To address this question, we introduce
R-divergence, designed to assess model-oriented distribution discrepancies. The
core insight is that two distributions are likely identical if their optimal
hypothesis yields the same expected risk for each distribution. To estimate the
distribution discrepancy between two datasets, R-divergence learns a minimum
hypothesis on the mixed data and then gauges the empirical risk difference
between them. We evaluate the test power across various unsupervised and
supervised tasks and find that R-divergence achieves state-of-the-art
performance. To demonstrate the practicality of R-divergence, we employ
R-divergence to train robust neural networks on samples with noisy labels.
- Abstract(参考訳): 実生活データは複雑な分布と相互作用のためにしばしば非IIDであり、サンプルの分布に対する感度は学習モデルによって異なる。
したがって、教師付きまたは教師なしモデルにとって重要な疑問は、2つの与えられたデータセットの確率分布が同一視できるかどうかである。
この問題に対処するために、モデル指向分布の相違性を評価するために設計されたR分割を導入する。
中心的な洞察は、2つの分布が最適仮説が各分布に対して同じ期待されるリスクをもたらす場合、おそらく同一であるということである。
2つのデータセット間の分布差を推定するために、R分割は混合データ上で最小の仮説を学習し、それらの間の経験的リスク差を測定する。
教師なしタスクおよび教師なしタスクにおけるテストパワーの評価を行い、R分割が最先端のパフォーマンスを達成することを確認する。
R分割の実用性を実証するため、ノイズラベル付きサンプル上で頑健なニューラルネットワークをトレーニングするためにR分割を用いる。
関連論文リスト
- Theory on Score-Mismatched Diffusion Models and Zero-Shot Conditional Samplers [49.97755400231656]
本報告では,明示的な次元の一般スコアミスマッチ拡散サンプリング器を用いた最初の性能保証について述べる。
その結果, スコアミスマッチは, 目標分布とサンプリング分布の分布バイアスとなり, 目標分布とトレーニング分布の累積ミスマッチに比例することがわかった。
この結果は、測定ノイズに関係なく、任意の条件モデルに対するゼロショット条件付きサンプリングに直接適用することができる。
論文 参考訳(メタデータ) (2024-10-17T16:42:12Z) - Improving Distribution Alignment with Diversity-based Sampling [0.0]
ドメインシフトは機械学習においてユビキタスであり、実際のデータにデプロイすると、モデルのパフォーマンスが大幅に低下する可能性がある。
本稿では,各サンプル小バッチの多様性を誘導することにより,これらの推定値を改善することを提案する。
同時にデータのバランスを保ち、勾配のばらつきを低減し、それによってモデルの一般化能力を高める。
論文 参考訳(メタデータ) (2024-10-05T17:26:03Z) - Discriminative Estimation of Total Variation Distance: A Fidelity Auditor for Generative Data [10.678533056953784]
本稿では,2つの分布間の総変動(TV)距離を推定する判別手法を提案する。
本手法は,2つの分布の分類におけるベイズリスクとテレビの距離の関係を定量的に評価する。
分類において、特定の仮説クラスを選択することで、テレビの距離を推定する際の高速収束率が達成できることを実証する。
論文 参考訳(メタデータ) (2024-05-24T08:18:09Z) - Probabilistic Matching of Real and Generated Data Statistics in Generative Adversarial Networks [0.6906005491572401]
本稿では,あるデータ統計量の分布が実データの分布と一致することを確実にする手法を提案する。
提案手法を合成データセットと実世界のデータセットで評価し,提案手法の性能向上を実証した。
論文 参考訳(メタデータ) (2023-06-19T14:03:27Z) - The Representation Jensen-Shannon Divergence [0.0]
確率分布の違いの定量化は機械学習において重要である。
本研究は,従来のジェンセン・シャノン発散に触発された新しい尺度であるジェンセン・シャノン発散(RJSD)の表現を提案する。
本研究は, RJSDが2サンプル試験, 分散シフト検出, 教師なし領域適応において優れていることを示すものである。
論文 参考訳(メタデータ) (2023-05-25T19:44:36Z) - Policy Evaluation in Distributional LQR [70.63903506291383]
ランダムリターンの分布を閉形式で表現する。
この分布は有限個の確率変数で近似できることを示す。
近似回帰分布を用いて,リスク・アバースLQRに対するゼロ階ポリシー勾配アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T20:27:40Z) - Personalized Trajectory Prediction via Distribution Discrimination [78.69458579657189]
トラリミー予測は将来の力学のマルチモーダルな性質を捉えるジレンマと対立する。
本研究では,パーソナライズされた動作パターンを予測するDisDisDis(Disdis)手法を提案する。
本手法は,プラグイン・アンド・プレイモジュールとして既存のマルチモーダル予測モデルと統合することができる。
論文 参考訳(メタデータ) (2021-07-29T17:42:12Z) - Predicting with Confidence on Unseen Distributions [90.68414180153897]
ドメイン適応と予測不確実性文学を結びつけて、挑戦的な未知分布のモデル精度を予測する。
分類器の予測における信頼度(DoC)の差は,様々な変化に対して,分類器の性能変化を推定することに成功した。
具体的には, 合成分布と自然分布の区別について検討し, その単純さにもかかわらず, DoCは分布差の定量化に優れることを示した。
論文 参考訳(メタデータ) (2021-07-07T15:50:18Z) - Estimating Generalization under Distribution Shifts via Domain-Invariant
Representations [75.74928159249225]
未知の真のターゲットラベルのプロキシとして、ドメイン不変の予測器のセットを使用します。
結果として生じるリスク見積の誤差は、プロキシモデルのターゲットリスクに依存する。
論文 参考訳(メタデータ) (2020-07-06T17:21:24Z) - Distributional Random Forests: Heterogeneity Adjustment and Multivariate
Distributional Regression [0.8574682463936005]
共同条件分布に基づく多変量応答のための新しい森林構築法を提案する。
コードはPythonとRパッケージとして利用可能である。
論文 参考訳(メタデータ) (2020-05-29T09:05:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。