論文の概要: A Mathematical Framework for Learning Probability Distributions
- arxiv url: http://arxiv.org/abs/2212.11481v1
- Date: Thu, 22 Dec 2022 04:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 13:59:58.673884
- Title: A Mathematical Framework for Learning Probability Distributions
- Title(参考訳): 確率分布学習のための数学的枠組み
- Authors: Hongkang Yang
- Abstract要約: 生成的モデリングと密度推定は 近年 非常にポピュラーな話題になっています
本論文は、すべての有名なモデルを単純な原理に基づいて導出できる数学的枠組みを提供する。
特に,これらのモデルが訓練中に暗黙的な正規化を楽しむことを証明し,早期停止時の一般化誤差が次元性の呪いを避ける。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The modeling of probability distributions, specifically generative modeling
and density estimation, has become an immensely popular subject in recent years
by virtue of its outstanding performance on sophisticated data such as images
and texts. Nevertheless, a theoretical understanding of its success is still
incomplete. One mystery is the paradox between memorization and generalization:
In theory, the model is trained to be exactly the same as the empirical
distribution of the finite samples, whereas in practice, the trained model can
generate new samples or estimate the likelihood of unseen samples. Likewise,
the overwhelming diversity of distribution learning models calls for a unified
perspective on this subject. This paper provides a mathematical framework such
that all the well-known models can be derived based on simple principles. To
demonstrate its efficacy, we present a survey of our results on the
approximation error, training error and generalization error of these models,
which can all be established based on this framework. In particular, the
aforementioned paradox is resolved by proving that these models enjoy implicit
regularization during training, so that the generalization error at
early-stopping avoids the curse of dimensionality. Furthermore, we provide some
new results on landscape analysis and the mode collapse phenomenon.
- Abstract(参考訳): 確率分布のモデル化、特に生成的モデリングと密度推定は、画像やテキストなどの洗練されたデータに優れた性能を生かして近年、非常にポピュラーな主題となっている。
しかし、その成功に関する理論的理解はまだ不十分である。
理論的には、モデルは有限標本の経験的分布と全く同じように訓練されるが、実際には、訓練されたモデルは新しいサンプルを生成したり、目に見えないサンプルの可能性を推定することができる。
同様に、分散学習モデルの圧倒的多様性は、この主題に対する統一的な視点を要求する。
本論文は、すべての有名なモデルを単純な原理に基づいて導出できる数学的枠組みを提供する。
提案手法の有効性を示すため,これらのモデルの近似誤差,トレーニング誤差,一般化誤差について,この枠組みに基づいて検討した。
特に、上記のパラドックスは、これらのモデルがトレーニング中に暗黙の正則化を楽しみ、早期停止時の一般化誤差が次元の呪いを避けることを証明することによって解決される。
さらに,ランドスケープ解析とモード崩壊現象について新たな結果を得た。
関連論文リスト
- Distribution Learning and Its Application in Deep Learning [5.281849820329249]
本稿では,確率分布学習(PD Learning)と呼ばれる理論学習フレームワークを紹介する。
PD学習は確率分布の学習に重点を置いており、確率の単純さの中で確率変数としてモデル化される。
論文 参考訳(メタデータ) (2024-06-09T06:49:22Z) - Causal Estimation of Memorisation Profiles [58.20086589761273]
言語モデルにおける記憶の理解は、実践的および社会的意味を持つ。
覚書化(英: Memorisation)とは、モデルがそのインスタンスを予測できる能力に対して、あるインスタンスでトレーニングを行うことによる因果的影響である。
本稿では,計量学の差分差分設計に基づく,新しい,原理的,効率的な記憶推定法を提案する。
論文 参考訳(メタデータ) (2024-06-06T17:59:09Z) - Likelihood Based Inference in Fully and Partially Observed Exponential Family Graphical Models with Intractable Normalizing Constants [4.532043501030714]
マルコフ確率場を符号化する確率的グラフィカルモデルは、生成的モデリングの基本的な構成要素である。
本稿では,これらのモデルの全確率に基づく解析が,計算効率のよい方法で実現可能であることを示す。
論文 参考訳(メタデータ) (2024-04-27T02:58:22Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - Bi-Noising Diffusion: Towards Conditional Diffusion Models with
Generative Restoration Priors [64.24948495708337]
本研究では,事前訓練した非条件拡散モデルを用いて,予測サンプルをトレーニングデータ多様体に導入する手法を提案する。
我々は,超解像,着色,乱流除去,画像劣化作業におけるアプローチの有効性を実証するための総合的な実験を行った。
論文 参考訳(メタデータ) (2022-12-14T17:26:35Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Why do classifier accuracies show linear trends under distribution
shift? [58.40438263312526]
あるデータ分布上のモデルの精度は、別の分布上の精度のほぼ線形関数である。
2つのモデルが予測で一致する確率は、精度レベルだけで推測できるものよりも高いと仮定します。
分布シフトの大きさが大きければ, 2 つの分布のモデルを評価する場合, 線形傾向が生じなければならない。
論文 参考訳(メタデータ) (2020-12-31T07:24:30Z) - Generalization and Memorization: The Bias Potential Model [9.975163460952045]
生成モデルと密度推定器は、関数の学習モデルとは全く異なる振る舞いをする。
バイアスポテンシャルモデルでは、早期停止が採用された場合、次元非依存の一般化精度が達成可能であることを示す。
長期的には、モデルはサンプルを記憶するか、分岐させる。
論文 参考訳(メタデータ) (2020-11-29T04:04:54Z) - Uses and Abuses of the Cross-Entropy Loss: Case Studies in Modern Deep
Learning [29.473503894240096]
我々は、厳密な分類ではなく、単純な表現の値を取るデータにカテゴリ横断エントロピー損失を用いることに焦点をあてる。
このプラクティスは、ラベルの平滑化やアクター/ミリ波強化学習など、ニューラルネットワークアーキテクチャにおいて標準的なものだ。
我々はこれらのモデルに対して確率論的に着想を得た代替案を提案し、より原理的で理論的に魅力的であるアプローチを提供する。
論文 参考訳(メタデータ) (2020-11-10T16:44:35Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。