論文の概要: Asymptotic Behavior of Bayesian Generalization Error in Multinomial
Mixtures
- arxiv url: http://arxiv.org/abs/2203.06884v1
- Date: Mon, 14 Mar 2022 06:50:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 17:43:26.700987
- Title: Asymptotic Behavior of Bayesian Generalization Error in Multinomial
Mixtures
- Title(参考訳): 多項混合系におけるベイズ一般化誤差の漸近的挙動
- Authors: Takumi Watanabe and Sumio Watanabe
- Abstract要約: 多項混合は識別不能であり、フィッシャー情報行列は正定値ではない。
本稿では,多相混合系の正準しきい値と多重度を明らかにし,誤差一般化と自由エネルギーの挙動を解明する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multinomial mixtures are widely used in the information engineering field,
however, their mathematical properties are not yet clarified because they are
singular learning models. In fact, the models are non-identifiable and their
Fisher information matrices are not positive definite. In recent years, the
mathematical foundation of singular statistical models are clarified by using
algebraic geometric methods. In this paper, we clarify the real log canonical
thresholds and multiplicities of the multinomial mixtures and elucidate their
asymptotic behaviors of generalization error and free energy.
- Abstract(参考訳): 多項混合は情報工学の分野で広く使われているが、その数学的性質は特異学習モデルであるためまだ解明されていない。
実際、モデルは識別不能であり、フィッシャー情報行列は正定値ではない。
近年,特異統計モデルの数学的基礎を代数幾何学的手法を用いて明らかにしている。
本稿では,多相混合系の実対数標準しきい値と多重度を明らかにし,一般化誤差と自由エネルギーの漸近挙動を解明する。
関連論文リスト
- Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Recent Advances in Algebraic Geometry and Bayesian Statistics [0.0]
本稿では代数幾何学とベイズ統計学の研究分野における理論的進歩について概説する。
2つの数学的解法と代数幾何学に基づく統計学への3つの応用が、現在、データサイエンスと人工知能の多くの実践分野で使われている。
論文 参考訳(メタデータ) (2022-11-18T06:19:05Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Uncertainty Disentanglement with Non-stationary Heteroscedastic Gaussian
Processes for Active Learning [10.757942829334057]
勾配に基づく手法で学習可能な非定常ヘテロセダスティックガウス過程モデルを提案する。
提案手法は, 全体的な不確かさを, アレタリック(非再現性)とてんかん(モデル)の不確実性に分離することにより, モデルの解釈可能性を示す。
論文 参考訳(メタデータ) (2022-10-20T02:18:19Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Hessian Eigenspectra of More Realistic Nonlinear Models [73.31363313577941]
私たちは、非線形モデルの広いファミリーのためのヘッセン固有スペクトルの言語的特徴付けを行います。
我々の分析は、より複雑な機械学習モデルで観察される多くの顕著な特徴の起源を特定するために一歩前進する。
論文 参考訳(メタデータ) (2021-03-02T06:59:52Z) - Characterizations of non-normalized discrete probability distributions
and their application in statistics [0.0]
これらの分布を識別する離散確率法則の質量関数について明示的な式を導出する。
我々の特徴づけ、従ってそれらの上に構築された応用は、確率法則の正規化定数に関する知識を一切必要としない。
論文 参考訳(メタデータ) (2020-11-09T12:08:12Z) - The Exact Asymptotic Form of Bayesian Generalization Error in Latent
Dirichlet Allocation [0.0]
代数幾何学を用いた学習の理論解析により、その一般化誤差と限界確率の正確な形を与える。
数値実験は理論結果と一致している。
論文 参考訳(メタデータ) (2020-08-04T03:26:16Z) - Non-parametric Models for Non-negative Functions [48.7576911714538]
同じ良い線形モデルから非負関数に対する最初のモデルを提供する。
我々は、それが表現定理を認め、凸問題に対する効率的な二重定式化を提供することを証明した。
論文 参考訳(メタデータ) (2020-07-08T07:17:28Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Information-theoretic limits of a multiview low-rank symmetric spiked
matrix model [19.738567726658875]
我々は、高次元推論問題の重要なクラス、すなわちスパイクされた対称行列モデルの一般化を考える。
シングルレター公式の証明を通じて情報理論の限界を厳格に確立する。
我々は最近導入された適応手法を改良し、低ランクモデルの研究に利用できるようにした。
論文 参考訳(メタデータ) (2020-05-16T15:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。