論文の概要: Bayesian Hierarchical Models and the Maximum Entropy Principle
- arxiv url: http://arxiv.org/abs/2603.10252v1
- Date: Tue, 10 Mar 2026 22:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.707011
- Title: Bayesian Hierarchical Models and the Maximum Entropy Principle
- Title(参考訳): ベイズ階層モデルと最大エントロピー原理
- Authors: Brendon J. Brewer,
- Abstract要約: 先述のハイパーパラメータが正準分布であるとき、従属境界事前もまた、異なる制約を持つ最大エントロピー特性を持つことを示す。
その結果、階層的なモデルを割り当てたときに、実際にどのような情報が想定されているかが明らかになりました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian hierarchical models are frequently used in practical data analysis contexts. One interpretation of these models is that they provide an indirect way of assigning a prior for unknown parameters, through the introduction of hyperparameters. The resulting marginal prior for the parameters (integrating over the hyperparameters) is usually dependent, so that learning one parameter provides some information about the others. In this contribution, I will demonstrate that, when the prior given the hyperparameters is a canonical distribution (a maximum entropy distribution with moment constraints), the dependent marginal prior also has a maximum entropy property, with a different constraint. This constraint is on the marginal distribution of some function of the unknown quantities. The results shed light on what information is actually being assumed when we assign a hierarchical model.
- Abstract(参考訳): ベイズ階層モデルは、実践的なデータ分析の文脈で頻繁に使用される。
これらのモデルの解釈の一つは、ハイパーパラメータの導入を通じて、未知のパラメータに対して事前を割り当てる間接的な方法を提供することである。
パラメータ(ハイパーパラメータ上での統合)に対する結果の限界前は、通常は依存しているため、ひとつのパラメータを学習することで、他のパラメータに関する情報が提供される。
このコントリビューションでは、先述のハイパーパラメータが正準分布(モーメント制約付き最大エントロピー分布)であるとき、従属境界先行も最大エントロピー特性を持ち、異なる制約を持つことを示した。
この制約は未知量のある関数の限界分布に関するものである。
その結果、階層的なモデルを割り当てたときに、実際にどのような情報が想定されているかが明らかになった。
関連論文リスト
- Overparameterized Multiple Linear Regression as Hyper-Curve Fitting [0.0]
線形モデルは, モデル仮定に反する非線形依存が存在する場合でも, 正確な予測を生成することが証明された。
ハイパーカーブのアプローチは、予測変数のノイズに関する問題を正規化するのに特に適しており、モデルからノイズや「不適切な」予測子を取り除くのに使うことができる。
論文 参考訳(メタデータ) (2024-04-11T15:43:11Z) - Should We Learn Most Likely Functions or Parameters? [51.133793272222874]
モデルとデータによって示唆される最も可能性の高い関数を直接推定する利点と欠点について検討する。
関数空間MAP推定は, より平坦な最小化, 一般化, オーバーフィッティングの改善につながる可能性がある。
論文 参考訳(メタデータ) (2023-11-27T16:39:55Z) - PriorCVAE: scalable MCMC parameter inference with Bayesian deep
generative modelling [12.820453440015553]
近年、可変オートエンコーダ(VAE)のような深層生成モデルを用いてGPプリエントを符号化できることが示されている。
MCMC推論において、VAEが元のプリミティブのドロップイン置換としてどのように機能するかを示す。
ODEの解を符号化するために、PresideCVAEを提案する。
論文 参考訳(メタデータ) (2023-04-09T20:23:26Z) - The Choice of Noninformative Priors for Thompson Sampling in
Multiparameter Bandit Models [56.31310344616837]
トンプソンサンプリング(TS)は、様々な報酬モデルにまたがる理論的な保証によって支持される卓越した経験的性能で知られている。
本研究では,理論的理解の欠如のある新しいモデルを扱う際に,非形式的事前選択がTSの性能に与える影響について考察する。
論文 参考訳(メタデータ) (2023-02-28T08:42:42Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - Entropy-based Characterization of Modeling Constraints [0.0]
ほとんどのデータ科学的アプローチでは、エントロピー(MaxEnt)の原理はパラメトリックモデルを正当化するために用いられる。
与えられた制約の集合を満たすすべての実効的な分布の分布を導出する。
データによって支えられる適切なパラメトリックモデルは、常にモデル選択の最後に導出することができる。
論文 参考訳(メタデータ) (2022-06-27T17:25:49Z) - Far from Asymptopia [0.0]
限られたデータからの推論はパラメータ空間上の測度の概念を必要とするが、ベイズフレームワークは前者として最も明示的である。
ここでは、最もよく知られた非形式的選択であるジェフリーズ先行が、典型的な科学的モデルに適用した場合に巨大なバイアスをもたらすことを示した。
この問題を回避し、複雑なモデルにおける偏りのない推論につながるような、原則化された測度の選択に関する結果を示す。
論文 参考訳(メタデータ) (2022-05-06T16:23:12Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - On the minmax regret for statistical manifolds: the role of curvature [68.8204255655161]
2つの部分のコードと最小記述長は、最高のモデルを選別するための手順を提供するのに成功している。
我々は、フィッシャー情報計量のスカラー曲率が支配的な役割を果たす複雑さによって与えられる標準表現よりも、よりシャープな表現を導出する。
論文 参考訳(メタデータ) (2020-07-06T17:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。