論文の概要: The Gaussian-Multinoulli Restricted Boltzmann Machine: A Potts Model Extension of the GRBM
- arxiv url: http://arxiv.org/abs/2505.11635v1
- Date: Fri, 16 May 2025 18:59:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.754608
- Title: The Gaussian-Multinoulli Restricted Boltzmann Machine: A Potts Model Extension of the GRBM
- Title(参考訳): ガウス・マルティーノウルリ制限ボルツマンマシン:GRBMのポッツモデル拡張
- Authors: Nikhil Kapasi, William Whitehead, Luke Theogarajan,
- Abstract要約: ガウス・ベルヌーリ制限ボルツマンマシン(GB-RBM)を拡張した生成エネルギーベースモデルを導入する。
この修正により、スケーラブルでリッチな潜在空間が可能になり、多値で解釈可能な潜在概念の学習をサポートする。
GM-RBMsは2進RBMよりも複雑なマルチモーダル分布を効果的にモデル化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world tasks, from associative memory to symbolic reasoning, demand discrete, structured representations that standard continuous latent models struggle to express naturally. We introduce the Gaussian-Multinoulli Restricted Boltzmann Machine (GM-RBM), a generative energy-based model that extends the Gaussian-Bernoulli RBM (GB-RBM) by replacing binary hidden units with $q$-state Potts variables. This modification enables a combinatorially richer latent space and supports learning over multivalued, interpretable latent concepts. We formally derive GM-RBM's energy function, learning dynamics, and conditional distributions, showing that it preserves tractable inference and training through contrastive divergence. Empirically, we demonstrate that GM-RBMs model complex multimodal distributions more effectively than binary RBMs, outperforming them on tasks involving analogical recall and structured memory. Our results highlight GM-RBMs as a scalable framework for discrete latent inference with enhanced expressiveness and interoperability.
- Abstract(参考訳): 連想記憶から象徴的推論まで、多くの現実世界のタスクは、標準的な連続潜在モデルが自然に表現するのに苦労する離散的、構造化された表現を要求する。
ガウス・マルティノーリ制限ボルツマンマシン (GM-RBM) はガウス・ベルヌーリ RBM (GB-RBM) を拡張した生成エネルギーモデルである。
この修正により、組合せ的にリッチな潜在空間が可能になり、多値で解釈可能な潜在概念の学習をサポートする。
我々は, GM-RBMのエネルギー関数, 学習力学, 条件分布を公式に導出した。
実験により,GM-RBMは2進RBMよりも高効率に複雑なマルチモーダル分布をモデル化し,アナログリコールや構造化メモリなどのタスクにおいて性能を向上することを示した。
GM-RBMは,表現性と相互運用性を向上した離散潜在推論のためのスケーラブルなフレームワークとして注目されている。
関連論文リスト
- Exploring the Energy Landscape of RBMs: Reciprocal Space Insights into Bosons, Hierarchical Learning and Symmetry Breaking [0.07499722271664146]
離散分布に対する普遍近似能力で知られるリミテッドボルツマンマシン(RBM)に着目した。
相互空間の定式化を導入することにより、RBM、拡散過程、結合ボソン間の接続を明らかにする。
我々の研究結果は、異なる生成フレームワーク間のギャップを埋めると同時に、生成モデルにおける学習を支えるプロセスにも光を当てています。
論文 参考訳(メタデータ) (2025-03-27T14:28:37Z) - Expressive equivalence of classical and quantum restricted Boltzmann machines [1.1639171061272031]
古典データに対する半量子制限ボルツマンマシン(sqRBM)を提案する。
sqRBM は可視部分空間で通信し、非可視部分空間で通信を継続する。
我々の理論的分析は、与えられた確率分布を学習するために、RBMはsqRBMの3倍の隠れ単位を必要とすることを予測している。
論文 参考訳(メタデータ) (2025-02-24T19:00:02Z) - Bellman Diffusion: Generative Modeling as Learning a Linear Operator in the Distribution Space [72.52365911990935]
本稿では,MDPの線形性を維持する新しいDGMフレームワークであるBellman Diffusionを紹介する。
この結果から,ベルマン拡散は分布RLタスクにおける従来のヒストグラムベースベースラインよりも1.5倍高速に収束し,精度の高い画像生成装置であることがわかった。
論文 参考訳(メタデータ) (2024-10-02T17:53:23Z) - A Non-negative VAE:the Generalized Gamma Belief Network [49.970917207211556]
ガンマ信念ネットワーク(GBN)は、テキストデータ中の多層解釈可能な潜在表現を明らかにする可能性を実証している。
本稿では、一般化ガンマ信念ネットワーク(Generalized GBN)を導入し、元の線形生成モデルをより表現力のある非線形生成モデルに拡張する。
また、潜伏変数の後方分布を近似する上向きのワイブル推論ネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-06T18:18:37Z) - Monotone deep Boltzmann machines [86.50247625239406]
ディープボルツマンマシン(Deep Boltzmann Machine、DBM)は、双対エネルギー関数によって制御される多層確率モデルである。
我々は,各層で任意の自己接続が可能な新しい制限モデルであるモノトンDBMを開発した。
アクティベーションの特定の選択が、変動平均場解を与える固定点反復をもたらすことを示す。
論文 参考訳(メタデータ) (2023-07-11T03:02:44Z) - Neural Boltzmann Machines [2.179313476241343]
条件生成モデルは、コンテキスト情報を入力として使用して、新しい想像的出力を生成することができる。
条件付き制限ボルツマンマシン(英: Conditional Restricted Boltzmann Machines, CRBM)は、ノイズの多い離散データや連続データをモデル化するのに特に有効であることが証明された条件付き生成モデルの一種である。
CRBMパラメータのそれぞれを、条件入力の関数として許容される独自のニューラルネットワークに変換することで、CRBMを一般化する。
論文 参考訳(メタデータ) (2023-05-15T04:03:51Z) - Exact representations of many body interactions with RBM neural networks [77.34726150561087]
我々は、RBMの表現力を利用して、多体接触相互作用を1体演算子に正確に分解する。
この構成は、ハバードモデルでよく知られたヒルシュの変換を、核物理学におけるピオンレスFTのようなより複雑な理論に一般化する。
論文 参考訳(メタデータ) (2020-05-07T15:59:29Z) - Training Deep Energy-Based Models with f-Divergence Minimization [113.97274898282343]
深部エネルギーベースモデル(EBM)は分布パラメトリゼーションにおいて非常に柔軟であるが、計算的に困難である。
所望のf偏差を用いてEMMを訓練するための、f-EBMと呼ばれる一般的な変分フレームワークを提案する。
実験の結果,F-EBMは対照的なばらつきよりも優れており,KL以外のf-divergencesを用いたEBMの訓練の利点も示された。
論文 参考訳(メタデータ) (2020-03-06T23:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。