論文の概要: Performance Evaluation of Ising and QUBO Variable Encodings in Boltzmann Machine Learning
- arxiv url: http://arxiv.org/abs/2510.13210v1
- Date: Wed, 15 Oct 2025 06:57:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.531821
- Title: Performance Evaluation of Ising and QUBO Variable Encodings in Boltzmann Machine Learning
- Title(参考訳): ボルツマン機械学習におけるIsingおよびQUBO可変符号化の性能評価
- Authors: Yasushi Hasegawa, Masayuki Ohzeki,
- Abstract要約: QUBOは、一階と二階の統計量の間のより大きな交差項を誘導し、フィッシャー情報行列においてより小さな固有値方向を生成する。
イジングエンコーディングは、より等方的曲率とより高速な収束を提供する。
これらの結果は,ボルツマンマシンにおける情報幾何学および有限時間学習力学の表現の形状について明らかにした。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We compare Ising ({-1,+1}) and QUBO ({0,1}) encodings for Boltzmann machine learning under a controlled protocol that fixes the model, sampler, and step size. Exploiting the identity that the Fisher information matrix (FIM) equals the covariance of sufficient statistics, we visualize empirical moments from model samples and reveal systematic, representation-dependent differences. QUBO induces larger cross terms between first- and second-order statistics, creating more small-eigenvalue directions in the FIM and lowering spectral entropy. This ill-conditioning explains slower convergence under stochastic gradient descent (SGD). In contrast, natural gradient descent (NGD)-which rescales updates by the FIM metric-achieves similar convergence across encodings due to reparameterization invariance. Practically, for SGD-based training, the Ising encoding provides more isotropic curvature and faster convergence; for QUBO, centering/scaling or NGD-style preconditioning mitigates curvature pathologies. These results clarify how representation shapes information geometry and finite-time learning dynamics in Boltzmann machines and yield actionable guidelines for variable encoding and preprocessing.
- Abstract(参考訳): Ising ({-1,+1}) と QUBO ({0,1}) を比較した。
フィッシャー情報行列 (FIM) が十分な統計量の共分散と同一であることを示すため, モデルサンプルから経験的モーメントを可視化し, 系統的, 表現依存的な差異を明らかにする。
QUBOは、FIMにおいてより小さな固有値の方向を生成し、スペクトルエントロピーを低下させる、一階統計と二階統計の間のより大きな交差項を誘導する。
この条件付けは、確率勾配降下(SGD)の下での緩やかな収束を説明する。
対照的に、FIMメートル法により更新を再スケールする自然勾配降下(NGD)は、再パラメータ化不変性に起因するエンコーディング間の類似の収束を生じさせる。
実際には、SGDベースのトレーニングでは、Isingエンコーディングはより等方的曲率とより高速な収束を提供し、QUBOでは中心/スケーリングやNGDスタイルのプレコンディショニングは曲率病理を緩和する。
これらの結果から,ボルツマンマシンにおける情報幾何学および有限時間学習力学の表現形態の解明と,可変符号化および前処理のための実行可能なガイドラインが得られた。
関連論文リスト
- Zero-Variance Gradients for Variational Autoencoders [32.818968022327866]
変分オートエンコーダ(VAE)のような深層生成モデルの訓練は、潜伏変数のサンプリングを通じて勾配をバックプロパゲートする必要性によって、しばしば妨げられる。
本稿では,この問題をサイドステップとして,Silent Gradientsと呼ぶ新しい視点を提案する。
推定器を改良する代わりに、特定のデコーダアーキテクチャを解析的に利用して予測されるELBOを計算する。
論文 参考訳(メタデータ) (2025-08-05T15:54:21Z) - Learning with Restricted Boltzmann Machines: Asymptotics of AMP and GD in High Dimensions [31.75902683077129]
Restricted Boltzmann Machine (RBM) は、入力分布を学習できる最も単純な生成ニューラルネットワークの1つである。
我々は、標準的なRBMトレーニング目標を、非分離正則化を伴うマルチインデックスモデルと同等の形式に単純化する。
特に, RBM が BBP 遷移と整合して, 最適計算弱回復しきい値に達することを示す。
論文 参考訳(メタデータ) (2025-05-23T15:51:46Z) - Feynman-Kac Correctors in Diffusion: Annealing, Guidance, and Product of Experts [64.34482582690927]
事前学習したスコアベースモデルから得られた熱処理, 幾何平均, 製品分布の配列から, 効率的かつ原理的に抽出する方法を提供する。
本稿では,サンプリング品質を向上させるために,推論時間スケーリングを利用する逐次モンテカルロ(SMC)再サンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-04T17:46:51Z) - Online Variational Sequential Monte Carlo [49.97673761305336]
我々は,計算効率が高く正確なモデルパラメータ推定とベイジアン潜在状態推定を提供する変分連続モンテカルロ法(VSMC)を構築した。
オンラインVSMCは、パラメータ推定と粒子提案適応の両方を効率よく、完全にオンザフライで実行することができる。
論文 参考訳(メタデータ) (2023-12-19T21:45:38Z) - NAG-GS: Semi-Implicit, Accelerated and Robust Stochastic Optimizer [45.47667026025716]
2つの重要な要素に依存した、新しく、堅牢で、加速された反復を提案する。
NAG-GSと呼ばれる手法の収束と安定性は、まず広範に研究されている。
我々は、NAG-arityが、重量減衰を伴う運動量SGDや機械学習モデルのトレーニングのためのAdamWといった最先端の手法と競合していることを示す。
論文 参考訳(メタデータ) (2022-09-29T16:54:53Z) - Emulating Spatio-Temporal Realizations of Three-Dimensional Isotropic
Turbulence via Deep Sequence Learning Models [24.025975236316842]
最先端のディープラーニング技術を用いて3次元乱流をモデル化するために,データ駆動方式を用いる。
モデルの精度は、統計および物理に基づくメトリクスを用いて評価される。
論文 参考訳(メタデータ) (2021-12-07T03:33:39Z) - A Fast Parallel Tensor Decomposition with Optimal Stochastic Gradient
Descent: an Application in Structural Damage Identification [1.536989504296526]
本稿では, CANDECOMP/PARAFAC (CP) 分解を mathbbR I_1 times dots times I_N $ で並列化する新しいアルゴリズム FP-CPD を提案する。
論文 参考訳(メタデータ) (2021-11-04T05:17:07Z) - An adaptive Hessian approximated stochastic gradient MCMC method [12.93317525451798]
後方からのサンプリング中に局所的幾何情報を組み込む適応型ヘッセン近似勾配MCMC法を提案する。
我々は,ネットワークの空間性を高めるために,等級に基づく重み付け法を採用する。
論文 参考訳(メタデータ) (2020-10-03T16:22:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。