論文の概要: Autoregressive pairwise Graphical Models efficiently find ground state representations of stoquastic Hamiltonians
- arxiv url: http://arxiv.org/abs/2505.06798v1
- Date: Sun, 11 May 2025 00:36:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.042284
- Title: Autoregressive pairwise Graphical Models efficiently find ground state representations of stoquastic Hamiltonians
- Title(参考訳): 自己回帰的ペアワイズグラフモデルは、確率的ハミルトニアンの基底状態表現を効率的に見つける
- Authors: Yuchen Pang, Abhijith Jayakumar, Evan McKinney, Carleton Coffrin, Marc Vuffray, Andrey Y. Lokhov,
- Abstract要約: 確率的ハミルトニアン基底状態のモデル化のためのアンザッツとして自己回帰グラフモデル(AGM)を導入する。
1次勾配法を用いて訓練されたペアのエネルギー関数を持つ単純なAGMは、より高価な再構成法を用いて訓練されたより複雑な非線形モデルよりも優れていることが判明した。
- 参考スコア(独自算出の注目度): 6.10240618821149
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Autoregressive Graphical Models (AGMs) as an Ansatz for modeling the ground states of stoquastic Hamiltonians. Exact learning of these models for smaller systems show the dominance of the pairwise terms in the autoregressive decomposition, which informs our modeling choices when the Ansatz is used to find representations for ground states of larger systems. We find that simple AGMs with pairwise energy functions trained using first-order stochastic gradient methods often outperform more complex non-linear models trained using the more expensive stochastic reconfiguration method. We also test our models on Hamiltonians with frustration and observe that the simpler linear model used here shows faster convergence to the variational minimum in a resource-limited setting.
- Abstract(参考訳): 確率的ハミルトニアン基底状態をモデル化するためのアンザッツとして自己回帰グラフモデル(AGM)を導入する。
より小さなシステムに対するこれらのモデルの厳密な学習は、自己回帰分解における対項の優位性を示し、より大規模なシステムの基底状態の表現を見つけるためにアンザッツを用いた場合のモデリング選択を知らせる。
一階確率勾配法を用いて訓練された対角エネルギー関数を持つ単純なAGMは、より高価な確率的再構成法を用いて訓練されたより複雑な非線形モデルよりも優れていることが判明した。
また、ハミルトニアンのモデルをフラストレーションでテストし、ここで用いられるより単純な線形モデルは、リソース制限された設定における変分最小値へのより高速な収束を示すことを観察する。
関連論文リスト
- Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間列を表現するために設計された新しい深部力学モデルを提案する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
振動系, ビデオ, 実世界の状態系列(MuJoCo)の実験結果から, 学習可能なエネルギーベース先行モデルの方が既存のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - Wasserstein proximal operators describe score-based generative models
and resolve memorization [12.321631823103894]
We first formulate SGMs with terms of Wasserstein proximal operator (WPO)
We show that WPO describe the inductive bias of diffusion and score-based model。
本稿では,SGMの性能を劇的に向上させる,スコア関数の解釈可能なカーネルベースモデルを提案する。
論文 参考訳(メタデータ) (2024-02-09T03:33:13Z) - On the Influence of Enforcing Model Identifiability on Learning dynamics
of Gaussian Mixture Models [14.759688428864159]
特異モデルからサブモデルを抽出する手法を提案する。
本手法はトレーニング中のモデルの識別性を強制する。
この手法がディープニューラルネットワークのようなより複雑なモデルにどのように適用できるかを示す。
論文 参考訳(メタデータ) (2022-06-17T07:50:22Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Scaling Hidden Markov Language Models [118.55908381553056]
この研究は、HMMを言語モデリングデータセットに拡張するという課題を再考する。
本研究では,HMMを大規模状態空間に拡張する手法を提案する。
論文 参考訳(メタデータ) (2020-11-09T18:51:55Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Prediction with Approximated Gaussian Process Dynamical Models [7.678864239473703]
我々はマルコフであるGPDMを近似し、その制御理論的性質を解析する。
結果は、近似モデルのパワーを示す数値的な例で示される。
論文 参考訳(メタデータ) (2020-06-25T16:51:17Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。