論文の概要: Beyond Belief Propagation: Cluster-Corrected Tensor Network Contraction with Exponential Convergence
- arxiv url: http://arxiv.org/abs/2510.02290v1
- Date: Thu, 02 Oct 2025 17:58:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.297948
- Title: Beyond Belief Propagation: Cluster-Corrected Tensor Network Contraction with Exponential Convergence
- Title(参考訳): 信念の伝播を超えて:指数収束を伴うクラスタ補正テンソルネットワークの収縮
- Authors: Siddhant Midha, Yifan F. Zhang,
- Abstract要約: 我々は,テンソルネットワークにおけるBPの厳密な理論的枠組みを開発し,統計力学からの洞察を活用している。
電子ループ寄与と呼ばれる物体がループサイズで十分に早く崩壊した場合、クラスターの膨張が指数関数的に速く収束することが証明される。
我々の研究は、テンソルネットワークのためのBPの体系的理論への扉を開き、古典的および量子的誤り訂正符号の復号化や量子システムシミュレーションへの応用に応用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensor network contraction on arbitrary graphs is a fundamental computational challenge with applications ranging from quantum simulation to error correction. While belief propagation (BP) provides a powerful approximation algorithm for this task, its accuracy limitations are poorly understood and systematic improvements remain elusive. Here, we develop a rigorous theoretical framework for BP in tensor networks, leveraging insights from statistical mechanics to devise a \emph{cluster expansion} that systematically improves the BP approximation. We prove that the cluster expansion converges exponentially fast if an object called the \emph{loop contribution} decays sufficiently fast with the loop size, giving a rigorous error bound on BP. We also provide a simple and efficient algorithm to compute the cluster expansion to arbitrary order. We demonstrate the efficacy of our method on the two-dimensional Ising model, where we find that our method significantly improves upon BP and existing corrective algorithms such as loop series expansion. Our work opens the door to a systematic theory of BP for tensor networks and its applications in decoding classical and quantum error-correcting codes and simulating quantum systems.
- Abstract(参考訳): 任意のグラフ上のテンソルネットワークの収縮は、量子シミュレーションから誤差補正まで、応用の基本的な計算課題である。
信念伝播(BP)はこのタスクに強力な近似アルゴリズムを提供するが、その精度の限界は十分に理解されておらず、体系的な改善はいまだ解明されていない。
本稿では, テンソルネットワークにおけるBPの厳密な理論的枠組みを開発し, 統計力学の知見を利用して, BP近似を体系的に改善する 'emph{cluster expansion} を考案する。
クラスター展開が指数関数的に速く収束することが証明される: \emph{loop contribute} と呼ばれる物体がループサイズとともに十分に早く崩壊し、BP 上の厳密な誤差を与える。
また,クラスタ展開を任意の順序で計算するための単純で効率的なアルゴリズムも提供する。
提案手法の有効性を2次元Isingモデルで検証した結果,BP法やループ列展開などの既存の補正アルゴリズムで大幅に改善できることが判明した。
我々の研究は、テンソルネットワークのためのBPの体系的理論への扉を開き、古典的および量子的誤り訂正符号の復号化や量子システムシミュレーションへの応用に応用する。
関連論文リスト
- Simulating quantum dynamics in two-dimensional lattices with tensor network influence functional belief propagation [1.4132765964347058]
我々は,TN-IF法を木格子上に構築し,TN-IFに対する信念伝搬(BP)アルゴリズムを提案することにより,TN-IF法の適用性を2次元格子に拡張する。
本研究では, IF-BPのクラスタ展開のパワーを2次元逆場イジングモデルの量子力学のクエンチで示し, 現状を改善する数値的な結果を得る。
論文 参考訳(メタデータ) (2025-04-10T00:04:32Z) - Belief propagation for general graphical models with loops [45.29832252085144]
ループを持つ任意のグラフィカルモデルをとる統一フレームワークを開発する。
本研究では,テンソルネットワークBPよりも10桁以上の精度向上が可能であることを示す。
論文 参考訳(メタデータ) (2024-11-07T18:32:42Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Efficient Bound of Lipschitz Constant for Convolutional Layers by Gram
Iteration [122.51142131506639]
循環行列理論を用いて畳み込み層のスペクトルノルムに対して、精密で高速で微分可能な上界を導入する。
提案手法は, 精度, 計算コスト, スケーラビリティの観点から, 他の最先端手法よりも優れていることを示す。
これは畳み込みニューラルネットワークのリプシッツ正則化に非常に効果的であり、並行アプローチに対する競合的な結果である。
論文 参考訳(メタデータ) (2023-05-25T15:32:21Z) - Deep learning via message passing algorithms based on belief propagation [2.931240348160871]
本稿では,局所的なエントロピー分布に偏りを持つ強化場を有するBPベースのメッセージパッシングアルゴリズムのファミリについて述べる。
これらのアルゴリズムは、SGDにインスパイアされたソリューションに匹敵するパフォーマンスで、離散重みとアクティベーションを持つ多層ニューラルネットワークをトレーニングすることができる。
論文 参考訳(メタデータ) (2021-10-27T16:52:26Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Belief Propagation Neural Networks [103.97004780313105]
信念伝播ニューラルネットワーク(BPNN)を紹介する。
BPNNは因子グラフ上で動作し、信念伝播(BP)を一般化する
BPNNはIsingモデル上で1.7倍高速に収束し、より厳密な境界を提供することを示す。
挑戦的なモデルカウント問題に関して、BPNNは最先端の手作り手法の100倍の速さを推定する。
論文 参考訳(メタデータ) (2020-07-01T07:39:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。