論文の概要: Belief propagation for general graphical models with loops
- arxiv url: http://arxiv.org/abs/2411.04957v2
- Date: Fri, 11 Jul 2025 12:04:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 14:01:04.686572
- Title: Belief propagation for general graphical models with loops
- Title(参考訳): ループ付き一般図形モデルの信念伝播
- Authors: Pedro Hack, Christian B. Mendl, Alexandru Paler,
- Abstract要約: ループを持つ任意のグラフィカルモデルをとる統一フレームワークを開発する。
本研究では,テンソルネットワークBPよりも10桁以上の精度向上が可能であることを示す。
- 参考スコア(独自算出の注目度): 45.29832252085144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing interest in scaling tensor network methods through belief propagation (BP), as well as increasing the accuracy of BP through tensor network methods. We develop a unification framework that takes an arbitrary graphical model with loops and provides message passing update rules and inference equations. We show that recent state-of-the-art methods regarding tensors and BP, like block belief propagation and tensor network message passing, are special instances of our framework. From a practical perspective, we discuss how our framework can be useful in order to understand the benefits of scheduling in BP, and show how it can be used for decoding purposes in quantum error correction. Lastly, to numerically support our claims, we show that our framework can achieve an accuracy improvement of more than ten orders of magnitude over tensor network BP when computing the trace of a tensor network consisting of a chain of connected triangles with periodic boundary conditions.
- Abstract(参考訳): 信念伝播(BP)によるテンソルネットワーク手法のスケーリングや,テンソルネットワーク手法によるBPの精度向上への関心が高まっている。
ループを用いた任意のグラフィカルモデルとメッセージパッシング更新ルールと推論方程式を提供する統一フレームワークを開発した。
ブロック信念伝播やテンソルネットワークメッセージパッシングといった,テンソルとBPに関する最近の最先端の手法が,我々のフレームワークの特別な例であることを示す。
実用の観点からは,BPにおけるスケジューリングの利点を理解する上で,我々のフレームワークがどのように有用であるかを論じ,量子誤り訂正における復号化のためにどのように使用できるかを示す。
最後に、我々の主張を数値的に裏付けるために、周期的境界条件を持つ連結三角形の連鎖からなるテンソルネットワークのトレースを計算する際に、我々のフレームワークはテンソルネットワークBPよりも10桁以上の精度向上を達成できることを示す。
関連論文リスト
- Loop Series Expansions for Tensor Networks [0.2796197251957244]
本稿では,テンソルネットワークの収縮に対するBP近似の精度を向上させるために,ループ列展開を適用する方法について述べる。
我々は、AKLTモデルの基底状態を表すiPEPSの縮約に関するこの提案を、ランダムに定義されたテンソルでベンチマークする。
論文 参考訳(メタデータ) (2024-09-04T22:22:35Z) - An almost-linear time decoding algorithm for quantum LDPC codes under circuit-level noise [0.562479170374811]
我々は、量子低密度パリティチェック符号のほぼ線形時間デコーダとして、信念伝播と順序付きタナーフォレスト(BP+OTF)アルゴリズムを導入する。
BP+OTFデコーダは,最先端のインバージョンベースデコーダの桁数で論理誤差を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-09-02T19:50:57Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Tensor Network Computations That Capture Strict Variationality, Volume Law Behavior, and the Efficient Representation of Neural Network States [0.6148049086034199]
本稿では,振幅の収縮の計算グラフによって定義されるテンソルネットワーク状態の視点変化を紹介する。
結果として得られる状態のクラスはテンソルネットワーク関数と呼ばれ、テンソルネットワーク状態の概念上の利点を継承し、近似された収縮を収束させる必要から生じる計算的制約を除去する。
テンソルネットワーク関数を用いて、ループグラフ上のエネルギーの厳密な変動推定を計算し、基底状態の表現力を解析し、体積法則の時間進化の側面を捉え、一般的なフィードフォワードニューラルネットワークの効率的なテンソルネットワーク関数へのマッピングを提供する。
論文 参考訳(メタデータ) (2024-05-06T19:04:13Z) - Graph Neural Networks for Enhanced Decoding of Quantum LDPC Codes [6.175503577352742]
量子低密度パリティチェック(LDPC)符号に対する微分可能な反復デコーダを提案する。
提案アルゴリズムは,古典的信念伝達(BP)復号段階と中間グラフニューラルネットワーク(GNN)層から構成される。
論文 参考訳(メタデータ) (2023-10-26T19:56:25Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Belief propagation for supply networks: Efficient clustering of their
factor graphs [0.0]
本稿では,供給ネットワークにおける状態推定と最適化の効率的なツールとして,信念伝達(BP)を考察する。
本稿では,因子グラフのループをクラスタリングする手法を提案する。
論文 参考訳(メタデータ) (2022-03-01T14:01:35Z) - Quantum message-passing algorithm for optimal and efficient decoding [2.3020018305241328]
我々はBPQMアルゴリズムの理解、形式、適用性を拡張する。
BPQMアルゴリズムの完全かつ曖昧さのない最初の公式記述を提供する。
BPQM がサイクルを持つ因子グラフ上で最も優れた古典デコーダを著しく上回ることを示す有望な数値結果を示す。
論文 参考訳(メタデータ) (2021-09-16T18:01:12Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Solving frustrated Ising models using tensor networks [0.0]
無限テンソルネットワーク % の観点でフラストレーションのあるイジングモデルを研究するための枠組みを開発する。
共有結合の重みを含むクラスタの選択を最適化することは、テンソルネットワークの収縮性にとって重要であることを示す。
本手法は, フラストレーションを施したイジングスピン系の残留エントロピーを, 次ネスト近傍の相互作用を持つ加ごめ格子上で計算することにより, 有効性を示す。
論文 参考訳(メタデータ) (2020-06-25T12:39:42Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Fiedler Regularization: Learning Neural Networks with Graph Sparsity [6.09170287691728]
ニューラルネットワークの基盤となるグラフィカル構造を包含し、尊重する、ディープラーニングのための新しい正規化アプローチを導入する。
我々は、ニューラルネットワークの基盤となるグラフのFiedler値を正規化のツールとして使うことを提案する。
論文 参考訳(メタデータ) (2020-03-02T16:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。