論文の概要: Belief propagation for general graphical models with loops
- arxiv url: http://arxiv.org/abs/2411.04957v1
- Date: Thu, 07 Nov 2024 18:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:38:14.253688
- Title: Belief propagation for general graphical models with loops
- Title(参考訳): ループ付き一般図形モデルの信念伝播
- Authors: Pedro Hack, Christian B. Mendl, Alexandru Paler,
- Abstract要約: 我々は、任意のグラフィカルモデル上で、Kirkleyらによって一般化されたBP提案を明示する統一的な視点を開発する。
BPスキームを導出し、ループ型テンソルネットワークおよびより一般的にはループ型グラフィカルモデル上でBPの推論式を提供する。
テンソルネットワークメッセージパッシング手法は,Kirkley の手法と基本的に同じ近似に依存することを示す。
- 参考スコア(独自算出の注目度): 45.29832252085144
- License:
- Abstract: Belief Propagation (BP) decoders for quantum error correcting codes are not always precise. There is a growing interest in the application of tensor networks to quantum error correction in general and, in particular, in degenerate quantum maximum likelihood decoding and the tensor network decoder. We develop a unified view to make the generalized BP proposal by Kirkley et. al explicit on arbitrary graphical models. We derive BP schemes and provide inference equations for BP on loopy tensor networks and, more generally, loopy graphical models. In doing so we introduce a tree-equivalent approach which allows us to relate the tensor network BlockBP to a generalized BP for loopy networks. Moreover, we show that the tensor network message passing approach relies essentially on the same approximation as the method by Kirkley. This allows us to make tensor network message passing available for degenerate quantum maximum likelihood decoding. Our method and results are key to obtaining guidelines regarding how the exchange between complexity and decoding accuracy works between BP and tensor network decoders. Finally, we discuss how the tree-equivalent method and the method by Kirkley can justify why message scheduling improves the performance of BP.
- Abstract(参考訳): 量子誤り訂正符号に対するBreief Propagation (BP)デコーダは必ずしも正確ではない。
テンソルネットワークの量子誤り訂正への応用、特に退化量子極大復号法やテンソルネットワーク復号器への関心が高まっている。
我々はKirkleyらによる一般化されたBP提案を統一的な視点で作成する。
任意のグラフィカルモデルに明示的です。
BPスキームを導出し、ループ型テンソルネットワークおよびより一般的にはループ型グラフィカルモデル上でBPの推論式を提供する。
これにより、テンソルネットワークBlockBPとループネットワークの一般化BPを関連付けることができる。
さらに, テンソルネットワークのメッセージパッシング手法は, Kirkley の手法と基本的に同じ近似に依存していることを示す。
これにより、テンソルネットワークのメッセージパッシングを可能とし、量子最大極大復号をデジェネレーションする。
BPとテンソルネットワークデコーダ間の複雑性と復号精度の交換に関するガイドラインを得る上で,本手法と結果が重要である。
最後に,Kirkleyによる木等価手法と手法を用いて,メッセージスケジューリングがBPの性能を向上する理由を論じる。
関連論文リスト
- Loop Series Expansions for Tensor Networks [0.2796197251957244]
本稿では,テンソルネットワークの収縮に対するBP近似の精度を向上させるために,ループ列展開を適用する方法について述べる。
我々は、AKLTモデルの基底状態を表すiPEPSの縮約に関するこの提案を、ランダムに定義されたテンソルでベンチマークする。
論文 参考訳(メタデータ) (2024-09-04T22:22:35Z) - An almost-linear time decoding algorithm for quantum LDPC codes under circuit-level noise [0.562479170374811]
我々は、量子低密度パリティチェック符号のほぼ線形時間デコーダとして、信念伝播と順序付きタナーフォレスト(BP+OTF)アルゴリズムを導入する。
BP+OTFデコーダは,最先端のインバージョンベースデコーダの桁数で論理誤差を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-09-02T19:50:57Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Graph Neural Networks for Enhanced Decoding of Quantum LDPC Codes [6.175503577352742]
量子低密度パリティチェック(LDPC)符号に対する微分可能な反復デコーダを提案する。
提案アルゴリズムは,古典的信念伝達(BP)復号段階と中間グラフニューラルネットワーク(GNN)層から構成される。
論文 参考訳(メタデータ) (2023-10-26T19:56:25Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Belief propagation for supply networks: Efficient clustering of their
factor graphs [0.0]
本稿では,供給ネットワークにおける状態推定と最適化の効率的なツールとして,信念伝達(BP)を考察する。
本稿では,因子グラフのループをクラスタリングする手法を提案する。
論文 参考訳(メタデータ) (2022-03-01T14:01:35Z) - Quantum message-passing algorithm for optimal and efficient decoding [2.3020018305241328]
我々はBPQMアルゴリズムの理解、形式、適用性を拡張する。
BPQMアルゴリズムの完全かつ曖昧さのない最初の公式記述を提供する。
BPQM がサイクルを持つ因子グラフ上で最も優れた古典デコーダを著しく上回ることを示す有望な数値結果を示す。
論文 参考訳(メタデータ) (2021-09-16T18:01:12Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。