論文の概要: Belief propagation for general graphical models with loops
- arxiv url: http://arxiv.org/abs/2411.04957v1
- Date: Thu, 07 Nov 2024 18:32:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 17:07:45.490613
- Title: Belief propagation for general graphical models with loops
- Title(参考訳): ループ付き一般図形モデルの信念伝播
- Authors: Pedro Hack, Christian B. Mendl, Alexandru Paler,
- Abstract要約: 我々は、任意のグラフィカルモデル上で、Kirkleyらによって一般化されたBP提案を明示する統一的な視点を開発する。
BPスキームを導出し、ループ型テンソルネットワークおよびより一般的にはループ型グラフィカルモデル上でBPの推論式を提供する。
テンソルネットワークメッセージパッシング手法は,Kirkley の手法と基本的に同じ近似に依存することを示す。
- 参考スコア(独自算出の注目度): 45.29832252085144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Belief Propagation (BP) decoders for quantum error correcting codes are not always precise. There is a growing interest in the application of tensor networks to quantum error correction in general and, in particular, in degenerate quantum maximum likelihood decoding and the tensor network decoder. We develop a unified view to make the generalized BP proposal by Kirkley et. al explicit on arbitrary graphical models. We derive BP schemes and provide inference equations for BP on loopy tensor networks and, more generally, loopy graphical models. In doing so we introduce a tree-equivalent approach which allows us to relate the tensor network BlockBP to a generalized BP for loopy networks. Moreover, we show that the tensor network message passing approach relies essentially on the same approximation as the method by Kirkley. This allows us to make tensor network message passing available for degenerate quantum maximum likelihood decoding. Our method and results are key to obtaining guidelines regarding how the exchange between complexity and decoding accuracy works between BP and tensor network decoders. Finally, we discuss how the tree-equivalent method and the method by Kirkley can justify why message scheduling improves the performance of BP.
- Abstract(参考訳): 量子誤り訂正符号に対するBreief Propagation (BP)デコーダは必ずしも正確ではない。
テンソルネットワークの量子誤り訂正への応用、特に退化量子極大復号法やテンソルネットワーク復号器への関心が高まっている。
我々はKirkleyらによる一般化されたBP提案を統一的な視点で作成する。
任意のグラフィカルモデルに明示的です。
BPスキームを導出し、ループ型テンソルネットワークおよびより一般的にはループ型グラフィカルモデル上でBPの推論式を提供する。
これにより、テンソルネットワークBlockBPとループネットワークの一般化BPを関連付けることができる。
さらに, テンソルネットワークのメッセージパッシング手法は, Kirkley の手法と基本的に同じ近似に依存していることを示す。
これにより、テンソルネットワークのメッセージパッシングを可能とし、量子最大極大復号をデジェネレーションする。
BPとテンソルネットワークデコーダ間の複雑性と復号精度の交換に関するガイドラインを得る上で,本手法と結果が重要である。
最後に,Kirkleyによる木等価手法と手法を用いて,メッセージスケジューリングがBPの性能を向上する理由を論じる。
関連論文リスト
- Loop Series Expansions for Tensor Networks [0.2796197251957244]
本稿では,テンソルネットワークの収縮に対するBP近似の精度を向上させるために,ループ列展開を適用する方法について述べる。
我々は、AKLTモデルの基底状態を表すiPEPSの縮約に関するこの提案を、ランダムに定義されたテンソルでベンチマークする。
論文 参考訳(メタデータ) (2024-09-04T22:22:35Z) - An almost-linear time decoding algorithm for quantum LDPC codes under circuit-level noise [0.562479170374811]
我々は、量子低密度パリティチェック符号のほぼ線形時間デコーダとして、信念伝播と順序付きタナーフォレスト(BP+OTF)アルゴリズムを導入する。
BP+OTFデコーダは,最先端のインバージョンベースデコーダの桁数で論理誤差を抑えることができることを示す。
論文 参考訳(メタデータ) (2024-09-02T19:50:57Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Tensor Network Computations That Capture Strict Variationality, Volume Law Behavior, and the Efficient Representation of Neural Network States [0.6148049086034199]
本稿では,振幅の収縮の計算グラフによって定義されるテンソルネットワーク状態の視点変化を紹介する。
結果として得られる状態のクラスはテンソルネットワーク関数と呼ばれ、テンソルネットワーク状態の概念上の利点を継承し、近似された収縮を収束させる必要から生じる計算的制約を除去する。
テンソルネットワーク関数を用いて、ループグラフ上のエネルギーの厳密な変動推定を計算し、基底状態の表現力を解析し、体積法則の時間進化の側面を捉え、一般的なフィードフォワードニューラルネットワークの効率的なテンソルネットワーク関数へのマッピングを提供する。
論文 参考訳(メタデータ) (2024-05-06T19:04:13Z) - Graph Neural Networks for Enhanced Decoding of Quantum LDPC Codes [6.175503577352742]
量子低密度パリティチェック(LDPC)符号に対する微分可能な反復デコーダを提案する。
提案アルゴリズムは,古典的信念伝達(BP)復号段階と中間グラフニューラルネットワーク(GNN)層から構成される。
論文 参考訳(メタデータ) (2023-10-26T19:56:25Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - A Scalable Graph Neural Network Decoder for Short Block Codes [49.25571364253986]
エッジ重み付きグラフニューラルネットワーク(EW-GNN)に基づく短絡符号の復号化アルゴリズムを提案する。
EW-GNNデコーダは、繰り返しメッセージパッシング構造を持つタナーグラフで動作する。
EW-GNNデコーダは,復号誤り率の観点から,BP法および深層学習に基づくBP法より優れていることを示す。
論文 参考訳(メタデータ) (2022-11-13T17:13:12Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Graph Neural Networks for Channel Decoding [71.15576353630667]
低密度パリティチェック(LDPC)やBCH符号など、様々な符号化方式の競合復号性能を示す。
ニューラルネットワーク(NN)は、与えられたグラフ上で一般化されたメッセージパッシングアルゴリズムを学習する。
提案するデコーダを,従来のチャネル復号法および最近のディープラーニングに基づく結果と比較した。
論文 参考訳(メタデータ) (2022-07-29T15:29:18Z) - Belief propagation for supply networks: Efficient clustering of their
factor graphs [0.0]
本稿では,供給ネットワークにおける状態推定と最適化の効率的なツールとして,信念伝達(BP)を考察する。
本稿では,因子グラフのループをクラスタリングする手法を提案する。
論文 参考訳(メタデータ) (2022-03-01T14:01:35Z) - Quantum message-passing algorithm for optimal and efficient decoding [2.3020018305241328]
我々はBPQMアルゴリズムの理解、形式、適用性を拡張する。
BPQMアルゴリズムの完全かつ曖昧さのない最初の公式記述を提供する。
BPQM がサイクルを持つ因子グラフ上で最も優れた古典デコーダを著しく上回ることを示す有望な数値結果を示す。
論文 参考訳(メタデータ) (2021-09-16T18:01:12Z) - Tensor-Train Networks for Learning Predictive Modeling of
Multidimensional Data [0.0]
有望な戦略は、物理的および化学的用途で非常に成功したテンソルネットワークに基づいています。
本研究では, 多次元回帰モデルの重みをテンソルネットワークを用いて学習し, 強力なコンパクト表現を実現することを示した。
TT形式の重みを計算力の低減で近似するための最小二乗を交互に行うアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2021-01-22T16:14:38Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Solving frustrated Ising models using tensor networks [0.0]
無限テンソルネットワーク % の観点でフラストレーションのあるイジングモデルを研究するための枠組みを開発する。
共有結合の重みを含むクラスタの選択を最適化することは、テンソルネットワークの収縮性にとって重要であることを示す。
本手法は, フラストレーションを施したイジングスピン系の残留エントロピーを, 次ネスト近傍の相互作用を持つ加ごめ格子上で計算することにより, 有効性を示す。
論文 参考訳(メタデータ) (2020-06-25T12:39:42Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Fiedler Regularization: Learning Neural Networks with Graph Sparsity [6.09170287691728]
ニューラルネットワークの基盤となるグラフィカル構造を包含し、尊重する、ディープラーニングのための新しい正規化アプローチを導入する。
我々は、ニューラルネットワークの基盤となるグラフのFiedler値を正規化のツールとして使うことを提案する。
論文 参考訳(メタデータ) (2020-03-02T16:19:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。