論文の概要: Belief propagation for networks with loops: The neighborhoods-intersections-based method
- arxiv url: http://arxiv.org/abs/2506.13791v1
- Date: Wed, 11 Jun 2025 13:01:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.140388
- Title: Belief propagation for networks with loops: The neighborhoods-intersections-based method
- Title(参考訳): ループを持つネットワークに対する信念伝搬:近傍断面積に基づく方法
- Authors: Pedro Hack,
- Abstract要約: NIB-methodは,ネットワーク内の相関を考慮し,計算資源のみを消費する手法である。
短いループしか持たないネットワークの場合, NIB-method は正確かつ最適であり, KCN-method に関して時間複雑性の低減を特徴付けることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In order to diminish the damaging effect of loops on belief propagation (BP), the first explicit version of generalized BP for networks, the KCN-method, was recently introduced. Despite its success, the KCN-method spends computational resources inefficiently. Such inefficiencies can quickly turn the exact application of the method unfeasible, since its time complexity increases exponentially with them. This affects for instance tree networks, for which, despite not offering any accuracy advantage with respect to BP, the time complexity of the KCN-method grows exponentially with the nodes' degree. To avoid these issues, we introduce here a new generalized BP scheme, the NIB-method, which only spends computational resources provided they are needed in order to account for correlations in the network. In fact, we show that, given a network with only short loops, the NIB-method is exact and optimal, and we characterize its time complexity reduction with respect to the KCN-method. If long loops are also present, both methods become approximate. In this scenario, we discuss the relation between the methods and we show how to interpolate between them, obtaining a richer family of generalized BP algorithms that trade accuracy for complexity. Lastly, we find a good agreement between the (approximate) KCN and NIB methods when computing the partition function for two artificial networks.
- Abstract(参考訳): ネットワーク用一般化BPの最初の明示的なバージョンであるKCN-methodが最近導入された。
その成功にもかかわらず、KCN-methodは計算資源を非効率に消費する。
このような非効率性は、時間複雑性が指数関数的に増加するので、メソッドの正確な適用をすぐに不可能にすることができる。
例えば、BPに対して精度上の優位性を提供していないにもかかわらず、KCNメソッドの時間複雑性はノードの次数とともに指数関数的に増加する。
これらの問題を回避するため,ネットワーク内の相関を考慮に入れた計算資源のみを消費する汎用BP方式であるNIB-methodを導入する。
実際、短いループしか持たないネットワークの場合、NIB-methodは正確かつ最適であり、KCN-methodに関して、その時間複雑性の低減を特徴付ける。
長いループも存在すれば、どちらの方法も近似となる。
このシナリオでは,手法間の関係を議論し,それらの間を補間する方法を示し,複雑性と精度を交換する一般化BPアルゴリズムのより豊かなファミリを得る。
最後に,2つの人工ネットワークにおける分割関数の計算において,(近似)KCN法とNIB法との間によい一致があることを見出した。
関連論文リスト
- Gradient-Free Training of Recurrent Neural Networks using Random Perturbations [1.1742364055094265]
リカレントニューラルネットワーク(RNN)は、チューリング完全性とシーケンシャルな処理能力のために、計算の潜在能力を秘めている。
時間によるバックプロパゲーション(BPTT)は、時間とともにRNNをアンロールすることでバックプロパゲーションアルゴリズムを拡張する。
BPTTは、前方と後方のフェーズをインターリーブし、正確な勾配情報を格納する必要があるなど、大きな欠点に悩まされている。
BPTTと競合するRNNにおける摂動学習に対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-05-14T21:15:29Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Predictive Coding Can Do Exact Backpropagation on Convolutional and
Recurrent Neural Networks [40.51949948934705]
予測符号化ネットワーク(PCN)は、脳内の情報処理に影響を及ぼすモデルである。
BPは現代の機械学習において最も成功した学習方法と考えられている。
生物学的に妥当なアルゴリズムは複雑なアーキテクチャ上でBPの精度を正確に再現できることを示す。
論文 参考訳(メタデータ) (2021-03-05T14:57:01Z) - Fast and Complete: Enabling Complete Neural Network Verification with
Rapid and Massively Parallel Incomplete Verifiers [112.23981192818721]
BaB プロセス中に線形計画法 (LP) を置き換えるために, 逆モード線形緩和に基づく解析法 (LiRPA) を提案する。
LPとは異なり、LiRPAを適用すると、より弱い境界が得られ、分割時にサブドメインのコンフリクトをチェックすることもできない。
既存のLPベースのアプローチと比較して、桁違いのスピードアップを示す。
論文 参考訳(メタデータ) (2020-11-27T16:42:12Z) - Belief Propagation Neural Networks [103.97004780313105]
信念伝播ニューラルネットワーク(BPNN)を紹介する。
BPNNは因子グラフ上で動作し、信念伝播(BP)を一般化する
BPNNはIsingモデル上で1.7倍高速に収束し、より厳密な境界を提供することを示す。
挑戦的なモデルカウント問題に関して、BPNNは最先端の手作り手法の100倍の速さを推定する。
論文 参考訳(メタデータ) (2020-07-01T07:39:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。