論文の概要: Belief propagation for networks with loops
- arxiv url: http://arxiv.org/abs/2009.12246v2
- Date: Sat, 24 Apr 2021 04:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 17:03:18.273724
- Title: Belief propagation for networks with loops
- Title(参考訳): ループを持つネットワークに対する信念伝播
- Authors: Alec Kirkley and George T. Cantwell and M. E. J. Newman
- Abstract要約: ネットワーク上の確率的モデルの解法として広く使われているメッセージパッシング手法である。
短いループを含むネットワークの一般的なケースではうまく機能しないという深刻な欠点に悩まされている。
本稿では,短いループを持つ系の確率分布を高速に計算できる信念伝搬法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Belief propagation is a widely used message passing method for the solution
of probabilistic models on networks such as epidemic models, spin models, and
Bayesian graphical models, but it suffers from the serious shortcoming that it
works poorly in the common case of networks that contain short loops. Here we
provide a solution to this long-standing problem, deriving a belief propagation
method that allows for fast calculation of probability distributions in systems
with short loops, potentially with high density, as well as giving expressions
for the entropy and partition function, which are notoriously difficult
quantities to compute. Using the Ising model as an example, we show that our
approach gives excellent results on both real and synthetic networks, improving
significantly on standard message passing methods. We also discuss potential
applications of our method to a variety of other problems.
- Abstract(参考訳): 信念伝播は、流行モデル、スピンモデル、ベイズ図形モデルなどのネットワーク上の確率論的モデルの解法として広く用いられているが、短いループを含むネットワークの一般的な場合ではうまく機能しないという深刻な欠点に悩まされている。
本稿では,この長期的問題に対する解法を導出し,ループが短いシステムにおける確率分布の高速計算を可能にするとともに,エントロピーや分割関数の計算が困難であることを示す。
例えば、イジングモデルを用いて、本手法が実ネットワークと合成ネットワークの両方に優れた結果を与え、標準メッセージパッシング法で大幅に改善することを示す。
また,本手法の様々な問題への応用の可能性についても論じる。
関連論文リスト
- Estimating Causal Effects from Learned Causal Networks [56.14597641617531]
本稿では、離散可観測変数に対する因果影響クエリに応答する代替パラダイムを提案する。
観測データから直接因果ベイズネットワークとその共起潜伏変数を学習する。
本手法は, 推定手法よりも有効であることを示す。
論文 参考訳(メタデータ) (2024-08-26T08:39:09Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Predicting Cascading Failures with a Hyperparametric Diffusion Model [66.89499978864741]
拡散モデルのレンズによる電力グリッドのカスケード故障について検討する。
我々のモデルは、バイラル拡散原理と物理に基づく概念を統合する。
この拡散モデルはカスケード故障の痕跡から学習可能であることを示す。
論文 参考訳(メタデータ) (2024-06-12T02:34:24Z) - Implicit Variational Inference for High-Dimensional Posteriors [7.924706533725115]
変分推論において、ベイズモデルの利点は、真の後続分布を正確に捉えることに依存する。
複雑な多重モーダルおよび相関後部を近似するのに適した暗黙分布を特定するニューラルサンプリング手法を提案する。
提案手法では,ニューラルネットワークを局所的に線形化することにより,暗黙分布を用いた近似推論の新たなバウンダリを導入する。
論文 参考訳(メタデータ) (2023-10-10T14:06:56Z) - Sampling with flows, diffusion and autoregressive neural networks: A
spin-glass perspective [18.278073129757466]
障害系の統計物理学において広く研究されている確率分布のクラスに焦点をあてる。
我々は,フローベース,拡散ベース,自己回帰的ネットワーク手法によるサンプリングをベイズ最適分解法の解析に等価にマッピングできるという事実を活用する。
これらの手法が効率的にサンプリングできないパラメータの領域を同定し、標準モンテカルロ法やランゲヴィン法を用いてそれを可能にする。
論文 参考訳(メタデータ) (2023-08-27T12:16:33Z) - Variational Inference: Posterior Threshold Improves Network Clustering Accuracy in Sparse Regimes [2.5782420501870296]
本稿では,各反復後のコミュニティ割り当ての後部をハードしきい値にすることで,変分推論法を改善するための簡易な方法を提案する。
提案手法は,ネットワークの平均ノード次数が有界であっても,真のコミュニティラベルを収束させ,正確に復元可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T00:24:54Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Bayesian Attention Belief Networks [59.183311769616466]
注意に基づくニューラルネットワークは、幅広いタスクにおいて最先端の結果を得た。
本稿では,非正規化注意重みをモデル化してデコーダネットワークを構築するベイズ的注意信念ネットワークについて紹介する。
提案手法は, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃において, 決定論的注意と最先端の注意よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T17:46:22Z) - Network Estimation by Mixing: Adaptivity and More [2.3478438171452014]
我々は、利用可能な任意のモデルを利用して、個々のパフォーマンスを改善する混合戦略を提案する。
提案手法は計算効率が高く,チューニングがほとんどない。
提案手法は,真のモデルが個々の候補に含まれる場合のオラクル推定と同等に動作することを示す。
論文 参考訳(メタデータ) (2021-06-05T05:17:04Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Fast Network Community Detection with Profile-Pseudo Likelihood Methods [19.639557431997037]
ブロックモデル確率関数に適合するほとんどのアルゴリズムは、大規模ネットワークには拡張できない。
本稿では,行ラベルと列ラベルを疎結合する新たな可能性的アプローチを提案する。
本手法は,ブロックモデルにおいて,コミュニティの強い一貫した推定値を提供することを示す。
論文 参考訳(メタデータ) (2020-11-01T23:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。