論文の概要: $\alpha$ Belief Propagation for Approximate Inference
- arxiv url: http://arxiv.org/abs/2006.15363v1
- Date: Sat, 27 Jun 2020 13:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 07:34:04.668746
- Title: $\alpha$ Belief Propagation for Approximate Inference
- Title(参考訳): 近似推論のための$\alpha$信条伝播
- Authors: Dong Liu, Minh Th\`anh Vu, Zuxing Li, and Lars K. Rasmussen
- Abstract要約: BP(Belief propagation)アルゴリズムは、グラフィカルモデルにおける推論のためのメッセージパッシング手法として広く用いられている。
局所化$alpha$-divergenceの最小化によって動機付けられた解釈可能な信念伝播アルゴリズムを導出する。
その結果、$alpha$-BPは標準BPを一般化することがわかった。
- 参考スコア(独自算出の注目度): 16.258304175469917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Belief propagation (BP) algorithm is a widely used message-passing method for
inference in graphical models. BP on loop-free graphs converges in linear time.
But for graphs with loops, BP's performance is uncertain, and the understanding
of its solution is limited. To gain a better understanding of BP in general
graphs, we derive an interpretable belief propagation algorithm that is
motivated by minimization of a localized $\alpha$-divergence. We term this
algorithm as $\alpha$ belief propagation ($\alpha$-BP). It turns out that
$\alpha$-BP generalizes standard BP. In addition, this work studies the
convergence properties of $\alpha$-BP. We prove and offer the convergence
conditions for $\alpha$-BP. Experimental simulations on random graphs validate
our theoretical results. The application of $\alpha$-BP to practical problems
is also demonstrated.
- Abstract(参考訳): belief propagation (bp) アルゴリズムは、グラフィカルモデルにおける推論に広く使われているメッセージパッシング手法である。
ループフリーグラフ上のBPは線形時間で収束する。
しかしループのあるグラフの場合、bpのパフォーマンスは不確かであり、その解の理解は限られている。
一般グラフにおけるBPの理解を深めるために、局所化$\alpha$-divergenceの最小化によって動機付けられる解釈可能な信念伝播アルゴリズムを導出する。
このアルゴリズムを$\alpha$ belief propagation($\alpha$-bp)と呼ぶ。
その結果、$\alpha$-BPは標準BPを一般化する。
さらに、この研究は$\alpha$-bp の収束特性を研究する。
我々は$\alpha$-BP の収束条件を証明し提示する。
ランダムグラフ上の実験シミュレーションは、我々の理論結果を検証する。
実用的な問題への$\alpha$-BPの適用も示されている。
関連論文リスト
- Circular Belief Propagation for Approximate Probabilistic Inference [0.07282584715927627]
Belief Propagation (BP) は、確率分布を表すグラフのノード間でメッセージを渡す単純な確率的推論アルゴリズムである。
本稿では,BPの拡張であるCircular Belief Propagation (CBP)を提案する。
CBP が BP をはるかに上回り,従来提案したアルゴリズムと比較して優れた性能を示すバイナリ確率グラフを含む数値実験を行った。
論文 参考訳(メタデータ) (2024-03-17T15:59:39Z) - Learning Broadcast Protocols [1.9336815376402723]
任意の数のプロセスで分散システムを学習する問題に初めて注目する。
細かな放送プロトコルを考えると、これらは有限カットオフと隠蔽状態のない放送プロトコルである。
試料が十分に完全であれば、微細なBPと一致する試料から正しいBPを推測し、最小の等価BPを推定できる学習アルゴリズムを提供する。
論文 参考訳(メタデータ) (2023-06-25T16:26:48Z) - Detection of Dense Subhypergraphs by Low-Degree Polynomials [72.4451045270967]
ランダムグラフにおける植込み高密度部分グラフの検出は、基本的な統計的および計算上の問題である。
我々は、$Gr(n, n-beta)ハイパーグラフにおいて、植えた$Gr(ngamma, n-alpha)$ subhypergraphの存在を検出することを検討する。
平均値の減少に基づく硬さが不明な微妙な対数密度構造を考えると,この結果はグラフの場合$r=2$で既に新しくなっている。
論文 参考訳(メタデータ) (2023-04-17T10:38:08Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - Hardness of Maximum Likelihood Learning of DPPs [25.06251462216571]
与えられたデータセットに対して最大極大 DPP モデルを求める問題は NP-完全である、というクレスザの予想を証明する。
技術面では、データセット上のDPPの最大ログ類似度を減らし、ハイパーグラフ上の「ベクトル」問題のギャップを解消する。
論文 参考訳(メタデータ) (2022-05-24T21:46:23Z) - Towards Painless Policy Optimization for Constrained MDPs [46.12526917024248]
我々は、無限の地平線における政策最適化、$gamma$-discounted constrained Markov decision process (CMDP)について研究する。
我々の目標は、小さな制約違反で大きな期待された報酬を達成する政策を返却することである。
本稿では,任意のアルゴリズムに対して,報酬の準最適性と制約違反を拘束できる汎用的原始双対フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-11T15:08:09Z) - A Law of Robustness beyond Isoperimetry [84.33752026418045]
我々は、任意の分布上でニューラルネットワークパラメータを補間する頑健性の低い$Omega(sqrtn/p)$を証明した。
次に、$n=mathrmpoly(d)$のとき、スムーズなデータに対する過度なパラメータ化の利点を示す。
我々は、$n=exp(omega(d))$ のとき、$O(1)$-Lipschitz の頑健な補間関数の存在を否定する。
論文 参考訳(メタデータ) (2022-02-23T16:10:23Z) - Belief Propagation Neural Networks [103.97004780313105]
信念伝播ニューラルネットワーク(BPNN)を紹介する。
BPNNは因子グラフ上で動作し、信念伝播(BP)を一般化する
BPNNはIsingモデル上で1.7倍高速に収束し、より厳密な境界を提供することを示す。
挑戦的なモデルカウント問題に関して、BPNNは最先端の手作り手法の100倍の速さを推定する。
論文 参考訳(メタデータ) (2020-07-01T07:39:51Z) - Locally Private Hypothesis Selection [96.06118559817057]
我々は、$mathcalQ$から$p$までの総変動距離が最良の分布に匹敵する分布を出力する。
局所的な差分プライバシーの制約は、コストの急激な増加を引き起こすことを示す。
提案アルゴリズムは,従来手法のラウンド複雑性を指数関数的に改善する。
論文 参考訳(メタデータ) (2020-02-21T18:30:48Z) - Fixed-Support Wasserstein Barycenters: Computational Hardness and Fast
Algorithm [100.11971836788437]
固定支持ワッサーシュタインバリセンタ問題(FS-WBP)について検討する。
我々は,有望な反復的ブレグマン射影 (IBP) アルゴリズムであるtextscFastIBP の,証明可能な高速なテキスト決定論的変種を開発する。
論文 参考訳(メタデータ) (2020-02-12T03:40:52Z) - Overfitting Can Be Harmless for Basis Pursuit, But Only to a Degree [20.408693108187542]
圧縮センシング文献におけるBasis Pursuit (BP) として知られる$ell$-normを最小化するオーバーフィッティング法について検討した。
広い範囲の$p$に対して、サンプル数$n$で指数関数的に増加する極限に対して、BPのモデル誤差は$p$で減少する値によって上界であることが示される。
論文 参考訳(メタデータ) (2020-02-02T20:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。