論文の概要: Neural Network Approximators for Marginal MAP in Probabilistic Circuits
- arxiv url: http://arxiv.org/abs/2402.03621v1
- Date: Tue, 6 Feb 2024 01:15:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 17:08:14.165452
- Title: Neural Network Approximators for Marginal MAP in Probabilistic Circuits
- Title(参考訳): 確率回路におけるMarginal MAPのためのニューラルネットワーク近似器
- Authors: Shivvrat Arya, Tahrima Rahman, Vibhav Gogate
- Abstract要約: ニューラルネットワークを用いてPC内の(M)MAP推論を近似する手法を提案する。
新しい手法の2つの大きな利点は、自己教師型であり、ニューラルネットワークが学習された後、解を出力するのに線形時間しか必要としない点である。
いくつかのベンチマークデータセットに対する我々の新しいアプローチを評価し、競合する線形時間近似よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 11.917134619219079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Probabilistic circuits (PCs) such as sum-product networks efficiently
represent large multi-variate probability distributions. They are preferred in
practice over other probabilistic representations such as Bayesian and Markov
networks because PCs can solve marginal inference (MAR) tasks in time that
scales linearly in the size of the network. Unfortunately, the
maximum-a-posteriori (MAP) and marginal MAP (MMAP) tasks remain NP-hard in
these models. Inspired by the recent work on using neural networks for
generating near-optimal solutions to optimization problems such as integer
linear programming, we propose an approach that uses neural networks to
approximate (M)MAP inference in PCs. The key idea in our approach is to
approximate the cost of an assignment to the query variables using a continuous
multilinear function, and then use the latter as a loss function. The two main
benefits of our new method are that it is self-supervised and after the neural
network is learned, it requires only linear time to output a solution. We
evaluate our new approach on several benchmark datasets and show that it
outperforms three competing linear time approximations, max-product inference,
max-marginal inference and sequential estimation, which are used in practice to
solve MMAP tasks in PCs.
- Abstract(参考訳): 総生産ネットワークのような確率回路(PC)は、大規模な多変量確率分布を効率的に表現する。
ベイジアンネットワークやマルコフネットワークのような他の確率的表現よりも実際は、PCがネットワークのサイズを線形にスケールする時間に限界推論(MAR)タスクを解くことができるため、それらは好まれる。
残念なことに、これらのモデルでは最大ポステリオリ(MAP)と限界MAP(MMAP)タスクはNPハードのままである。
整数線形計画法などの最適化問題に対して,ニューラルネットワークを最適に近い解を生成するための最近の研究から着想を得て,ニューラルネットワークを用いてPC内の(M)MAP推論を近似する手法を提案する。
提案手法の主な考え方は,連続的多線形関数を用いてクエリ変数への代入のコストを近似し,後者を損失関数として用いることである。
新しい手法の2つの主な利点は、自己教師型であり、ニューラルネットワークが学習されると、解を出力するのに線形時間しか必要なくなることである。
我々は,いくつかのベンチマークデータセットにおける新しいアプローチを評価し,pcのmmapタスクを実際に解くために使用される3つの競合する線形時間近似,最大積推論,最大数推論,逐次推定よりも優れていることを示す。
関連論文リスト
- Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Nearly Minimax Optimal Reinforcement Learning for Linear Markov Decision
Processes [80.89852729380425]
そこで本研究では,最小限の最小残差である$tilde O(dsqrtH3K)$を計算効率よく実現したアルゴリズムを提案する。
我々の研究は線形 MDP を用いた最適 RL に対する完全な答えを提供する。
論文 参考訳(メタデータ) (2022-12-12T18:58:59Z) - Nearly Minimax Optimal Offline Reinforcement Learning with Linear
Function Approximation: Single-Agent MDP and Markov Game [34.69723238900705]
オフライン強化学習(RL)は、環境とのさらなる相互作用を伴わずに、事前コンパイルされたデータセットを使用して最適な戦略を学ぶことを目的としている。
オフライン単一エージェントMDPと2プレーヤゼロサムマルコフゲーム(MG)のための2つの新しいアルゴリズムを提案する。
我々の知る限り、これらは線形関数近似を用いたオフライン単エージェントMDPとMGのための計算効率が良く、最小に近い最適化アルゴリズムである。
論文 参考訳(メタデータ) (2022-05-31T02:50:17Z) - ConCrete MAP: Learning a Probabilistic Relaxation of Discrete Variables
for Soft Estimation with Low Complexity [9.62543698736491]
ConCrete MAP Detection (CMD)は、大きな逆線形問題に対する反復検出アルゴリズムである。
我々は、SotAと比較して、CMDが有望なパフォーマンス複雑性のトレードオフを特徴付けることを示す。
特に,CMDのソフト出力がデコーダに信頼性を持つことを示す。
論文 参考訳(メタデータ) (2021-02-25T09:54:25Z) - Efficient semidefinite-programming-based inference for binary and
multi-class MRFs [83.09715052229782]
分割関数やMAP推定をペアワイズMRFで効率的に計算する手法を提案する。
一般のバイナリMRFから完全多クラス設定への半定緩和を拡張し、解法を用いて再び効率的に解けるようなコンパクトな半定緩和を開発する。
論文 参考訳(メタデータ) (2020-12-04T15:36:29Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z) - Einsum Networks: Fast and Scalable Learning of Tractable Probabilistic
Circuits [99.59941892183454]
我々は,PC用の新しい実装設計であるEinsum Networks (EiNets)を提案する。
中心となるのは、E EiNets は単一のモノリシックな einsum-operation に多数の算術演算を組み合わせている。
本稿では,PCにおける予測最大化(EM)の実装を,自動微分を利用した簡易化が可能であることを示す。
論文 参考訳(メタデータ) (2020-04-13T23:09:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。