論文の概要: NSNet: A General Neural Probabilistic Framework for Satisfiability
Problems
- arxiv url: http://arxiv.org/abs/2211.03880v1
- Date: Mon, 7 Nov 2022 21:43:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 15:26:42.544343
- Title: NSNet: A General Neural Probabilistic Framework for Satisfiability
Problems
- Title(参考訳): nsnet: 充足可能性問題の汎用的確率的枠組み
- Authors: Zhaoyu Li and Xujie Si
- Abstract要約: 本稿では、確率的推論として満足度問題をモデル化する一般的なニューラルネットワークフレームワークであるニューラル・サスティフィビリティ・ネットワーク(NSNet)を提案する。
評価の結果、NSNetは複数のSATデータセットと#SATデータセットの推測精度と時間効率の点で競合することがわかった。
- 参考スコア(独自算出の注目度): 2.550900579709111
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the Neural Satisfiability Network (NSNet), a general neural
framework that models satisfiability problems as probabilistic inference and
meanwhile exhibits proper explainability. Inspired by the Belief Propagation
(BP), NSNet uses a novel graph neural network (GNN) to parameterize BP in the
latent space, where its hidden representations maintain the same probabilistic
interpretation as BP. NSNet can be flexibly configured to solve both SAT and
#SAT problems by applying different learning objectives. For SAT, instead of
directly predicting a satisfying assignment, NSNet performs marginal inference
among all satisfying solutions, which we empirically find is more feasible for
neural networks to learn. With the estimated marginals, a satisfying assignment
can be efficiently generated by rounding and executing a stochastic local
search. For #SAT, NSNet performs approximate model counting by learning the
Bethe approximation of the partition function. Our evaluations show that NSNet
achieves competitive results in terms of inference accuracy and time efficiency
on multiple SAT and #SAT datasets.
- Abstract(参考訳): 本稿では、確率論的推論として満足度問題をモデル化し、適切な説明可能性を示す一般的なニューラルネットワークフレームワークNSNetを提案する。
Belief Propagation (BP)にインスパイアされたNSNetは、新しいグラフニューラルネットワーク(GNN)を使用して潜伏空間におけるBPをパラメータ化し、その隠れ表現はBPと同じ確率論的解釈を維持する。
NSNetは、異なる学習目標を適用することでSATと#SATの問題を解決するように柔軟に設定できる。
SATでは、満足度の高い代入を直接予測する代わりに、NSNetは満足度の高いすべてのソリューションの限界推論を実行します。
推定限界により、確率的局所探索を丸めて実行することにより、満足度の高い割当を効率的に生成することができる。
nsnetは#satに対して分割関数の近似を学習して近似モデルカウントを行う。
評価の結果,NSNet は複数の SAT および #SAT データセット上での推測精度と時間効率の点で競合する結果が得られることがわかった。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - Bayesian Inference Accelerator for Spiking Neural Networks [3.145754107337963]
スパイキングニューラルネットワーク(SNN)は、計算面積と電力を減らす可能性がある。
本研究では,効率的なベイズSNNをハードウェア上で開発・実装するための最適化フレームワークについて述べる。
我々は、完全精度のベルヌーイパラメータを持つベイジアンバイナリネットワークに匹敵するアキュラ級数を示し、最大25時間分のスパイクを減らした。
論文 参考訳(メタデータ) (2024-01-27T16:27:19Z) - Harnessing Neuron Stability to Improve DNN Verification [42.65507402735545]
我々は最近提案されたDPLLベースの制約DNN検証手法の拡張であるVeriStableを提案する。
完全接続型フィードネットワーク(FNN)、畳み込み型ニューラルネットワーク(CNN)、残留型ネットワーク(ResNet)など、さまざまな課題のあるベンチマークにおいてVeriStableの有効性を評価する。
予備的な結果は、VeriStableは、VNN-COMPの第1および第2のパフォーマーである$alpha$-$beta$-CROWNやMN-BaBなど、最先端の検証ツールよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-01-19T23:48:04Z) - Masked Bayesian Neural Networks : Theoretical Guarantee and its
Posterior Inference [1.2722697496405464]
本稿では,理論特性が良好で,計算可能な新しいノードスパースBNNモデルを提案する。
我々は、真のモデルに対する後部濃度速度が、真のモデルの滑らかさに適応する最小限の最適値に近いことを証明した。
さらに,ノードスパースBNNモデルのベイズ推定を現実的に実現可能な新しいMCMCアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-05-24T06:16:11Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Neural network relief: a pruning algorithm based on neural activity [47.57448823030151]
重要でない接続を非活性化する簡易な重要スコア計量を提案する。
MNIST上でのLeNetアーキテクチャの性能に匹敵する性能を実現する。
このアルゴリズムは、現在のハードウェアとソフトウェアの実装を考えるとき、FLOPを最小化するように設計されていない。
論文 参考訳(メタデータ) (2021-09-22T15:33:49Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。