論文の概要: Neural heuristics for SAT solving
- arxiv url: http://arxiv.org/abs/2005.13406v1
- Date: Wed, 27 May 2020 15:05:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:06:38.528672
- Title: Neural heuristics for SAT solving
- Title(参考訳): SAT問題解決のためのニューラルヒューリスティックス
- Authors: Sebastian Jaszczur, Micha{\l} {\L}uszczyk, Henryk Michalewski
- Abstract要約: メッセージパッシングアーキテクチャと2つのSAT解決アルゴリズムのアテンションブランチを利用する。
従来の2つの人間設計モデルと比較して学習神経の改善を報告した。
- 参考スコア(独自算出の注目度): 6.324366362393302
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use neural graph networks with a message-passing architecture and an
attention mechanism to enhance the branching heuristic in two SAT-solving
algorithms. We report improvements of learned neural heuristics compared with
two standard human-designed heuristics.
- Abstract(参考訳): メッセージパッシングアーキテクチャと注意機構を備えたニューラルネットワークを用いて,2つのsat解決アルゴリズムの分岐ヒューリスティック性を向上させる。
学習神経ヒューリスティックは2つの標準的なヒューリスティックと比較して改善されている。
関連論文リスト
- Neural Markov Prolog [57.13568543360899]
本稿では,一階述語論理とニューラルネットワーク設計を橋渡しする手段として,言語Neural Markov Prolog (NMP)を提案する。
NMPは、画像、テキスト、リレーショナルデータベース、その他のターゲットデータ型のアーキテクチャを簡単に生成および提示することができる。
論文 参考訳(メタデータ) (2023-11-27T21:41:47Z) - Seeking Interpretability and Explainability in Binary Activated Neural
Networks [3.341112547288814]
本稿では、回帰タスクの文脈において、解釈可能かつ説明可能な予測子としてバイナリ活性化ニューラルネットワークを用いることについて検討する。
本稿では,特徴量,隠れニューロン,さらには重みの相対的重要性を定量化するために,SHAP値の効率的な計算法を提案する。
論文 参考訳(メタデータ) (2022-09-07T20:11:17Z) - On the Convergence of Distributed Stochastic Bilevel Optimization
Algorithms over a Network [55.56019538079826]
バイレベル最適化は、幅広い機械学習モデルに適用されている。
既存のアルゴリズムの多くは、分散データを扱うことができないように、シングルマシンの設定を制限している。
そこで我々は,勾配追跡通信機構と2つの異なる勾配に基づく分散二段階最適化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-30T05:29:52Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Stochastic Neural Networks with Infinite Width are Deterministic [7.07065078444922]
使用中のニューラルネットワークの主要なタイプであるニューラルネットワークについて研究する。
最適化されたニューラルネットワークの幅が無限大になる傾向があるため、トレーニングセットの予測分散はゼロになる。
論文 参考訳(メタデータ) (2022-01-30T04:52:31Z) - Connections between Numerical Algorithms for PDEs and Neural Networks [8.660429288575369]
偏微分方程式(PDE)とニューラルネットワークの数値アルゴリズム間の多数の構造的関係について検討する。
私たちのゴールは、豊富な数学的基礎をPDEの世界からニューラルネットワークに移すことです。
論文 参考訳(メタデータ) (2021-07-30T16:42:45Z) - Transformer-based Machine Learning for Fast SAT Solvers and Logic
Synthesis [63.53283025435107]
CNFベースのSATとMaxSATは論理合成と検証システムの中心である。
そこで本研究では,Transformerアーキテクチャから派生したワンショットモデルを用いて,MaxSAT問題の解法を提案する。
論文 参考訳(メタデータ) (2021-07-15T04:47:35Z) - Self-supervised Representation Learning for Evolutionary Neural
Architecture Search [9.038625856798227]
最近提案されたニューラルアーキテクチャサーチ(NAS)アルゴリズムは、アーキテクチャサーチを高速化するためにニューラル予測器を採用している。
少量のトレーニングデータを用いて予測精度の高いニューラル予測器を得る方法は、ニューラル予測器に基づくNASの中心的な問題である。
ニューラルネットワークを組み込んだアーキテクチャを事前学習するための2つの自己教師型学習手法を考案した。
NASBench-101とNASBench201のベンチマークで、事前学習したニューラル予測器と進化的NASアルゴリズムを統合する際に、最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-10-31T04:57:16Z) - Graph Structure of Neural Networks [104.33754950606298]
ニューラルネットワークのグラフ構造が予測性能にどのように影響するかを示す。
リレーショナルグラフの"スイートスポット"は、予測性能を大幅に改善したニューラルネットワークにつながる。
トップパフォーマンスニューラルネットワークは、実際の生物学的ニューラルネットワークと驚くほどよく似たグラフ構造を持つ。
論文 参考訳(メタデータ) (2020-07-13T17:59:31Z) - Run-time Mapping of Spiking Neural Networks to Neuromorphic Hardware [0.44446524844395807]
本研究では、オンライン学習SNNベースのアプリケーションのニューロンとシナプスを、実行時にニューロモルフィックアーキテクチャに分割し、マッピングする設計手法を提案する。
提案アルゴリズムは, 設計時間に基づくSNN分割手法と比較して, ソリューション品質が6.25%低いSNNマッピング時間を平均780倍に削減する。
論文 参考訳(メタデータ) (2020-06-11T19:56:55Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。