論文の概要: Neural Combinatorial Logic Circuit Synthesis from Input-Output Examples
- arxiv url: http://arxiv.org/abs/2210.16606v1
- Date: Sat, 29 Oct 2022 14:06:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 16:24:48.387092
- Title: Neural Combinatorial Logic Circuit Synthesis from Input-Output Examples
- Title(参考訳): 入力出力例からのニューラルコンビナート論理回路合成
- Authors: Peter Belcak, Roger Wattenhofer
- Abstract要約: 本稿では,入力出力の例から論理回路を合成するための,新しい完全説明可能なニューラルアプローチを提案する。
我々の方法は、ほぼ任意の原子の選択に利用できる。
- 参考スコア(独自算出の注目度): 10.482805367361818
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose a novel, fully explainable neural approach to synthesis of
combinatorial logic circuits from input-output examples. The carrying advantage
of our method is that it readily extends to inductive scenarios, where the set
of examples is incomplete but still indicative of the desired behaviour. Our
method can be employed for a virtually arbitrary choice of atoms - from logic
gates to FPGA blocks - as long as they can be formulated in a differentiable
fashion, and consistently yields good results for synthesis of practical
circuits of increasing size. In particular, we succeed in learning a number of
arithmetic, bitwise, and signal-routing operations, and even generalise towards
the correct behaviour in inductive scenarios. Our method, attacking a discrete
logical synthesis problem with an explainable neural approach, hints at a wider
promise for synthesis and reasoning-related tasks.
- Abstract(参考訳): 入力出力例から組合せ論理回路を合成する新しい、完全に説明可能なニューラルアプローチを提案する。
この手法の利点は、例の集合が不完全であるが、依然として望ましい振る舞いを示すような帰納的シナリオに容易に拡張できることである。
この方法は、論理ゲートからfpgaブロックまで、実質的に任意の原子の選択を、微分可能な方法で定式化できる限り利用することができ、サイズが増大する実用的な回路の合成に一貫して良い結果が得られる。
特に,多くの算術演算,ビットワイズ演算,信号ルーティング演算の学習に成功し,帰納的シナリオにおける正しい行動への一般化まで行った。
本手法は,説明可能なニューラルアプローチで離散論理合成問題に対処し,より広範な合成および推論関連課題を示唆する。
関連論文リスト
- INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - Differentiable Inductive Logic Programming in High-Dimensional Space [6.21540494241516]
大規模述語によるインダクティブ合成へのデルタILPアプローチの拡張を提案する。
大規模述語発明は,勾配降下による誘導的合成の微分に有効であることを示す。
論文 参考訳(メタデータ) (2022-08-13T13:46:13Z) - Rethinking Reinforcement Learning based Logic Synthesis [13.18408482571087]
我々は,重要な演算子を自動的に認識し,未知の回路に一般化可能な共通演算子列を生成するRLベースの新しい手法を開発した。
本アルゴリズムは,EPFLベンチマーク,プライベートデータセット,産業規模での回路で検証する。
論文 参考訳(メタデータ) (2022-05-16T12:15:32Z) - Neuro-Symbolic Inductive Logic Programming with Logical Neural Networks [65.23508422635862]
我々は最近提案された論理ニューラルネットワーク(LNN)を用いた学習規則を提案する。
他のものと比較して、LNNは古典的なブール論理と強く結びついている。
標準ベンチマークタスクの実験では、LNNルールが極めて解釈可能であることを確認した。
論文 参考訳(メタデータ) (2021-12-06T19:38:30Z) - Statistically Meaningful Approximation: a Case Study on Approximating
Turing Machines with Transformers [50.85524803885483]
本研究は,統計的学習性を示すために近似ネットワークを必要とする統計有意(SM)近似の形式的定義を提案する。
回路とチューリングマシンの2つの機能クラスに対するSM近似について検討する。
論文 参考訳(メタデータ) (2021-07-28T04:28:55Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Creating Synthetic Datasets via Evolution for Neural Program Synthesis [77.34726150561087]
いくつかのプログラム合成手法は、ランダムに生成された例と異なるデータ分布によく一般化されていることを示す。
本稿では, 合成データ分布のバイアスを制御し, 現在の手法より優れていることを示すための, 新たな敵対的手法を提案する。
論文 参考訳(メタデータ) (2020-03-23T18:34:15Z) - Formal Synthesis of Lyapunov Neural Networks [61.79595926825511]
本稿では,リアプノフ関数の自動合成法を提案する。
我々は,数値学習者と記号検証器が相互作用して,確実に正しいリアプノフニューラルネットワークを構築する,反例誘導方式を採用する。
提案手法は,Lyapunov関数を他の手法よりも高速かつ広い空間領域で合成する。
論文 参考訳(メタデータ) (2020-03-19T17:21:02Z) - CounterExample Guided Neural Synthesis [12.742347465894586]
プログラム合成は困難であり、形式的な保証を提供する方法はスケーラビリティの問題に悩まされる。
ニューラルネットワークとフォーマルな推論を組み合わせることで、論理的な仕様をニューラルネットワークを正しい解へと導く一連の例に変換する。
この結果から,形式的推論に基づくガイダンスにより,ニューラルネットワークの性能が大幅に向上することが示唆された。
論文 参考訳(メタデータ) (2020-01-25T01:11:53Z) - Towards Neural-Guided Program Synthesis for Linear Temporal Logic
Specifications [26.547133495699093]
ニューラルネットワークを用いてQ関数を学習し、探索を誘導し、その後正当性を検証したプログラムを構築する。
提案手法は,検索と深層学習を組み合わせることで,合成を実現するのにユニークな手法である。
論文 参考訳(メタデータ) (2019-12-31T17:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。