論文の概要: Neural Circuit Synthesis from Specification Patterns
- arxiv url: http://arxiv.org/abs/2107.11864v1
- Date: Sun, 25 Jul 2021 18:17:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 15:50:06.729268
- Title: Neural Circuit Synthesis from Specification Patterns
- Title(参考訳): 仕様パターンからのニューラル回路合成
- Authors: Frederik Schmitt, Christopher Hahn, Markus N. Rabe and Bernd
Finkbeiner
- Abstract要約: ハードウェア回路を高レベル論理仕様から直接合成するタスクにおいて階層変換器を訓練する。
機械学習を使った新しいアプローチは、この分野で多くの可能性を開くかもしれないが、十分な量のトレーニングデータが不足している。
この合成データに基づいて訓練された階層変換器は,合成競合による問題の大部分を解消することを示す。
- 参考スコア(独自算出の注目度): 5.7923858184309385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We train hierarchical Transformers on the task of synthesizing hardware
circuits directly out of high-level logical specifications in linear-time
temporal logic (LTL). The LTL synthesis problem is a well-known algorithmic
challenge with a long history and an annual competition is organized to track
the improvement of algorithms and tooling over time. New approaches using
machine learning might open a lot of possibilities in this area, but suffer
from the lack of sufficient amounts of training data. In this paper, we
consider a method to generate large amounts of additional training data, i.e.,
pairs of specifications and circuits implementing them. We ensure that this
synthetic data is sufficiently close to human-written specifications by mining
common patterns from the specifications used in the synthesis competitions. We
show that hierarchical Transformers trained on this synthetic data solve a
significant portion of problems from the synthesis competitions, and even
out-of-distribution examples from a recent case study.
- Abstract(参考訳): 線形時間時間論理(LTL)の高レベル論理仕様から直接ハードウェア回路を合成するタスクにおいて階層変換器を訓練する。
LTL合成問題は、長い歴史を持つよく知られたアルゴリズム上の課題であり、アルゴリズムとツールの改善を追跡するために毎年のコンペが開催されている。
機械学習を使った新しいアプローチはこの領域で多くの可能性を開くかもしれないが、十分な量のトレーニングデータが不足している。
本稿では,追加のトレーニングデータ(仕様と回路のペア)を大量に生成する手法について検討する。
合成コンペティションで使用される仕様から共通パターンをマイニングすることで、この合成データが人手による仕様に十分近いことを保証します。
この合成データに基づいてトレーニングされた階層的トランスフォーマは、合成コンペティションから生じる問題の大部分を解決し、また、最近のケーススタディからの分散の例さえも解決している。
関連論文リスト
- Genetic Instruct: Scaling up Synthetic Generation of Coding Instructions for Large Language Models [54.51932175059004]
本稿では,大規模言語モデルのコード生成能力を高めるために,合成命令を生成するスケーラブルな手法を提案する。
提案したアルゴリズムは進化過程を模倣し、自己インストラクションを利用して限られた数の種子から多数の合成サンプルを生成する。
論文 参考訳(メタデータ) (2024-07-29T20:42:59Z) - Synthetic Oversampling: Theory and A Practical Approach Using LLMs to Address Data Imbalance [16.047084318753377]
不均衡なデータと急激な相関は、機械学習とデータサイエンスにおける一般的な課題である。
過度に表現されていないクラスのインスタンス数を人工的に増加させるオーバーサンプリングは、これらの課題に対処するために広く採用されている。
我々は,大規模言語モデルの能力を活用して,少数グループを対象とした高品質な合成データを生成する,体系的なオーバーサンプリング手法であるOPALを紹介する。
論文 参考訳(メタデータ) (2024-06-05T21:24:26Z) - Retrieval-Guided Reinforcement Learning for Boolean Circuit Minimization [23.075466444266528]
本研究は論理合成のための学習と探索技術について徹底的に検討する。
ABC-RLは、検索プロセス中に事前学習したエージェントからのレコメンデーションを順応的に調整する、巧妙に調整された$alpha$パラメータである。
その結果, 合成回路のQoR(Quality-of-result)は, 最先端技術と比較して最大24.8%向上した。
論文 参考訳(メタデータ) (2024-01-22T18:46:30Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - Iterative Circuit Repair Against Formal Specifications [3.7277730514654555]
線形時間時間論理(LTL)における形式仕様に対する逐次回路の修復のための深層学習手法を提案する。
本稿では,形式仕様と回路のマルチモーダル表現学習のための階層変換器を提案する。
提案する修復機構は,トランスフォーマーの仕様から回路の自動合成を大幅に改善する。
論文 参考訳(メタデータ) (2023-03-02T11:05:10Z) - Compositional Generalization and Decomposition in Neural Program
Synthesis [59.356261137313275]
本稿では,学習プログラムシンセサイザーの合成一般化能力の測定に焦点をあてる。
まず、プログラム合成法が一般化されるであろういくつかの異なる軸を特徴付ける。
2つの一般的な既存のデータセットに基づいて、これらの能力を評価するためのタスクのベンチマークスイートを導入する。
論文 参考訳(メタデータ) (2022-04-07T22:16:05Z) - Creating Synthetic Datasets via Evolution for Neural Program Synthesis [77.34726150561087]
いくつかのプログラム合成手法は、ランダムに生成された例と異なるデータ分布によく一般化されていることを示す。
本稿では, 合成データ分布のバイアスを制御し, 現在の手法より優れていることを示すための, 新たな敵対的手法を提案する。
論文 参考訳(メタデータ) (2020-03-23T18:34:15Z) - Towards Neural-Guided Program Synthesis for Linear Temporal Logic
Specifications [26.547133495699093]
ニューラルネットワークを用いてQ関数を学習し、探索を誘導し、その後正当性を検証したプログラムを構築する。
提案手法は,検索と深層学習を組み合わせることで,合成を実現するのにユニークな手法である。
論文 参考訳(メタデータ) (2019-12-31T17:09:49Z) - Synthetic Datasets for Neural Program Synthesis [66.20924952964117]
本稿では,プログラムと仕様の両方で合成データ分布のバイアスを制御し,評価するための新しい手法を提案する。
そこで我々は,Karel DSLと小さなCalculator DSLを用いて,これらの分布上でのディープネットワークのトレーニングにより,分散一般化性能が向上することが実証された。
論文 参考訳(メタデータ) (2019-12-27T21:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。