論文の概要: Iterative Circuit Repair Against Formal Specifications
- arxiv url: http://arxiv.org/abs/2303.01158v1
- Date: Thu, 2 Mar 2023 11:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:57:40.874719
- Title: Iterative Circuit Repair Against Formal Specifications
- Title(参考訳): 形式仕様に対する反復回路修復
- Authors: Matthias Cosler, Frederik Schmitt, Christopher Hahn, Bernd Finkbeiner
- Abstract要約: 線形時間時間論理(LTL)における形式仕様に対する逐次回路の修復のための深層学習手法を提案する。
本稿では,形式仕様と回路のマルチモーダル表現学習のための階層変換器を提案する。
提案する修復機構は,トランスフォーマーの仕様から回路の自動合成を大幅に改善する。
- 参考スコア(独自算出の注目度): 3.7277730514654555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a deep learning approach for repairing sequential circuits against
formal specifications given in linear-time temporal logic (LTL). Given a
defective circuit and its formal specification, we train Transformer models to
output circuits that satisfy the corresponding specification. We propose a
separated hierarchical Transformer for multimodal representation learning of
the formal specification and the circuit. We introduce a data generation
algorithm that enables generalization to more complex specifications and
out-of-distribution datasets. In addition, our proposed repair mechanism
significantly improves the automated synthesis of circuits from LTL
specifications with Transformers. It improves the state-of-the-art by $6.8$
percentage points on held-out instances and $11.8$ percentage points on an
out-of-distribution dataset from the annual reactive synthesis competition.
- Abstract(参考訳): 本稿では,線形時間時間論理(LTL)で与えられる形式仕様に対して,逐次回路を修復する深層学習手法を提案する。
欠陥回路とその形式的仕様を考えると、対応する仕様を満たす回路を出力するためにトランスフォーマーモデルを訓練する。
本稿では,形式仕様と回路のマルチモーダル表現学習のための階層変換器を提案する。
本稿では,より複雑な仕様や分散データセットへの一般化を可能にするデータ生成アルゴリズムを提案する。
さらに,提案する修復機構はトランスフォーマーを用いたTLL仕様からの回路の自動合成を大幅に改善する。
毎年恒例のリアクティブ合成コンペティションのアウト・オブ・ディストリビューションデータセットにおいて、ホールドアウトインスタンスの6.8ドルのポイントと11.8ドルのパーセンテージで最先端の改善を行う。
関連論文リスト
- CktGen: Specification-Conditioned Analog Circuit Generation [28.780603785886242]
本稿では,特定の仕様に基づいてアナログ回路を直接生成するタスクを提案する。
具体的には、単純だが効果的な変分オートエンコーダ(VAE)モデルであるCktGenを提案する。
オープンサーキットベンチマーク(OCB)の総合的な実験を行い、モデル間の整合性を評価するための新しい評価指標を導入する。
論文 参考訳(メタデータ) (2024-10-01T18:35:44Z) - LaMAGIC: Language-Model-based Topology Generation for Analog Integrated Circuits [17.002169206594793]
先駆的な言語モデルに基づくトポロジ生成モデルであるLaMAGICを紹介する。
LaMAGICは、カスタム仕様から最適化された回路設計を単一のパスで効率的に生成できる。
LaMAGICは0.01の厳格な許容条件で最大96%の成功率を達成した。
論文 参考訳(メタデータ) (2024-07-19T22:51:41Z) - Logic Synthesis with Generative Deep Neural Networks [20.8279111910994]
我々は、Circuit Transformerモデルに基づく論理合成書き換え演算子「ctrw」(Circuit Transformer Rewriting)を導入する。
本稿では,論理学に適した回路変換器の2段階学習方式を提案する。
我々はまた、Circuit Transformerと最先端の書き直し技術を統合してスケーラビリティの問題に対処し、DAG対応の書き直しをガイドできるようにする。
論文 参考訳(メタデータ) (2024-06-07T07:16:40Z) - Circuit Transformer: End-to-end Circuit Design by Predicting the Next Gate [20.8279111910994]
言語はシーケンシャルなシンボルを通して表現する卓越した人間の能力であり、近年の大規模言語モデル(LLM)の進歩によって計算的に習得されている。
LLMは理解と推論において前例のない能力を示した。
回路も十分に大きな「回路モデル」でマスターでき、次の論理ゲートを単に予測することで電子設計タスクを克服できるだろうか?
論文 参考訳(メタデータ) (2024-03-14T03:24:14Z) - How Do Transformers Learn In-Context Beyond Simple Functions? A Case
Study on Learning with Representations [98.7450564309923]
本稿では、より複雑なシナリオにおける文脈内学習(ICL)の理解を、表現を用いた学習で研究する。
合成文内学習問題を合成構造を用いて構築し、ラベルは複雑なが固定された表現関数によって入力に依存する。
理論的には、そのようなアルゴリズムを軽度な深さと大きさでほぼ実装するトランスフォーマーの存在を示す。
論文 参考訳(メタデータ) (2023-10-16T17:40:49Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Adaptive Planning Search Algorithm for Analog Circuit Verification [53.97809573610992]
シミュレーションの少ない機械学習(ML)アプローチを提案する。
提案手法により,OCCを全回路の仕様に近づけることができることを示す。
論文 参考訳(メタデータ) (2023-06-23T12:57:46Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Learning a Fourier Transform for Linear Relative Positional Encodings in Transformers [71.32827362323205]
我々はLearner-Transformer (Learners)と呼ばれる線形変換器の新しいクラスを提案する。
様々な相対的位置エンコーディング機構(RPE)を組み込んでいる。
これらには、シーケンシャルデータに適用される正規の RPE 技術や、高次元ユークリッド空間に埋め込まれた幾何学的データを操作する新しい RPE などが含まれる。
論文 参考訳(メタデータ) (2023-02-03T18:57:17Z) - Learning Bounded Context-Free-Grammar via LSTM and the
Transformer:Difference and Explanations [51.77000472945441]
Long Short-Term Memory (LSTM) と Transformer は、自然言語処理タスクに使用される2つの一般的なニューラルネットワークアーキテクチャである。
実際には、トランスフォーマーモデルの方がLSTMよりも表現力が高いことがよく見られる。
本研究では,LSTMとTransformerの実践的差異について検討し,その潜在空間分解パターンに基づく説明を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:56:44Z) - Neural Circuit Synthesis from Specification Patterns [5.7923858184309385]
ハードウェア回路を高レベル論理仕様から直接合成するタスクにおいて階層変換器を訓練する。
機械学習を使った新しいアプローチは、この分野で多くの可能性を開くかもしれないが、十分な量のトレーニングデータが不足している。
この合成データに基づいて訓練された階層変換器は,合成競合による問題の大部分を解消することを示す。
論文 参考訳(メタデータ) (2021-07-25T18:17:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。