論文の概要: Iterative Circuit Repair Against Formal Specifications
- arxiv url: http://arxiv.org/abs/2303.01158v1
- Date: Thu, 2 Mar 2023 11:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 14:57:40.874719
- Title: Iterative Circuit Repair Against Formal Specifications
- Title(参考訳): 形式仕様に対する反復回路修復
- Authors: Matthias Cosler, Frederik Schmitt, Christopher Hahn, Bernd Finkbeiner
- Abstract要約: 線形時間時間論理(LTL)における形式仕様に対する逐次回路の修復のための深層学習手法を提案する。
本稿では,形式仕様と回路のマルチモーダル表現学習のための階層変換器を提案する。
提案する修復機構は,トランスフォーマーの仕様から回路の自動合成を大幅に改善する。
- 参考スコア(独自算出の注目度): 3.7277730514654555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a deep learning approach for repairing sequential circuits against
formal specifications given in linear-time temporal logic (LTL). Given a
defective circuit and its formal specification, we train Transformer models to
output circuits that satisfy the corresponding specification. We propose a
separated hierarchical Transformer for multimodal representation learning of
the formal specification and the circuit. We introduce a data generation
algorithm that enables generalization to more complex specifications and
out-of-distribution datasets. In addition, our proposed repair mechanism
significantly improves the automated synthesis of circuits from LTL
specifications with Transformers. It improves the state-of-the-art by $6.8$
percentage points on held-out instances and $11.8$ percentage points on an
out-of-distribution dataset from the annual reactive synthesis competition.
- Abstract(参考訳): 本稿では,線形時間時間論理(LTL)で与えられる形式仕様に対して,逐次回路を修復する深層学習手法を提案する。
欠陥回路とその形式的仕様を考えると、対応する仕様を満たす回路を出力するためにトランスフォーマーモデルを訓練する。
本稿では,形式仕様と回路のマルチモーダル表現学習のための階層変換器を提案する。
本稿では,より複雑な仕様や分散データセットへの一般化を可能にするデータ生成アルゴリズムを提案する。
さらに,提案する修復機構はトランスフォーマーを用いたTLL仕様からの回路の自動合成を大幅に改善する。
毎年恒例のリアクティブ合成コンペティションのアウト・オブ・ディストリビューションデータセットにおいて、ホールドアウトインスタンスの6.8ドルのポイントと11.8ドルのパーセンテージで最先端の改善を行う。
関連論文リスト
- How Do Transformers Learn In-Context Beyond Simple Functions? A Case
Study on Learning with Representations [98.7450564309923]
本稿では、より複雑なシナリオにおける文脈内学習(ICL)の理解を、表現を用いた学習で研究する。
合成文内学習問題を合成構造を用いて構築し、ラベルは複雑なが固定された表現関数によって入力に依存する。
理論的には、そのようなアルゴリズムを軽度な深さと大きさでほぼ実装するトランスフォーマーの存在を示す。
論文 参考訳(メタデータ) (2023-10-16T17:40:49Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Learning to Design Analog Circuits to Meet Threshold Specifications [2.5818330243826924]
本稿では,シミュレーションデータから,しきい値仕様を満たす回路の設計を訓練可能なデータセットを生成する手法を提案する。
提案手法は,5%の誤差マージンで90%以上の成功率を達成するとともに,データ効率を1桁以上の精度で向上することを示す。
論文 参考訳(メタデータ) (2023-07-25T23:25:05Z) - Adaptive Planning Search Algorithm for Analog Circuit Verification [53.97809573610992]
シミュレーションの少ない機械学習(ML)アプローチを提案する。
提案手法により,OCCを全回路の仕様に近づけることができることを示す。
論文 参考訳(メタデータ) (2023-06-23T12:57:46Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Learning a Fourier Transform for Linear Relative Positional Encodings in
Transformers [60.58073666177477]
我々はLearner-Transformers(Learner-Transformers)と呼ばれる線形変換器の新しいクラスを提案する。
学習者変換器は、幅広い相対的位置符号化機構(RPE)を組み込む
また、画像分類や3次元分子モデリングといった他のデータモダリティやタスクについても、sを徹底的に検証した。
論文 参考訳(メタデータ) (2023-02-03T18:57:17Z) - Resilient superconducting-element design with genetic algorithms [3.53163169498295]
超伝導量子回路は、原子エネルギースペクトルと選択規則をはしごと3レベル製造として示している。
我々のマルチループ回路は、回路パラメータのランダムなゆらぎ、すなわち最終的な欠陥の下では堅牢であることを示す。
論文 参考訳(メタデータ) (2023-02-03T16:24:35Z) - Learning Bounded Context-Free-Grammar via LSTM and the
Transformer:Difference and Explanations [51.77000472945441]
Long Short-Term Memory (LSTM) と Transformer は、自然言語処理タスクに使用される2つの一般的なニューラルネットワークアーキテクチャである。
実際には、トランスフォーマーモデルの方がLSTMよりも表現力が高いことがよく見られる。
本研究では,LSTMとTransformerの実践的差異について検討し,その潜在空間分解パターンに基づく説明を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:56:44Z) - Neural Circuit Synthesis from Specification Patterns [5.7923858184309385]
ハードウェア回路を高レベル論理仕様から直接合成するタスクにおいて階層変換器を訓練する。
機械学習を使った新しいアプローチは、この分野で多くの可能性を開くかもしれないが、十分な量のトレーニングデータが不足している。
この合成データに基づいて訓練された階層変換器は,合成競合による問題の大部分を解消することを示す。
論文 参考訳(メタデータ) (2021-07-25T18:17:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。