論文の概要: Logic Synthesis with Generative Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2406.04699v1
- Date: Fri, 7 Jun 2024 07:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 15:09:53.876427
- Title: Logic Synthesis with Generative Deep Neural Networks
- Title(参考訳): 生成型ディープニューラルネットワークを用いた論理合成
- Authors: Xihan Li, Xing Li, Lei Chen, Xing Zhang, Mingxuan Yuan, Jun Wang,
- Abstract要約: 我々は、Circuit Transformerモデルに基づく論理合成書き換え演算子「ctrw」(Circuit Transformer Rewriting)を導入する。
本稿では,論理学に適した回路変換器の2段階学習方式を提案する。
我々はまた、Circuit Transformerと最先端の書き直し技術を統合してスケーラビリティの問題に対処し、DAG対応の書き直しをガイドできるようにする。
- 参考スコア(独自算出の注目度): 20.8279111910994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep learning has achieved significant success in various domains, its application to logic circuit design has been limited due to complex constraints and strict feasibility requirement. However, a recent generative deep neural model, "Circuit Transformer", has shown promise in this area by enabling equivalence-preserving circuit transformation on a small scale. In this paper, we introduce a logic synthesis rewriting operator based on the Circuit Transformer model, named "ctrw" (Circuit Transformer Rewriting), which incorporates the following techniques: (1) a two-stage training scheme for the Circuit Transformer tailored for logic synthesis, with iterative improvement of optimality through self-improvement training; (2) integration of the Circuit Transformer with state-of-the-art rewriting techniques to address scalability issues, allowing for guided DAG-aware rewriting. Experimental results on the IWLS 2023 contest benchmark demonstrate the effectiveness of our proposed rewriting methods.
- Abstract(参考訳): ディープラーニングは様々な領域で大きな成功を収めてきたが、複雑な制約と厳密な実現性要件のために論理回路設計への応用は制限されてきた。
しかし,近年のニューラルモデル "Circuit Transformer" は,同値保存回路変換を小さなスケールで実現することで,この領域で有望であることを示す。
本稿では,(1)自己改善学習による最適性の反復的改善を伴う論理合成に適した回路変換器の2段階トレーニングスキーム,(2)拡張性問題に対処するために,回路変換器と最先端の書き直し技術を統合した,DAG対応の書き直しを可能にする,回路変換器モデル(Circuit Transformer Rewriting)を提案する。
IWLS 2023コンテストのベンチマーク実験の結果,提案手法の有効性が示された。
関連論文リスト
- CIRCUITSYNTH: Leveraging Large Language Models for Circuit Topology Synthesis [7.131266114437393]
有効な回路トポロジの自動合成を容易にするためにLCMを利用する新しい手法であるCIRCUITSYNTHを導入する。
提案手法は,回路効率の向上と出力電圧の特定を目的とした今後の研究の基盤となる。
論文 参考訳(メタデータ) (2024-06-06T01:59:59Z) - Circuit Transformer: End-to-end Circuit Design by Predicting the Next Gate [20.8279111910994]
言語はシーケンシャルなシンボルを通して表現する卓越した人間の能力であり、近年の大規模言語モデル(LLM)の進歩によって計算的に習得されている。
LLMは理解と推論において前例のない能力を示した。
回路も十分に大きな「回路モデル」でマスターでき、次の論理ゲートを単に予測することで電子設計タスクを克服できるだろうか?
論文 参考訳(メタデータ) (2024-03-14T03:24:14Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - A Circuit Domain Generalization Framework for Efficient Logic Synthesis
in Chip Design [92.63517027087933]
論理合成(LS)の重要な課題は、回路を等価な機能を持つ単純化回路に変換することである。
この課題に対処するため、多くのLS演算子は、入力DAG上の各ノードに根付いたサブグラフに逐次変換を適用する。
本稿では,データ駆動型LS演算子のパラダイムであるPruneXを提案する。
論文 参考訳(メタデータ) (2023-08-22T16:18:48Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Exploiting Transformer in Sparse Reward Reinforcement Learning for
Interpretable Temporal Logic Motion Planning [9.801466218905604]
オートマトンベースのアルゴリズムは、考慮されたタスクに対して、手動でカスタマイズされた状態表現に依存する。
本研究では,Transformer の構造的特徴を2回活用する Double-Transformer-Guided Temporal Logic framework (T2TL) を開発した。
セマンティクスとして、複雑なタスクを学習可能なサブゴールに分解するために進行を利用する。
論文 参考訳(メタデータ) (2022-09-27T07:41:11Z) - The prediction of the quality of results in Logic Synthesis using
Transformer and Graph Neural Networks [7.194397166633194]
本稿では,回路最適化シーケンスペアの品質を予測するためのディープラーニング手法を提案する。
Transformerと3つの典型的なGNNは、目に見えない回路最適化シーケンスのQoR予測のための共同学習ポリシーとして使用される。
実験結果から, Transformer と GraphSage の併用学習が最適であることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T06:53:57Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。