論文の概要: A Circuit Domain Generalization Framework for Efficient Logic Synthesis
in Chip Design
- arxiv url: http://arxiv.org/abs/2309.03208v1
- Date: Tue, 22 Aug 2023 16:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-10 03:36:08.636439
- Title: A Circuit Domain Generalization Framework for Efficient Logic Synthesis
in Chip Design
- Title(参考訳): チップ設計における効率的な論理合成のための回路領域一般化フレームワーク
- Authors: Zhihai Wang, Lei Chen, Jie Wang, Xing Li, Yinqi Bai, Xijun Li,
Mingxuan Yuan, Jianye Hao, Yongdong Zhang, Feng Wu
- Abstract要約: 論理合成(LS)の重要な課題は、回路を等価な機能を持つ単純化回路に変換することである。
この課題に対処するため、多くのLS演算子は、入力DAG上の各ノードに根付いたサブグラフに逐次変換を適用する。
本稿では,データ駆動型LS演算子のパラダイムであるPruneXを提案する。
- 参考スコア(独自算出の注目度): 92.63517027087933
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Logic Synthesis (LS) plays a vital role in chip design -- a cornerstone of
the semiconductor industry. A key task in LS is to transform circuits --
modeled by directed acyclic graphs (DAGs) -- into simplified circuits with
equivalent functionalities. To tackle this task, many LS operators apply
transformations to subgraphs -- rooted at each node on an input DAG --
sequentially. However, we found that a large number of transformations are
ineffective, which makes applying these operators highly time-consuming. In
particular, we notice that the runtime of the Resub and Mfs2 operators often
dominates the overall runtime of LS optimization processes. To address this
challenge, we propose a novel data-driven LS operator paradigm, namely PruneX,
to reduce ineffective transformations. The major challenge of developing PruneX
is to learn models that well generalize to unseen circuits, i.e., the
out-of-distribution (OOD) generalization problem. Thus, the major technical
contribution of PruneX is the novel circuit domain generalization framework,
which learns domain-invariant representations based on the
transformation-invariant domain-knowledge. To the best of our knowledge, PruneX
is the first approach to tackle the OOD problem in LS operators. We integrate
PruneX with the aforementioned Resub and Mfs2 operators. Experiments
demonstrate that PruneX significantly improves their efficiency while keeping
comparable optimization performance on industrial and very large-scale
circuits, achieving up to $3.1\times$ faster runtime.
- Abstract(参考訳): 論理合成(LS)は半導体産業の基盤であるチップ設計において重要な役割を果たす。
lsの重要なタスクは、有向非巡回グラフ(英語版)(dag)によってモデル化された回路を、同等の機能を持つ簡易回路に変換することである。このタスクに取り組むために、多くのlsオペレータは、入力dag上の各ノードに根ざしたサブグラフに変換を適用する。
しかし、多くの変換が非効率であることから、これらの演算子を非常に時間を要することに気付きました。
特に、ResubおよびMfs2演算子のランタイムが、LS最適化プロセス全体のランタイムを支配していることに気付く。
そこで本研究では,データ駆動型LS演算子のパラダイムであるPruneXを提案する。
PruneXを開発する際の大きな課題は、未知の回路によく一般化するモデルを学習することである。
したがって、PruneXの主な技術的貢献は、変換不変なドメイン知識に基づいてドメイン不変表現を学ぶ新しい回路領域一般化フレームワークである。
我々の知る限りでは、PruneXはLS演算子のOOD問題に取り組むための最初のアプローチである。
PruneXを前述のResubおよびMfs2演算子と統合する。
実験の結果、PruneXは工業用および大規模の回路で同等の最適化性能を維持し、最大3.1\times$高速ランタイムを実現した。
関連論文リスト
- On the Optimization and Generalization of Two-layer Transformers with Sign Gradient Descent [51.50999191584981]
Sign Gradient Descent (SignGD) はアダムの効果的なサロゲートである。
我々はSignGDが雑音の多いデータセット上で2層トランスを最適化する方法について検討する。
SignGDの一般化が不十分なのはデータノイズによるものではなく、SignGDとAdamの両方が現実世界のタスクに高品質なデータを必要とすることを示唆している。
論文 参考訳(メタデータ) (2024-10-07T09:36:43Z) - Logic Synthesis with Generative Deep Neural Networks [20.8279111910994]
我々は、Circuit Transformerモデルに基づく論理合成書き換え演算子「ctrw」(Circuit Transformer Rewriting)を導入する。
本稿では,論理学に適した回路変換器の2段階学習方式を提案する。
我々はまた、Circuit Transformerと最先端の書き直し技術を統合してスケーラビリティの問題に対処し、DAG対応の書き直しをガイドできるようにする。
論文 参考訳(メタデータ) (2024-06-07T07:16:40Z) - Quarl: A Learning-Based Quantum Circuit Optimizer [8.994999903946848]
本稿では,学習型量子回路Quarlについて述べる。
量子回路最適化への強化学習の適用は、大きく変化するアクション空間と、一様でない状態表現という2つの大きな課題を提起する。
論文 参考訳(メタデータ) (2023-07-17T19:21:22Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - INVICTUS: Optimizing Boolean Logic Circuit Synthesis via Synergistic
Learning and Search [18.558280701880136]
最先端論理合成アルゴリズムは、多数の論理最小化を持つ。
INVICTUSは、以前に見られた設計のトレーニングデータセットに基づいて、論理最小化のシーケンスを生成する。
論文 参考訳(メタデータ) (2023-05-22T15:50:42Z) - TAPIR: Learning Adaptive Revision for Incremental Natural Language
Understanding with a Two-Pass Model [14.846377138993645]
インクリメンタル処理のための最近のニューラルネットワークベースのアプローチは、主にRNNまたはTransformerを使用する。
より長い入力プレフィックスを繰り返し通過する再起動/インクリメンタルインターフェースは、部分的な出力を得るために使用でき、更新する機能を提供する。
本稿では、AdaPtIve Revision(TAPIR)の2パスモデルを提案し、適応的な修正ポリシーを学ぶための漸進的な監視信号を得る方法を提案する。
論文 参考訳(メタデータ) (2023-05-18T09:58:19Z) - Graph Neural Network Autoencoders for Efficient Quantum Circuit
Optimisation [69.43216268165402]
我々は、量子回路の最適化にグラフニューラルネットワーク(GNN)オートエンコーダの使い方を初めて提示する。
我々は、量子回路から有向非巡回グラフを構築し、そのグラフを符号化し、その符号化を用いてRL状態を表現する。
我々の手法は、非常に大規模なRL量子回路最適化に向けた最初の現実的な第一歩である。
論文 参考訳(メタデータ) (2023-03-06T16:51:30Z) - Advancing Model Pruning via Bi-level Optimization [89.88761425199598]
イテレーティブ・マグニチュード・プルーニング(IMP)は,「入賞券」の発見に成功するプルーニング法である
ワンショットプルーニング法が開発されているが、これらのスキームは通常IMPほど勝利のチケットを見つけることができない。
提案手法は,双線形問題構造を持つBLO問題の特別なクラスであることを示す。
論文 参考訳(メタデータ) (2022-10-08T19:19:29Z) - Rethinking Reinforcement Learning based Logic Synthesis [13.18408482571087]
我々は,重要な演算子を自動的に認識し,未知の回路に一般化可能な共通演算子列を生成するRLベースの新しい手法を開発した。
本アルゴリズムは,EPFLベンチマーク,プライベートデータセット,産業規模での回路で検証する。
論文 参考訳(メタデータ) (2022-05-16T12:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。