論文の概要: The prediction of the quality of results in Logic Synthesis using
Transformer and Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2207.11437v1
- Date: Sat, 23 Jul 2022 06:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:45:55.985412
- Title: The prediction of the quality of results in Logic Synthesis using
Transformer and Graph Neural Networks
- Title(参考訳): Transformer と Graph Neural Networks を用いた論理合成における結果の品質予測
- Authors: Chenghao Yang, Yinshui Xia, Zhufei Chu
- Abstract要約: 本稿では,回路最適化シーケンスペアの品質を予測するためのディープラーニング手法を提案する。
Transformerと3つの典型的なGNNは、目に見えない回路最適化シーケンスのQoR予測のための共同学習ポリシーとして使用される。
実験結果から, Transformer と GraphSage の併用学習が最適であることが示唆された。
- 参考スコア(独自算出の注目度): 3.637162892228131
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the logic synthesis stage, structure transformations in the synthesis tool
need to be combined into optimization sequences and act on the circuit to meet
the specified circuit area and delay. However, logic synthesis optimization
sequences are time-consuming to run, and predicting the quality of the results
(QoR) against the synthesis optimization sequence for a circuit can help
engineers find a better optimization sequence faster. In this work, we propose
a deep learning method to predict the QoR of unseen circuit-optimization
sequences pairs. Specifically, the structure transformations are translated
into vectors by embedding methods and advanced natural language processing
(NLP) technology (Transformer) is used to extract the features of the
optimization sequences. In addition, to enable the prediction process of the
model to be generalized from circuit to circuit, the graph representation of
the circuit is represented as an adjacency matrix and a feature matrix. Graph
neural networks(GNN) are used to extract the structural features of the
circuits. For this problem, the Transformer and three typical GNNs are used.
Furthermore, the Transformer and GNNs are adopted as a joint learning policy
for the QoR prediction of the unseen circuit-optimization sequences. The
methods resulting from the combination of Transformer and GNNs are benchmarked.
The experimental results show that the joint learning of Transformer and
GraphSage gives the best results. The Mean Absolute Error (MAE) of the
predicted result is 0.412.
- Abstract(参考訳): 論理合成段階では、合成ツールの構造変換を最適化シーケンスに結合し、特定の回路領域と遅延を満たすために回路に作用させる必要がある。
しかし、論理合成最適化シーケンスの実行には時間がかかり、回路の合成最適化シーケンスに対して結果の品質(QoR)を予測することは、エンジニアがより高速に最適化シーケンスを見つけるのに役立つ。
本研究では、未確認回路最適化シーケンスペアのQoRを予測するためのディープラーニング手法を提案する。
具体的には、構造変換を埋め込み法によりベクトルに変換し、最適化シーケンスの特徴を抽出するために高度な自然言語処理技術(Transformer)を用いる。
さらに、回路から回路までモデルの予測プロセスを一般化するために、回路のグラフ表現を隣接行列および特徴行列として表現する。
グラフニューラルネットワーク(GNN)は、回路の構造的特徴を抽出するために用いられる。
この問題に対して、Transformerと3つの典型的なGNNが使用される。
さらに、トランスフォーマーとGNNは、目に見えない回路最適化シーケンスのQoR予測のための共同学習ポリシーとして採用されている。
TransformerとGNNの組み合わせによるメソッドをベンチマークする。
実験結果から, Transformer と GraphSage の併用学習が最適であることが示唆された。
予測結果の平均絶対誤差(MAE)は0.412である。
関連論文リスト
- Variable-size Symmetry-based Graph Fourier Transforms for image compression [65.7352685872625]
可変サイズのグラフフーリエ変換を符号化フレームワークに導入する。
提案アルゴリズムは,ノード間の特定の対称接続を追加することにより,グリッド上の対称グラフを生成する。
実験により、SBGFTは、明示的な多重変換選択に統合された一次変換よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-11-24T13:00:44Z) - Transformers meet Neural Algorithmic Reasoners [16.5785372289558]
我々は、トランスフォーマー言語理解とグラフニューラルネットワーク(GNN)に基づくニューラルネットワーク推論(NAR)の堅牢性を組み合わせた新しいアプローチを提案する。
CLRS-30ベンチマークのテキストベースバージョンであるCLRS-Text上で得られたTransNARモデルを評価し,アルゴリズム推論のためのTransformerのみのモデルよりも大幅に向上したことを示す。
論文 参考訳(メタデータ) (2024-06-13T16:42:06Z) - Logic Synthesis with Generative Deep Neural Networks [20.8279111910994]
我々は、Circuit Transformerモデルに基づく論理合成書き換え演算子「ctrw」(Circuit Transformer Rewriting)を導入する。
本稿では,論理学に適した回路変換器の2段階学習方式を提案する。
我々はまた、Circuit Transformerと最先端の書き直し技術を統合してスケーラビリティの問題に対処し、DAG対応の書き直しをガイドできるようにする。
論文 参考訳(メタデータ) (2024-06-07T07:16:40Z) - Enhancing Quantum Optimization with Parity Network Synthesis [0.0]
パリティネットワーク合成と線形回路インバージョンのための一組のアルゴリズムを提案する。
これらのアルゴリズムは、QAOA回路の対角成分を構築することができ、一般に2つのキュービットゲートの点で最も高価である。
論文 参考訳(メタデータ) (2024-02-16T22:11:52Z) - Reducing measurement costs by recycling the Hessian in adaptive variational quantum algorithms [0.0]
本稿では,適応VQAに適した準ニュートン最適化プロトコルを提案する。
我々は,適応VQAの繰り返しを通じて,逆ヘッセン行列に対する近似を連続的に構築し,成長させる準ニュートンアルゴリズムを実装した。
論文 参考訳(メタデータ) (2024-01-10T14:08:04Z) - Uncovering mesa-optimization algorithms in Transformers [61.06055590704677]
いくつかの自己回帰モデルは、入力シーケンスが処理されたときに学習でき、パラメータの変更を受けずに、それを行うように明示的に訓練されていない。
我々は,新しい入力が明らかになったときにモデルを調整するための補助学習アルゴリズムが,標準の次トーケン予測誤差最小化によって生まれることを示す。
本研究は、自己回帰損失最小化の産物としてコンテキスト内学習を説明し、新しい最適化ベースのトランスフォーマー層の設計を通知する。
論文 参考訳(メタデータ) (2023-09-11T22:42:50Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Performance Embeddings: A Similarity-based Approach to Automatic
Performance Optimization [71.69092462147292]
パフォーマンス埋め込みは、アプリケーション間でパフォーマンスチューニングの知識伝達を可能にする。
本研究では, 深層ニューラルネットワーク, 密度およびスパース線形代数合成, および数値風速予測ステンシルのケーススタディにおいて, この伝達チューニング手法を実証する。
論文 参考訳(メタデータ) (2023-03-14T15:51:35Z) - Full Stack Optimization of Transformer Inference: a Survey [58.55475772110702]
トランスフォーマーモデルは広範囲のアプリケーションにまたがって優れた精度を実現する。
最近のTransformerモデルの推測に必要な計算量と帯域幅は、かなり増加しています。
Transformerモデルをより効率的にすることに注力している。
論文 参考訳(メタデータ) (2023-02-27T18:18:13Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。