論文の概要: Circuit Representation Learning with Masked Gate Modeling and Verilog-AIG Alignment
- arxiv url: http://arxiv.org/abs/2502.12732v1
- Date: Tue, 18 Feb 2025 10:48:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:06:23.062758
- Title: Circuit Representation Learning with Masked Gate Modeling and Verilog-AIG Alignment
- Title(参考訳): マスクゲートモデリングとVerilog-AIGアライメントを用いた回路表現学習
- Authors: Haoyuan Wu, Haisheng Zheng, Yuan Pu, Bei Yu,
- Abstract要約: MGVGAは、マスクゲートモデリング(MGM)とVerilog-AIGアライメント(VGA)を組み合わせた新しい制約付きマスクモデリングパラダイムである。
MGMは、元の回路ではなく、潜在空間のゲートをマスキングすることで論理的等価性を保ち、その後これらのマスキングゲートの特性を再構築する。
この能力に基づいて、VGAは元の回路でマスク操作を行い、等価なVerilog符号の制約の下でマスクされたゲートを再構築する。
- 参考スコア(独自算出の注目度): 4.383547986717473
- License:
- Abstract: Understanding the structure and function of circuits is crucial for electronic design automation (EDA). Circuits can be formulated as And-Inverter graphs (AIGs), enabling efficient implementation of representation learning through graph neural networks (GNNs). Masked modeling paradigms have been proven effective in graph representation learning. However, masking augmentation to original circuits will destroy their logical equivalence, which is unsuitable for circuit representation learning. Moreover, existing masked modeling paradigms often prioritize structural information at the expense of abstract information such as circuit function. To address these limitations, we introduce MGVGA, a novel constrained masked modeling paradigm incorporating masked gate modeling (MGM) and Verilog-AIG alignment (VGA). Specifically, MGM preserves logical equivalence by masking gates in the latent space rather than in the original circuits, subsequently reconstructing the attributes of these masked gates. Meanwhile, large language models (LLMs) have demonstrated an excellent understanding of the Verilog code functionality. Building upon this capability, VGA performs masking operations on original circuits and reconstructs masked gates under the constraints of equivalent Verilog codes, enabling GNNs to learn circuit functions from LLMs. We evaluate MGVGA on various logic synthesis tasks for EDA and show the superior performance of MGVGA compared to previous state-of-the-art methods. Our code is available at https://github.com/wuhy68/MGVGA.
- Abstract(参考訳): 回路の構造と機能を理解することは電子設計自動化(EDA)にとって重要である。
回路はアンド・インバータグラフ(AIG)として定式化することができ、グラフニューラルネットワーク(GNN)による表現学習の効率的な実装を可能にする。
マスケッドモデリングパラダイムはグラフ表現学習において有効であることが証明されている。
しかし、元の回路へのマスク強化は、回路表現学習には適さない論理的等価性を損なう。
さらに、既存のマスク付きモデリングパラダイムは、回路機能のような抽象的な情報を犠牲にして、構造情報を優先することが多い。
MGVGAは,マスクゲートモデリング(MGM)とVerilog-AIGアライメント(VGA)を組み合わせた新しい制約付きマスクモデリングパラダイムである。
具体的には、MGMは元の回路ではなく、潜在空間のゲートをマスキングすることで論理的等価性を保ち、その後これらのマスキングゲートの特性を再構築する。
一方、大きな言語モデル(LLM)はVerilogのコード機能の優れた理解を示しています。
この能力に基づいて、VGAは元の回路上でマスク操作を行い、等価なVerilog符号の制約の下でマスクされたゲートを再構築し、GNNがLLMから回路関数を学習できるようにする。
EDAの様々な論理合成タスクにおいてMGVGAを評価し、従来の最先端手法と比較してMGVGAの優れた性能を示す。
私たちのコードはhttps://github.com/wuhy68/MGVGAで公開されています。
関連論文リスト
- LASE: Learned Adjacency Spectral Embeddings [7.612218105739107]
グラフ入力から結節隣接スペクトル埋め込み(ASE)を学習する。
LASEは解釈可能で、パラメータ効率が高く、未観測のエッジを持つ入力に対して堅牢である。
LASEレイヤは、Graph Convolutional Network (GCN)と完全に接続されたGraph Attention Network (GAT)モジュールを組み合わせる。
論文 参考訳(メタデータ) (2024-12-23T17:35:19Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - DeepGate3: Towards Scalable Circuit Representation Learning [9.910071321534682]
回路表現学習は電子設計自動化(EDA)の分野を前進させる有望な成果を示した
DeepGate Familyのような既存のモデルは、主にグラフニューラルネットワーク(GNN)を使用して、回路網リストをゲートレベルの埋め込みにエンコードする。
我々は,最初のGNN処理に従ってTransformerモジュールを統合する拡張アーキテクチャであるDeepGate3を紹介する。
論文 参考訳(メタデータ) (2024-07-15T02:44:21Z) - UGMAE: A Unified Framework for Graph Masked Autoencoders [67.75493040186859]
グラフマスク付きオートエンコーダのための統一フレームワークであるUGMAEを提案する。
まず,ノードの特異性を考慮した適応型特徴マスク生成器を開発した。
次に,階層型構造再構成と特徴再構成を併用し,総合的なグラフ情報を取得する。
論文 参考訳(メタデータ) (2024-02-12T19:39:26Z) - Discrete Morphological Neural Networks [0.0]
We propose the Discrete Morphological Neural Networks (DMNN) for binary image analysis to represent W-operators。
概念実証として、DMNNを用いて、ノイズのある桁の境界を認識する。
論文 参考訳(メタデータ) (2023-09-01T17:04:48Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Multiscale Graph Neural Network Autoencoders for Interpretable
Scientific Machine Learning [0.0]
この研究の目的は、オートエンコーダベースのモデルにおいて、潜在空間解釈可能性と非構造化メッシュとの互換性という2つの制限に対処することである。
これは、複雑な流体流れのアプリケーションのデモを含む、新しいグラフニューラルネットワーク(GNN)自動エンコーディングアーキテクチャの開発によって達成される。
論文 参考訳(メタデータ) (2023-02-13T08:47:11Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - MGAE: Masked Autoencoders for Self-Supervised Learning on Graphs [55.66953093401889]
Masked Graph Autoencoder (MGAE) フレームワークは、グラフ構造データの効果的な学習を行う。
自己指導型学習から洞察を得て、私たちはランダムに大量のエッジを隠蔽し、トレーニング中に欠落したエッジを再構築しようとします。
論文 参考訳(メタデータ) (2022-01-07T16:48:07Z) - Refined Gate: A Simple and Effective Gating Mechanism for Recurrent
Units [68.30422112784355]
本稿では,この問題に対処する一般ゲートリカレントニューラルネットワークにおける新しいゲーティング機構を提案する。
提案したゲートは、抽出された入力特徴とバニラゲートの出力を直接的にショートする。
LSTM, GRU, MGUの3種類のゲートRNNに対して, 提案したゲーティング機構を検証する。
論文 参考訳(メタデータ) (2020-02-26T07:51:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。