論文の概要: FuncGNN: Learning Functional Semantics of Logic Circuits with Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2506.06787v1
- Date: Sat, 07 Jun 2025 13:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.481663
- Title: FuncGNN: Learning Functional Semantics of Logic Circuits with Graph Neural Networks
- Title(参考訳): FuncGNN:グラフニューラルネットワークを用いた論理回路の機能意味学習
- Authors: Qiyun Zhao,
- Abstract要約: And-Inverter Graph synthesiss (AIG) は、現代の回路におけるブール論理を表現するために広く採用されている。
マルチグラニュラリティトポロジカルパターンを抽出するために,ハイブリッド機能アグリゲーションを統合したFuncGNNを提案する。
FuncGNNは、それぞれ2.06%と18.71%の改善を実現し、トレーニング時間を約50.6%、GPUメモリ使用量を約32.8%削減した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As integrated circuit scale grows and design complexity rises, effective circuit representation helps support logic synthesis, formal verification, and other automated processes in electronic design automation. And-Inverter Graphs (AIGs), as a compact and canonical structure, are widely adopted for representing Boolean logic in these workflows. However, the increasing complexity and integration density of modern circuits introduce structural heterogeneity and global logic information loss in AIGs, posing significant challenges to accurate circuit modeling. To address these issues, we propose FuncGNN, which integrates hybrid feature aggregation to extract multi-granularity topological patterns, thereby mitigating structural heterogeneity and enhancing logic circuit representations. FuncGNN further introduces gate-aware normalization that adapts to circuit-specific gate distributions, improving robustness to structural heterogeneity. Finally, FuncGNN employs multi-layer integration to merge intermediate features across layers, effectively synthesizing local and global semantic information for comprehensive logic representations. Experimental results on two logic-level analysis tasks (i.e., signal probability prediction and truth-table distance prediction) demonstrate that FuncGNN outperforms existing state-of-the-art methods, achieving improvements of 2.06% and 18.71%, respectively, while reducing training time by approximately 50.6% and GPU memory usage by about 32.8%.
- Abstract(参考訳): 集積回路の規模が増大し、設計の複雑さが増大するにつれて、効率的な回路表現は電子設計自動化における論理合成、形式検証、その他の自動化プロセスをサポートする。
And-Inverter Graphs (AIG) はコンパクトで標準的な構造であり、これらのワークフローでブール論理を表現するために広く採用されている。
しかし、現代の回路の複雑さと積分密度の増大は、AIGにおける構造的不均一性とグローバル論理情報損失をもたらし、正確な回路モデリングに重大な課題を生んでいる。
これらの問題に対処するため、FuncGNNを提案する。これはハイブリッドな特徴集約を統合し、多粒度トポロジカルパターンを抽出し、構造的不均一性を緩和し、論理回路表現を強化する。
FuncGNNはさらに、回路固有のゲート分布に適応するゲート認識正規化を導入し、構造的不均一性に対する堅牢性を改善した。
最後に、FuncGNNはレイヤ間の中間機能をマージするために多層統合を採用し、局所的およびグローバルなセマンティック情報を包括的な論理表現のために効果的に合成する。
2つの論理レベルの分析タスク(信号確率予測と真理テーブル距離予測)の実験結果は、FuncGNNが既存の最先端手法よりも優れ、それぞれ2.06%と18.71%の改善を実現し、トレーニング時間を約50.6%削減し、GPUメモリ使用量を約32.8%削減したことを示している。
関連論文リスト
- Functional Matching of Logic Subgraphs: Beyond Structural Isomorphism [11.568574570864602]
論理回路におけるサブグラフマッチングは多くの電子設計自動化(EDA)アプリケーションの基礎となっている。
本稿では,ある論理関数がより大きな回路内に暗黙的に存在するかどうかを識別する新しい手法である関数部分グラフマッチングの概念を導入する。
論文 参考訳(メタデータ) (2025-05-28T05:31:49Z) - Architect of the Bits World: Masked Autoregressive Modeling for Circuit Generation Guided by Truth Table [5.300504429005315]
本稿では,回路生成のための条件生成モデルと微分可能なアーキテクチャ探索(DAS)を組み合わせた新しい手法を提案する。
まず、Circuit AutoEncoderに基づいてトレーニングされた回路トークンであるCircuitVQを紹介する。
次に,トークンとしてCircuitVQを活用するマスク付き自己回帰モデルであるCircuitARを開発した。
論文 参考訳(メタデータ) (2025-02-18T11:13:03Z) - Logic Synthesis Optimization with Predictive Self-Supervision via Causal Transformers [19.13500546022262]
LSOformerは、自動回帰トランスフォーマーモデルと予測SSLを利用して、結果の質の軌道(QoR)を予測する新しいアプローチである。
LSOformerは、クロスアテンションモジュールを統合して、回路グラフと最適化シーケンスからの洞察をマージし、QoRメトリクスの予測精度を向上させる。
論文 参考訳(メタデータ) (2024-09-16T18:45:07Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Hybrid Graph Models for Logic Optimization via Spatio-Temporal
Information [15.850413267830522]
EDAにおけるプロダクション対応MLアプリケーションを妨げるおもな懸念点は、正確性要件と一般化能力である。
本稿では,高精度なQoR推定に対するハイブリッドグラフニューラルネットワーク(GNN)に基づくアプローチを提案する。
3.3百万のデータポイントの評価によると、トレーニング中に見つからないデザインの絶対パーセンテージエラー(MAPE)は1.2%と3.1%に満たない。
論文 参考訳(メタデータ) (2022-01-20T21:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。