論文の概要: DeepGate4: Efficient and Effective Representation Learning for Circuit Design at Scale
- arxiv url: http://arxiv.org/abs/2502.01681v2
- Date: Mon, 10 Feb 2025 08:28:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:23:55.343237
- Title: DeepGate4: Efficient and Effective Representation Learning for Circuit Design at Scale
- Title(参考訳): DeepGate4: 大規模回路設計のための効率的かつ効果的な表現学習
- Authors: Ziyang Zheng, Shan Huang, Jianyuan Zhong, Zhengyuan Shi, Guohao Dai, Ningyi Xu, Qiang Xu,
- Abstract要約: 本稿では,大規模回路のためのスケーラブルで効率的なグラフトランスであるDeepGate4を紹介する。
DeepGate4は最先端の手法をはるかに上回り、次世代モデルよりも15.5%の性能向上を実現している。
- 参考スコア(独自算出の注目度): 12.73514467497144
- License:
- Abstract: Circuit representation learning has become pivotal in electronic design automation, enabling critical tasks such as testability analysis, logic reasoning, power estimation, and SAT solving. However, existing models face significant challenges in scaling to large circuits due to limitations like over-squashing in graph neural networks and the quadratic complexity of transformer-based models. To address these issues, we introduce DeepGate4, a scalable and efficient graph transformer specifically designed for large-scale circuits. DeepGate4 incorporates several key innovations: (1) an update strategy tailored for circuit graphs, which reduce memory complexity to sub-linear and is adaptable to any graph transformer; (2) a GAT-based sparse transformer with global and local structural encodings for AIGs; and (3) an inference acceleration CUDA kernel that fully exploit the unique sparsity patterns of AIGs. Our extensive experiments on the ITC99 and EPFL benchmarks show that DeepGate4 significantly surpasses state-of-the-art methods, achieving 15.5% and 31.1% performance improvements over the next-best models. Furthermore, the Fused-DeepGate4 variant reduces runtime by 35.1% and memory usage by 46.8%, making it highly efficient for large-scale circuit analysis. These results demonstrate the potential of DeepGate4 to handle complex EDA tasks while offering superior scalability and efficiency.
- Abstract(参考訳): 回路表現学習は電子設計自動化において重要となり、テスト可能性分析、論理推論、電力推定、SAT解決といった重要なタスクが実現された。
しかし、既存のモデルは、グラフニューラルネットワークのオーバースキャッシングや、トランスフォーマーベースのモデルの二次的複雑さといった制限のために、大規模回路へのスケーリングにおいて大きな課題に直面している。
これらの問題に対処するために,大規模回路用に設計されたスケーラブルで効率的なグラフトランスフォーマであるDeepGate4を紹介する。
DeepGate4は、(1)メモリの複雑さをサブ線形に減らし、任意のグラフトランスフォーマーに適応できるサーキットグラフに適した更新戦略、(2)グローバルおよびローカルなAIGの構造エンコーディングを備えたGATベースのスパーストランスフォーマー、(3)AIGの特異な空間パターンを完全に活用する推論アクセラレーションCUDAカーネルなど、いくつかの重要なイノベーションを取り入れている。
ITC99 と EPFL ベンチマークの広範な実験により、DeepGate4 は最先端の手法を大幅に上回り、次世代モデルよりも 15.5% と 31.1% のパフォーマンス向上を達成した。
さらにFused-DeepGate4はランタイムを35.1%削減し、メモリ使用量は46.8%削減した。
これらの結果は、より優れたスケーラビリティと効率を提供しながら、複雑なEDAタスクを処理するDeepGate4の可能性を示している。
関連論文リスト
- Shavette: Low Power Neural Network Acceleration via Algorithm-level Error Detection and Undervolting [0.0]
本稿では,Deep Neural Network(DNN)アクセラレータの,単なるソフトウェア修正による低電圧動作を実現するための簡単なアプローチを紹介する。
18%から25%の省エネ効果を示したが,精度の低下やスループットの低下は認められなかった。
論文 参考訳(メタデータ) (2024-10-17T10:29:15Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - DeepGate3: Towards Scalable Circuit Representation Learning [9.910071321534682]
回路表現学習は電子設計自動化(EDA)の分野を前進させる有望な成果を示した
DeepGate Familyのような既存のモデルは、主にグラフニューラルネットワーク(GNN)を使用して、回路網リストをゲートレベルの埋め込みにエンコードする。
我々は,最初のGNN処理に従ってTransformerモジュールを統合する拡張アーキテクチャであるDeepGate3を紹介する。
論文 参考訳(メタデータ) (2024-07-15T02:44:21Z) - LeYOLO, New Scalable and Efficient CNN Architecture for Object Detection [0.0]
FLOPに基づく効率的な物体検出のためのニューラルネットワークアーキテクチャの設計選択に着目する。
そこで本研究では,YOLOモデルの有効性を高めるために,いくつかの最適化手法を提案する。
本稿では、オブジェクト検出のための新しいスケーリングパラダイムと、LeYOLOと呼ばれるYOLO中心のモデルに寄与する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - Fusing Pretrained ViTs with TCNet for Enhanced EEG Regression [0.07999703756441758]
本稿では、脳波回帰の精度を高めるために、事前訓練された視覚変換器(ViT)と時間畳み込みネットワーク(TCNet)の統合について詳述する。
以上の結果から, 回転平均角誤差(RMSE)を55.4から51.8に低減した。
性能を犠牲にすることなく、このモデルの速度を桁違いに向上させる(最大4.32倍高速)。
論文 参考訳(メタデータ) (2024-04-02T17:01:51Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - SGFormer: Simplifying and Empowering Transformers for Large-Graph Representations [75.71298846760303]
ノード特性予測ベンチマークにおいて,一層注意が驚くほど高い性能を示すことを示す。
提案手法をSGFormer (Simplified Graph Transformer) と呼ぶ。
提案手法は,大きなグラフ上にトランスフォーマーを構築する上で,独立性のある新たな技術パスを啓蒙するものである。
論文 参考訳(メタデータ) (2023-06-19T08:03:25Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Global Vision Transformer Pruning with Hessian-Aware Saliency [93.33895899995224]
この研究はヴィジュアルトランスフォーマー(ViT)モデルの共通設計哲学に挑戦する。
遅延を意識した規則化による直接遅延低減を実現し,すべての層や構造に匹敵する新しいヘッセン型構造解析基準を導出する。
DeiT-Baseモデルで反復的なプルーニングを実行すると、NViT(Novel ViT)と呼ばれる新しいアーキテクチャファミリが生まれ、パラメータをより効率的に利用する新しいパラメータが現れる。
論文 参考訳(メタデータ) (2021-10-10T18:04:59Z) - FantastIC4: A Hardware-Software Co-Design Approach for Efficiently
Running 4bit-Compact Multilayer Perceptrons [19.411734658680967]
深層ニューラルネットワーク(DNN)の高効率な実行エンジンを得るためのソフトウェアハードウェア最適化パラダイムを提案する。
私たちのアプローチは、予測性能の高い多層パーセプトロン(MLP)の面積と電力要件を低減するための手段として、圧縮を中心にしています。
仮想超大規模FPGA XCVU440デバイス実装では総消費電力3.6Wで2.45 TOPSのスループットを達成し、22nmプロセスASICバージョンでは20.17 TOPS/Wの総電力効率を達成できることを示した。
論文 参考訳(メタデータ) (2020-12-17T19:10:04Z) - End-to-End Multi-speaker Speech Recognition with Transformer [88.22355110349933]
音声認識モデルにおけるRNNベースのエンコーダデコーダをトランスフォーマーアーキテクチャに置き換える。
また、計算量を削減するために、シーケンス全体ではなくセグメントに制限されるセルフアテンションコンポーネントを変更します。
論文 参考訳(メタデータ) (2020-02-10T16:29:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。