論文の概要: DeepGate4: Efficient and Effective Representation Learning for Circuit Design at Scale
- arxiv url: http://arxiv.org/abs/2502.01681v2
- Date: Mon, 10 Feb 2025 08:28:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:35:43.5484
- Title: DeepGate4: Efficient and Effective Representation Learning for Circuit Design at Scale
- Title(参考訳): DeepGate4: 大規模回路設計のための効率的かつ効果的な表現学習
- Authors: Ziyang Zheng, Shan Huang, Jianyuan Zhong, Zhengyuan Shi, Guohao Dai, Ningyi Xu, Qiang Xu,
- Abstract要約: 本稿では,大規模回路のためのスケーラブルで効率的なグラフトランスであるDeepGate4を紹介する。
DeepGate4は最先端の手法をはるかに上回り、次世代モデルよりも15.5%の性能向上を実現している。
- 参考スコア(独自算出の注目度): 12.73514467497144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Circuit representation learning has become pivotal in electronic design automation, enabling critical tasks such as testability analysis, logic reasoning, power estimation, and SAT solving. However, existing models face significant challenges in scaling to large circuits due to limitations like over-squashing in graph neural networks and the quadratic complexity of transformer-based models. To address these issues, we introduce DeepGate4, a scalable and efficient graph transformer specifically designed for large-scale circuits. DeepGate4 incorporates several key innovations: (1) an update strategy tailored for circuit graphs, which reduce memory complexity to sub-linear and is adaptable to any graph transformer; (2) a GAT-based sparse transformer with global and local structural encodings for AIGs; and (3) an inference acceleration CUDA kernel that fully exploit the unique sparsity patterns of AIGs. Our extensive experiments on the ITC99 and EPFL benchmarks show that DeepGate4 significantly surpasses state-of-the-art methods, achieving 15.5% and 31.1% performance improvements over the next-best models. Furthermore, the Fused-DeepGate4 variant reduces runtime by 35.1% and memory usage by 46.8%, making it highly efficient for large-scale circuit analysis. These results demonstrate the potential of DeepGate4 to handle complex EDA tasks while offering superior scalability and efficiency.
- Abstract(参考訳): 回路表現学習は電子設計自動化において重要となり、テスト可能性分析、論理推論、電力推定、SAT解決といった重要なタスクが実現された。
しかし、既存のモデルは、グラフニューラルネットワークのオーバースキャッシングや、トランスフォーマーベースのモデルの二次的複雑さといった制限のために、大規模回路へのスケーリングにおいて大きな課題に直面している。
これらの問題に対処するために,大規模回路用に設計されたスケーラブルで効率的なグラフトランスフォーマであるDeepGate4を紹介する。
DeepGate4は、(1)メモリの複雑さをサブ線形に減らし、任意のグラフトランスフォーマーに適応できるサーキットグラフに適した更新戦略、(2)グローバルおよびローカルなAIGの構造エンコーディングを備えたGATベースのスパーストランスフォーマー、(3)AIGの特異な空間パターンを完全に活用する推論アクセラレーションCUDAカーネルなど、いくつかの重要なイノベーションを取り入れている。
ITC99 と EPFL ベンチマークの広範な実験により、DeepGate4 は最先端の手法を大幅に上回り、次世代モデルよりも 15.5% と 31.1% のパフォーマンス向上を達成した。
さらにFused-DeepGate4はランタイムを35.1%削減し、メモリ使用量は46.8%削減した。
これらの結果は、より優れたスケーラビリティと効率を提供しながら、複雑なEDAタスクを処理するDeepGate4の可能性を示している。
関連論文リスト
- Data-Driven Deep MIMO Detection:Network Architectures and Generalization Analysis [50.20709408241935]
本稿では,ネットワーク・オブ・MLPにおける完全データ駆動型DeepSIC検出の検証を提案する。
このようなアーキテクチャでは、グラフニューラルネットワーク(GNN)を使用したグラフベースのメッセージパッシングプロセスとして、DeepSICをアップグレードすることができる。
GNNSICは、訓練可能なパラメータが大幅に少ないDeepSICに匹敵する優れた表現性を達成する。
論文 参考訳(メタデータ) (2026-02-13T04:38:51Z) - Plain Transformers are Surprisingly Powerful Link Predictors [57.01966734467712]
リンク予測はグラフ機械学習における中核的な課題であり、リッチで複雑なトポロジ的依存関係をキャプチャするモデルを必要とする。
グラフニューラルネットワーク(GNN)が標準的なソリューションであるのに対して、最先端のパイプラインは明示的な構造やメモリ集約的なノードの埋め込みに依存していることが多い。
本報告では,手作りのプリミティブに置き換えるエンコーダのみのプレーントランスであるPENCILについて,サンプリングしたローカルサブグラフに注目する。
論文 参考訳(メタデータ) (2026-02-02T02:45:52Z) - TQL: Scaling Q-Functions with Transformers by Preventing Attention Collapse [100.14462819905822]
Transformer Q-Learningは、強化学習における学習価値関数における変換器のスケーリングポテンシャルを解放する。
当社のアプローチでは,最小のネットワークサイズから最大規模のネットワークサイズへのスケールアップでは,最大で43%のパフォーマンス向上を実現しています。
論文 参考訳(メタデータ) (2026-02-01T21:10:43Z) - Rethinking Vision Transformer Depth via Structural Reparameterization [16.12815682992294]
本稿では,訓練期間中に機能する分岐型構造パラメータ化手法を提案する。
提案手法では, 変圧器ブロック内の並列分岐を利用して, 合理化シングルパスモデルに体系的に統合する。
ViT-Tinyに適用した場合、このフレームワークは、ImageNet-1Kの分類精度を維持しながら、元の12層アーキテクチャを6層、4層、もしくは3層に改善する。
論文 参考訳(メタデータ) (2025-11-24T21:28:55Z) - CSI-4CAST: A Hybrid Deep Learning Model for CSI Prediction with Comprehensive Robustness and Generalization Testing [44.045995554758385]
本稿では、畳み込みニューラルネットワーク残基、適応補正層、ShuffleNetブロック、Transformerの4つの重要なコンポーネントを統合するハイブリッドディープラーニングアーキテクチャであるCSI-4CASTを紹介する。
データセットは、複数のチャネルモデル、広範囲の遅延スプレッドとユーザ速度、さまざまなノイズタイプと強度度にまたがる。
実験の結果,CSI-4CASTは計算コストを大幅に削減して予測精度が向上した。
論文 参考訳(メタデータ) (2025-10-14T21:19:52Z) - DR-CircuitGNN: Training Acceleration of Heterogeneous Circuit Graph Neural Network on GPUs [24.65955578784123]
不均一グラフニューラルネットワーク(HGNN)は、位相的関係と幾何学的特徴の両方を捉えることにより、EDA回路グラフをよりよく解釈することができる。
EDA関連回路グラフデータセット上でHGNNのトレーニングを高速化するために,行ワイドスペーサリティを意識したDynamic-ReLUを活用する高速GPUカーネル設計のDR-CircuitGNNを提案し,不均一なメッセージパス中にSpMMカーネルを最適化する。
論文 参考訳(メタデータ) (2025-08-22T20:05:38Z) - GAQAT: gradient-adaptive quantization-aware training for domain generalization [54.31450550793485]
そこで本研究では,DGのためのGAQAT(Gradient-Adaptive Quantization-Aware Training)フレームワークを提案する。
我々のアプローチは、低精度量子化におけるスケール・グラディエント・コンフリクト問題を特定することから始まる。
GAQATフレームワークの有効性を実験により検証した。
論文 参考訳(メタデータ) (2024-12-07T06:07:21Z) - Shavette: Low Power Neural Network Acceleration via Algorithm-level Error Detection and Undervolting [0.0]
本稿では,Deep Neural Network(DNN)アクセラレータの,単なるソフトウェア修正による低電圧動作を実現するための簡単なアプローチを紹介する。
18%から25%の省エネ効果を示したが,精度の低下やスループットの低下は認められなかった。
論文 参考訳(メタデータ) (2024-10-17T10:29:15Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - DeepGate3: Towards Scalable Circuit Representation Learning [9.910071321534682]
回路表現学習は電子設計自動化(EDA)の分野を前進させる有望な成果を示した
DeepGate Familyのような既存のモデルは、主にグラフニューラルネットワーク(GNN)を使用して、回路網リストをゲートレベルの埋め込みにエンコードする。
我々は,最初のGNN処理に従ってTransformerモジュールを統合する拡張アーキテクチャであるDeepGate3を紹介する。
論文 参考訳(メタデータ) (2024-07-15T02:44:21Z) - LeYOLO, New Scalable and Efficient CNN Architecture for Object Detection [0.0]
FLOPに基づく効率的な物体検出のためのニューラルネットワークアーキテクチャの設計選択に着目する。
そこで本研究では,YOLOモデルの有効性を高めるために,いくつかの最適化手法を提案する。
本稿では、オブジェクト検出のための新しいスケーリングパラダイムと、LeYOLOと呼ばれるYOLO中心のモデルに寄与する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - Fusing Pretrained ViTs with TCNet for Enhanced EEG Regression [0.07999703756441758]
本稿では、脳波回帰の精度を高めるために、事前訓練された視覚変換器(ViT)と時間畳み込みネットワーク(TCNet)の統合について詳述する。
以上の結果から, 回転平均角誤差(RMSE)を55.4から51.8に低減した。
性能を犠牲にすることなく、このモデルの速度を桁違いに向上させる(最大4.32倍高速)。
論文 参考訳(メタデータ) (2024-04-02T17:01:51Z) - SymbolNet: Neural Symbolic Regression with Adaptive Dynamic Pruning for Compression [1.0356366043809717]
モデル圧縮技術として特別に設計された記号回帰に対するニューラルネットワークアプローチである$ttSymbolNet$を提案する。
このフレームワークは、単一のトレーニングプロセスにおいてモデルウェイト、入力特徴、数学的演算子の動的プルーニングを可能にする。
論文 参考訳(メタデータ) (2024-01-18T12:51:38Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - SGFormer: Simplifying and Empowering Transformers for Large-Graph Representations [75.71298846760303]
ノード特性予測ベンチマークにおいて,一層注意が驚くほど高い性能を示すことを示す。
提案手法をSGFormer (Simplified Graph Transformer) と呼ぶ。
提案手法は,大きなグラフ上にトランスフォーマーを構築する上で,独立性のある新たな技術パスを啓蒙するものである。
論文 参考訳(メタデータ) (2023-06-19T08:03:25Z) - DeepGate2: Functionality-Aware Circuit Representation Learning [10.75166513491573]
回路表現学習は、回路要素の神経表現を得ることを目的としている。
DeepGateのような既存のソリューションは、回路構造情報と機能的振る舞いの両方を埋め込む可能性がある。
私たちはDeepGate2という新しい機能認識学習フレームワークを紹介します。
論文 参考訳(メタデータ) (2023-05-25T13:51:12Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Global Vision Transformer Pruning with Hessian-Aware Saliency [93.33895899995224]
この研究はヴィジュアルトランスフォーマー(ViT)モデルの共通設計哲学に挑戦する。
遅延を意識した規則化による直接遅延低減を実現し,すべての層や構造に匹敵する新しいヘッセン型構造解析基準を導出する。
DeiT-Baseモデルで反復的なプルーニングを実行すると、NViT(Novel ViT)と呼ばれる新しいアーキテクチャファミリが生まれ、パラメータをより効率的に利用する新しいパラメータが現れる。
論文 参考訳(メタデータ) (2021-10-10T18:04:59Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - FantastIC4: A Hardware-Software Co-Design Approach for Efficiently
Running 4bit-Compact Multilayer Perceptrons [19.411734658680967]
深層ニューラルネットワーク(DNN)の高効率な実行エンジンを得るためのソフトウェアハードウェア最適化パラダイムを提案する。
私たちのアプローチは、予測性能の高い多層パーセプトロン(MLP)の面積と電力要件を低減するための手段として、圧縮を中心にしています。
仮想超大規模FPGA XCVU440デバイス実装では総消費電力3.6Wで2.45 TOPSのスループットを達成し、22nmプロセスASICバージョンでは20.17 TOPS/Wの総電力効率を達成できることを示した。
論文 参考訳(メタデータ) (2020-12-17T19:10:04Z) - End-to-End Multi-speaker Speech Recognition with Transformer [88.22355110349933]
音声認識モデルにおけるRNNベースのエンコーダデコーダをトランスフォーマーアーキテクチャに置き換える。
また、計算量を削減するために、シーケンス全体ではなくセグメントに制限されるセルフアテンションコンポーネントを変更します。
論文 参考訳(メタデータ) (2020-02-10T16:29:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。