論文の概要: DeepSeq: Deep Sequential Circuit Learning
- arxiv url: http://arxiv.org/abs/2302.13608v1
- Date: Mon, 27 Feb 2023 09:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 16:15:27.605509
- Title: DeepSeq: Deep Sequential Circuit Learning
- Title(参考訳): deepseq: ディープシーケンシャル回路学習
- Authors: Sadaf Khan, Zhengyuan Shi, Min Li, Qiang Xu
- Abstract要約: 回路表現学習は電子設計自動化(EDA)分野における有望な研究方向である。
既存のソリューションは組合せ回路のみをターゲットにしており、その応用は著しく制限されている。
シーケンシャルネットリストのための新しい表現学習フレームワークであるDeepSeqを提案する。
- 参考スコア(独自算出の注目度): 6.621703157572762
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Circuit representation learning is a promising research direction in the
electronic design automation (EDA) field. With sufficient data for
pre-training, the learned general yet effective representation can help to
solve multiple downstream EDA tasks by fine-tuning it on a small set of
task-related data. However, existing solutions only target combinational
circuits, significantly limiting their applications. In this work, we propose
DeepSeq, a novel representation learning framework for sequential netlists.
Specifically, we introduce a dedicated graph neural network (GNN) with a
customized propagation scheme to exploit the temporal correlations between
gates in sequential circuits. To ensure effective learning, we propose to use a
multi-task training objective with two sets of strongly related supervision:
logic probability and transition probability at each node. A novel dual
attention aggregation mechanism is introduced to facilitate learning both tasks
efficiently. Experimental results on various benchmark circuits show that
DeepSeq outperforms other GNN models for sequential circuit learning. We
evaluate the generalization capability of DeepSeq on a downstream power
estimation task. After fine-tuning, DeepSeq can accurately estimate power
across various circuits under different workloads.
- Abstract(参考訳): 回路表現学習は電子設計自動化(EDA)分野における有望な研究方向である。
事前トレーニングに十分なデータがあれば、学習された汎用的かつ効果的な表現は、タスク関連データの小さなセットで微調整することで、複数の下流EDAタスクを解決するのに役立ちます。
しかし、既存のソリューションは組合せ回路のみをターゲットにしており、その応用は著しく制限されている。
本稿では,シーケンシャルネットリストのための新しい表現学習フレームワークdeepseqを提案する。
具体的には、逐次回路におけるゲート間の時間相関を利用するために、カスタマイズされた伝搬方式を備えた専用グラフニューラルネットワーク(GNN)を導入する。
効率的な学習を実現するために,各ノードにおける論理確率と遷移確率の2つの強い関連性を持つマルチタスク学習目標を提案する。
両方のタスクを効率的に学習するために,新しい2重注意集約機構を導入する。
各種ベンチマーク回路の実験結果から,DeepSeqは逐次回路学習において他のGNNモデルよりも優れていた。
下流電力推定タスクにおけるDeepSeqの一般化能力を評価する。
微調整後、DeepSeqは異なるワークロード下でさまざまな回路の電力を正確に見積もることができる。
関連論文リスト
- DeepSeq2: Enhanced Sequential Circuit Learning with Disentangled Representations [9.79382991471473]
本稿では,シーケンシャル回路の学習を促進する新しいフレームワークであるDeepSeq2を紹介する。
効率的なDAG-GNN(Directed Acyclic Graph Neural Network)を用いることで、DeepSeq2は実行時間を著しく短縮し、モデルのスケーラビリティを向上させる。
DeepSeq2は、シーケンシャルな回路表現学習における新しいベンチマークを設定し、電力推定と信頼性解析における先行研究を上回っている。
論文 参考訳(メタデータ) (2024-11-01T11:57:42Z) - Provable Multi-Task Representation Learning by Two-Layer ReLU Neural Networks [69.38572074372392]
本稿では,複数タスクにおける非線形モデルを用いたトレーニング中に特徴学習が発生することを示す最初の結果を示す。
私たちのキーとなる洞察は、マルチタスク事前トレーニングは、通常タスク間で同じラベルを持つポイントを整列する表現を好む擬似コントラスト的損失を誘導するということです。
論文 参考訳(メタデータ) (2023-07-13T16:39:08Z) - Dynamic Perceiver for Efficient Visual Recognition [87.08210214417309]
特徴抽出手順と早期分類タスクを分離する動的知覚器(Dyn-Perceiver)を提案する。
特徴ブランチは画像の特徴を抽出し、分類ブランチは分類タスクに割り当てられた遅延コードを処理する。
早期出口は分類枝に限られており、低レベルの特徴において線形分離性は不要である。
論文 参考訳(メタデータ) (2023-06-20T03:00:22Z) - DeepGate2: Functionality-Aware Circuit Representation Learning [10.75166513491573]
回路表現学習は、回路要素の神経表現を得ることを目的としている。
DeepGateのような既存のソリューションは、回路構造情報と機能的振る舞いの両方を埋め込む可能性がある。
私たちはDeepGate2という新しい機能認識学習フレームワークを紹介します。
論文 参考訳(メタデータ) (2023-05-25T13:51:12Z) - OFA$^2$: A Multi-Objective Perspective for the Once-for-All Neural
Architecture Search [79.36688444492405]
once-for-All(OFA)は、異なるリソース制約を持つデバイスのための効率的なアーキテクチャを探索する問題に対処するために設計された、ニューラルネットワーク検索(NAS)フレームワークである。
我々は,探索段階を多目的最適化問題として明示的に考えることにより,効率の追求を一歩進めることを目指している。
論文 参考訳(メタデータ) (2023-03-23T21:30:29Z) - Arch-Graph: Acyclic Architecture Relation Predictor for
Task-Transferable Neural Architecture Search [96.31315520244605]
Arch-Graphはタスク固有の最適アーキテクチャを予測するトランスファー可能なNASメソッドである。
Arch-Graphの転送性と,多数のタスクにわたる高いサンプル効率を示す。
わずか50モデルの予算の下で、2つの検索スペースで平均して0.16%と0.29%のアーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2022-04-12T16:46:06Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - Representation Learning of Logic Circuits [7.614021815435811]
本稿では,各ゲート上のベクトルとして回路の論理関数と構造情報を埋め込んだ表現学習ソリューションを提案する。
具体的には、学習のために回路を統一およびインバータグラフ形式に変換することを提案する。
次に,信号確率予測の先行学習として,実用的な回路における強い帰納バイアスを用いた新しいグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-26T05:57:05Z) - CATCH: Context-based Meta Reinforcement Learning for Transferrable
Architecture Search [102.67142711824748]
CATCHは、転送可能なarChitecture searcHのための、Context-bAsed meTa強化学習アルゴリズムである。
メタラーニングとRLの組み合わせにより、CATCHは検索空間に依存しないまま、新しいタスクに効率的に適応できる。
また、ImageNet、COCO、Cityscapesの競合ネットワークとしてクロスドメインアーキテクチャサーチを扱うこともできる。
論文 参考訳(メタデータ) (2020-07-18T09:35:53Z) - Auto-MAP: A DQN Framework for Exploring Distributed Execution Plans for
DNN Workloads [11.646744408920764]
Auto-MAPはワークロードの分散実行計画を探索するフレームワークである。
ディープラーニングモデルのIRレベルの強化学習を通じて、高速な並列化戦略を自動的に発見することができる。
評価の結果,Auto-MAPは複数のNLPおよび畳み込みモデルにおいて,より優れたスループットを実現しつつ,最適解を2時間以内に見つけることができることがわかった。
論文 参考訳(メタデータ) (2020-07-08T12:38:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。