論文の概要: DeepSeq2: Enhanced Sequential Circuit Learning with Disentangled Representations
- arxiv url: http://arxiv.org/abs/2411.00530v1
- Date: Fri, 01 Nov 2024 11:57:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 21:27:45.087781
- Title: DeepSeq2: Enhanced Sequential Circuit Learning with Disentangled Representations
- Title(参考訳): DeepSeq2: アンタングル表現による系列回路学習の強化
- Authors: Sadaf Khan, Zhengyuan Shi, Ziyang Zheng, Min Li, Qiang Xu,
- Abstract要約: 本稿では,シーケンシャル回路の学習を促進する新しいフレームワークであるDeepSeq2を紹介する。
効率的なDAG-GNN(Directed Acyclic Graph Neural Network)を用いることで、DeepSeq2は実行時間を著しく短縮し、モデルのスケーラビリティを向上させる。
DeepSeq2は、シーケンシャルな回路表現学習における新しいベンチマークを設定し、電力推定と信頼性解析における先行研究を上回っている。
- 参考スコア(独自算出の注目度): 9.79382991471473
- License:
- Abstract: Circuit representation learning is increasingly pivotal in Electronic Design Automation (EDA), serving various downstream tasks with enhanced model efficiency and accuracy. One notable work, DeepSeq, has pioneered sequential circuit learning by encoding temporal correlations. However, it suffers from significant limitations including prolonged execution times and architectural inefficiencies. To address these issues, we introduce DeepSeq2, a novel framework that enhances the learning of sequential circuits, by innovatively mapping it into three distinct embedding spaces-structure, function, and sequential behavior-allowing for a more nuanced representation that captures the inherent complexities of circuit dynamics. By employing an efficient Directed Acyclic Graph Neural Network (DAG-GNN) that circumvents the recursive propagation used in DeepSeq, DeepSeq2 significantly reduces execution times and improves model scalability. Moreover, DeepSeq2 incorporates a unique supervision mechanism that captures transitioning behaviors within circuits more effectively. DeepSeq2 sets a new benchmark in sequential circuit representation learning, outperforming prior works in power estimation and reliability analysis.
- Abstract(参考訳): 回路表現学習は電子設計自動化(Electronic Design Automation, EDA)においてますます重要になってきており、様々な下流タスクにモデル効率と精度を向上させる。
DeepSeqは時間相関を符号化することでシーケンシャルな回路学習の先駆者となった。
しかし、実行時間の延長やアーキテクチャ上の非効率など、重大な制限に悩まされている。
これらの問題に対処するため,回路力学の本質的な複雑さを捉えるために,3つの異なる埋め込み空間構造,関数,シーケンシャルな動作許容を革新的にマッピングすることで,シーケンシャル回路の学習を強化する新しいフレームワークであるDeepSeq2を紹介した。
DeepSeqで使用される再帰的伝播を回避する効率的なダイレクトアサイクリックグラフニューラルネットワーク(DAG-GNN)を使用することで、DeepSeq2は実行時間を著しく短縮し、モデルのスケーラビリティを向上させる。
さらにDeepSeq2には、回路内の遷移挙動をより効果的にキャプチャするユニークな監視機構が組み込まれている。
DeepSeq2は、シーケンシャルな回路表現学習における新しいベンチマークを設定し、電力推定と信頼性解析における先行研究を上回っている。
関連論文リスト
- Fast Second-Order Online Kernel Learning through Incremental Matrix Sketching and Decomposition [22.39048660630147]
オンライン学習(OKL)は、ストリーミング環境での予測性能が期待できるため、かなりの研究関心を集めている。
既存の2次OKLアプローチは、予め設定された予算に関して、少なくとも2次時間の複雑さに悩まされている。
本稿では,2次OKLに適した高速増分行列スケッチと分解手法FORTSを提案する。
論文 参考訳(メタデータ) (2024-10-15T02:07:48Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - DeepGate2: Functionality-Aware Circuit Representation Learning [10.75166513491573]
回路表現学習は、回路要素の神経表現を得ることを目的としている。
DeepGateのような既存のソリューションは、回路構造情報と機能的振る舞いの両方を埋め込む可能性がある。
私たちはDeepGate2という新しい機能認識学習フレームワークを紹介します。
論文 参考訳(メタデータ) (2023-05-25T13:51:12Z) - DeepSeq: Deep Sequential Circuit Learning [10.402436619244911]
回路表現学習は電子設計自動化(EDA)分野における有望な研究方向である。
既存のソリューションは組合せ回路のみをターゲットにしており、その応用は著しく制限されている。
シーケンシャルネットリストのための新しい表現学習フレームワークであるDeepSeqを提案する。
論文 参考訳(メタデータ) (2023-02-27T09:17:35Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - The impact of memory on learning sequence-to-sequence tasks [6.603326895384289]
自然言語処理におけるニューラルネットワークの最近の成功は、シーケンシャル・ツー・シーケンス(seq2seq)タスクに新たな注目を集めている。
本稿では,シークエンスにおけるメモリの次数,すなわち非マルコビアン性に対する明示的な制御の利点を生かしたSeq2seqタスクのモデルを提案する。
論文 参考訳(メタデータ) (2022-05-29T14:57:33Z) - Deep Explicit Duration Switching Models for Time Series [84.33678003781908]
状態依存型と時間依存型の両方のスイッチングダイナミクスを識別できるフレキシブルモデルを提案する。
状態依存スイッチングは、リカレントな状態-スイッチ接続によって実現される。
時間依存スイッチング動作を改善するために、明示的な期間カウント変数が使用される。
論文 参考訳(メタデータ) (2021-10-26T17:35:21Z) - Faster Convergence in Deep-Predictive-Coding Networks to Learn Deeper
Representations [12.716429755564821]
DPCN(Deep-Predictive-Coding Network)は、フィードフォワードとフィードバック接続に依存する階層的な生成モデルである。
DPCNの重要な要素は、動的モデルのスパース状態を明らかにする前向きの推論手順である。
我々は,加速近位勾配に基づく実験的および理論的収束性の向上した最適化戦略を提案する。
論文 参考訳(メタデータ) (2021-01-18T02:30:13Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - DAIS: Automatic Channel Pruning via Differentiable Annealing Indicator
Search [55.164053971213576]
畳み込みニューラルネットワークは,計算オーバーヘッドが大きいにもかかわらず,コンピュータビジョンタスクの実行において大きな成功を収めている。
構造的(チャネル)プルーニングは、通常、ネットワーク構造を保ちながらモデルの冗長性を低減するために適用される。
既存の構造化プルーニング法では、手作りのルールが必要であり、これは大きなプルーニング空間に繋がる可能性がある。
論文 参考訳(メタデータ) (2020-11-04T07:43:01Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。