論文の概要: DeepGate2: Functionality-Aware Circuit Representation Learning
- arxiv url: http://arxiv.org/abs/2305.16373v1
- Date: Thu, 25 May 2023 13:51:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 18:56:31.952699
- Title: DeepGate2: Functionality-Aware Circuit Representation Learning
- Title(参考訳): DeepGate2: 関数型回路表現学習
- Authors: Zhengyuan Shi, Hongyang Pan, Sadaf Khan, Min Li, Yi Liu, Junhua Huang,
Hui-Ling Zhen, Mingxuan Yuan, Zhufei Chu and Qiang Xu
- Abstract要約: 回路表現学習は、回路要素の神経表現を得ることを目的としている。
DeepGateのような既存のソリューションは、回路構造情報と機能的振る舞いの両方を埋め込む可能性がある。
私たちはDeepGate2という新しい機能認識学習フレームワークを紹介します。
- 参考スコア(独自算出の注目度): 10.75166513491573
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Circuit representation learning aims to obtain neural representations of
circuit elements and has emerged as a promising research direction that can be
applied to various EDA and logic reasoning tasks. Existing solutions, such as
DeepGate, have the potential to embed both circuit structural information and
functional behavior. However, their capabilities are limited due to weak
supervision or flawed model design, resulting in unsatisfactory performance in
downstream tasks. In this paper, we introduce DeepGate2, a novel
functionality-aware learning framework that significantly improves upon the
original DeepGate solution in terms of both learning effectiveness and
efficiency. Our approach involves using pairwise truth table differences
between sampled logic gates as training supervision, along with a well-designed
and scalable loss function that explicitly considers circuit functionality.
Additionally, we consider inherent circuit characteristics and design an
efficient one-round graph neural network (GNN), resulting in an order of
magnitude faster learning speed than the original DeepGate solution.
Experimental results demonstrate significant improvements in two practical
downstream tasks: logic synthesis and Boolean satisfiability solving. The code
is available at https://github.com/cure-lab/DeepGate2
- Abstract(参考訳): 回路表現学習は、回路要素の神経表現を得ることを目的としており、様々なEDAや論理推論タスクに適用できる有望な研究方向として登場した。
deepgateのような既存のソリューションは、回路構造情報と機能動作の両方を埋め込む可能性がある。
しかし、それらの能力は、弱い監督や欠陥のあるモデル設計のために制限されており、下流のタスクでは不満足なパフォーマンスをもたらす。
本稿では,DeepGate2について紹介する。DeepGateは,学習効率と効率の両面で,オリジナルのDeepGateソリューションを大幅に改善する,新しい機能認識学習フレームワークである。
我々のアプローチでは、サンプル論理ゲート間のペアワイズ真理表の違いをトレーニング監督として、回路機能を明確に考慮したよく設計されたスケーラブルな損失関数と併用する。
さらに,回路特性を考慮し,効率的な1ラウンドグラフニューラルネットワーク(GNN)を設計することにより,元のDeepGateソリューションよりも学習速度が桁違いに速くなった。
実験の結果,論理合成とブール充足性解法という2つの実用的な下流課題において有意な改善が示された。
コードはhttps://github.com/cure-lab/deepgate2で入手できる。
関連論文リスト
- DeepSeq2: Enhanced Sequential Circuit Learning with Disentangled Representations [9.79382991471473]
本稿では,シーケンシャル回路の学習を促進する新しいフレームワークであるDeepSeq2を紹介する。
効率的なDAG-GNN(Directed Acyclic Graph Neural Network)を用いることで、DeepSeq2は実行時間を著しく短縮し、モデルのスケーラビリティを向上させる。
DeepSeq2は、シーケンシャルな回路表現学習における新しいベンチマークを設定し、電力推定と信頼性解析における先行研究を上回っている。
論文 参考訳(メタデータ) (2024-11-01T11:57:42Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - DeepSeq: Deep Sequential Circuit Learning [10.402436619244911]
回路表現学習は電子設計自動化(EDA)分野における有望な研究方向である。
既存のソリューションは組合せ回路のみをターゲットにしており、その応用は著しく制限されている。
シーケンシャルネットリストのための新しい表現学習フレームワークであるDeepSeqを提案する。
論文 参考訳(メタデータ) (2023-02-27T09:17:35Z) - Biologically Plausible Learning on Neuromorphic Hardware Architectures [27.138481022472]
ニューロモルフィックコンピューティング(Neuromorphic Computing)は、アナログメモリの計算によってこの不均衡に直面している新興パラダイムである。
この研究は、異なる学習アルゴリズムがCompute-In-Memoryベースのハードウェアに与える影響を初めて比較し、その逆も行った。
論文 参考訳(メタデータ) (2022-12-29T15:10:59Z) - Planning for Sample Efficient Imitation Learning [52.44953015011569]
現在の模倣アルゴリズムは、高い性能と高環境サンプル効率を同時に達成するのに苦労している。
本研究では,環境内サンプルの効率と性能を同時に達成できる計画型模倣学習手法であるEfficientImitateを提案する。
実験結果から,EIは性能と試料効率の両立を図った。
論文 参考訳(メタデータ) (2022-10-18T05:19:26Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Towards Scaling Difference Target Propagation by Learning Backprop
Targets [64.90165892557776]
Different Target Propagationは,Gauss-Newton(GN)最適化と密接な関係を持つ生物学的に証明可能な学習アルゴリズムである。
本稿では、DTPがBPを近似し、階層的なフィードバックウェイトトレーニングを復元できる新しいフィードバックウェイトトレーニング手法を提案する。
CIFAR-10 と ImageNet 上で DTP が達成した最高の性能について報告する。
論文 参考訳(メタデータ) (2022-01-31T18:20:43Z) - Representation Learning of Logic Circuits [7.614021815435811]
本稿では,各ゲート上のベクトルとして回路の論理関数と構造情報を埋め込んだ表現学習ソリューションを提案する。
具体的には、学習のために回路を統一およびインバータグラフ形式に変換することを提案する。
次に,信号確率予測の先行学習として,実用的な回路における強い帰納バイアスを用いた新しいグラフニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-11-26T05:57:05Z) - Suppress and Balance: A Simple Gated Network for Salient Object
Detection [89.88222217065858]
両問題を同時に解くための単純なゲートネットワーク(GateNet)を提案する。
多レベルゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに最適に送信することができる。
さらに,提案したFold-ASPP操作(Fold-ASPP)に基づくアトラス空間ピラミッドプーリングを用いて,様々なスケールのサリアンオブジェクトを正確に位置決めする。
論文 参考訳(メタデータ) (2020-07-16T02:00:53Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z) - Evolving Neural Networks through a Reverse Encoding Tree [9.235550900581764]
本稿では,拡張性のあるニューラルネットワークを効率的に進化させる手法として,Reverse HANG Tree (RET) と呼ばれるトポロジカルエッジコーディングを取り入れた手法を提案する。
RETを用いた2種類のアプローチ - Binary search encoding (Bi-NEAT) のNEATとGolden-Section search encoding (GS-NEAT) のNEAT - は、連続学習環境のベンチマークにおける問題を解決するために設計された。
論文 参考訳(メタデータ) (2020-02-03T02:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。