論文の概要: Self-Supervised Graph Contrastive Pretraining for Device-level Integrated Circuits
- arxiv url: http://arxiv.org/abs/2502.08949v1
- Date: Thu, 13 Feb 2025 04:15:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:44.394140
- Title: Self-Supervised Graph Contrastive Pretraining for Device-level Integrated Circuits
- Title(参考訳): デバイスレベル集積回路の自己監督型グラフコントラスト前処理
- Authors: Sungyoung Lee, Ziyi Wang, Seunggeun Kim, Taekyun Lee, David Z. Pan,
- Abstract要約: DICE(Device-level Integrated Circuits)は、デバイスレベルで表現される任意の回路に対して、最初の自己教師付き事前学習グラフニューラルネットワーク(GNN)モデルである。
DICEは3つの下流タスクにまたがる大幅なパフォーマンス向上を実現し、アナログ回路とデジタル回路の両方の有効性を裏付ける。
- 参考スコア(独自算出の注目度): 8.117059763475488
- License:
- Abstract: Self-supervised graph representation learning has driven significant advancements in domains such as social network analysis, molecular design, and electronics design automation (EDA). However, prior works in EDA have mainly focused on the representation of gate-level digital circuits, failing to capture analog and mixed-signal circuits. To address this gap, we introduce DICE: Device-level Integrated Circuits Encoder, the first self-supervised pretrained graph neural network (GNN) model for any circuit expressed at the device level. DICE is a message-passing neural network (MPNN) trained through graph contrastive learning, and its pretraining process is simulation-free, incorporating two novel data augmentation techniques. Experimental results demonstrate that DICE achieves substantial performance gains across three downstream tasks, underscoring its effectiveness for both analog and digital circuits.
- Abstract(参考訳): 自己教師付きグラフ表現学習は、ソーシャルネットワーク分析、分子設計、電子設計自動化(EDA)といった分野において大きな進歩をもたらした。
しかし、EDAの以前の研究は主にゲートレベルのデジタル回路の表現に焦点を当てており、アナログ回路と混合信号回路の取得に失敗した。
デバイスレベル集積回路エンコーダ(Device-level Integrated Circuits Encoder)は、デバイスレベルで表現される任意の回路に対して、最初の自己教師付き事前学習グラフニューラルネットワーク(GNN)モデルである。
DICEはグラフコントラスト学習によって訓練されたメッセージパッシングニューラルネットワーク(MPNN)であり、その事前学習プロセスはシミュレーションなしで、2つの新しいデータ拡張技術が組み込まれている。
実験結果から,DICEは3つの下流タスクにおいて大幅な性能向上を実現し,アナログ回路とディジタル回路の両方の有効性を実証した。
関連論文リスト
- Circuit as Set of Points [39.14967611962792]
本稿では,回路部品を点雲として扱うことにより,回路設計の新しい視点を提案する。
このアプローチは、プリプロセッシングなしで生データから直接の機能抽出を可能にし、エンドツーエンドのトレーニングを可能にし、高いパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-10-26T14:22:43Z) - CktGNN: Circuit Graph Neural Network for Electronic Design Automation [67.29634073660239]
本稿では,回路トポロジ生成とデバイスサイズを同時に行う回路グラフニューラルネットワーク(CktGNN)を提案する。
オープンサーキットベンチマーク(OCB: Open Circuit Benchmark)は、オープンソースのデータセットで、10ドル(約10万円)の異なるオペレーショナルアンプを含む。
我々の研究は、アナログ回路のための学習ベースのオープンソース設計自動化への道を開いた。
論文 参考訳(メタデータ) (2023-08-31T02:20:25Z) - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling
and Design [68.1682448368636]
本稿では、新しい未知のトポロジや未知の予測タスクに適応可能な回路表現を学習するための教師付き事前学習手法を提案する。
異なる回路の変動位相構造に対処するため、各回路をグラフとして記述し、グラフニューラルネットワーク(GNN)を用いてノード埋め込みを学習する。
出力ノード電圧の予測における事前学習GNNは、新しい未知のトポロジや新しい回路レベル特性の予測に適応可能な学習表現を促進することができることを示す。
論文 参考訳(メタデータ) (2022-03-29T21:18:47Z) - LHNN: Lattice Hypergraph Neural Network for VLSI Congestion Prediction [70.31656245793302]
格子ハイパーグラフ(格子ハイパーグラフ)は、回路のための新しいグラフ定式化である。
LHNNは、F1スコアのU-netやPix2Pixと比べて、35%以上の改善を常に達成している。
論文 参考訳(メタデータ) (2022-03-24T03:31:18Z) - Monolithic Silicon Photonic Architecture for Training Deep Neural
Networks with Direct Feedback Alignment [0.6501025489527172]
CMOS互換シリコンフォトニックアーキテクチャによって実現されたニューラルネットワークのオンチップトレーニングを提案する。
提案手法では,エラーのバックプロパゲーションではなく,エラーフィードバックを用いてニューラルネットワークをトレーニングする,直接フィードバックアライメントトレーニングアルゴリズムを用いる。
オンチップMAC演算結果を用いて,MNISTデータセットを用いたディープニューラルネットワークのトレーニング実験を行った。
論文 参考訳(メタデータ) (2021-11-12T18:31:51Z) - Two-Timescale End-to-End Learning for Channel Acquisition and Hybrid
Precoding [94.40747235081466]
本研究では,ミリ波(mmWave)大規模マルチインプット多重出力(MIMO)システムのためのエンドツーエンドの深層学習に基づくジョイントトランスシーバ設計アルゴリズムを提案する。
我々は受信したパイロットを受信機でフィードバックビットにマッピングし、さらに送信機でハイブリッドプリコーダにフィードバックビットをマッピングするDNNアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-22T20:49:02Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。