論文の概要: NeuroSteiner: A Graph Transformer for Wirelength Estimation
- arxiv url: http://arxiv.org/abs/2407.03792v1
- Date: Thu, 4 Jul 2024 09:55:22 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 18:32:28.375449
- Title: NeuroSteiner: A Graph Transformer for Wirelength Estimation
- Title(参考訳): NeuroSteiner: 線長推定のためのグラフ変換器
- Authors: Sahil Manchanda, Dana Kianfar, Markus Peschl, Romain Lepert, Michaël Defferrard,
- Abstract要約: WL推定のコスト-精度フロンティアをナビゲートするために、最適なRSMTソルバであるGeoSteinerを蒸留するニューラルネットワークであるNeuroSteinerを提案する。
NeuroSteinerはGeoSteinerによってラベル付けされた合成ネットでトレーニングされており、実際のチップ設計でトレーニングする必要がなくなる。
ISPD 2005と2019では、NeuroSteinerはGeoSteinerよりも60%速く、0.2%と30%のエラーを得られる。
- 参考スコア(独自算出の注目度): 4.043138617363288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A core objective of physical design is to minimize wirelength (WL) when placing chip components on a canvas. Computing the minimal WL of a placement requires finding rectilinear Steiner minimum trees (RSMTs), an NP-hard problem. We propose NeuroSteiner, a neural model that distills GeoSteiner, an optimal RSMT solver, to navigate the cost--accuracy frontier of WL estimation. NeuroSteiner is trained on synthesized nets labeled by GeoSteiner, alleviating the need to train on real chip designs. Moreover, NeuroSteiner's differentiability allows to place by minimizing WL through gradient descent. On ISPD 2005 and 2019, NeuroSteiner can obtain 0.3% WL error while being 60% faster than GeoSteiner, or 0.2% and 30%.
- Abstract(参考訳): 物理的設計のコアとなる目的は、チップ部品をキャンバスに配置する際のワイヤ長(WL)を最小化することである。
配置の最小WLを計算するには、NPハード問題である線形スタイナー最小木(RSMT)を見つける必要がある。
WL推定のコスト-精度フロンティアをナビゲートするために,最適なRSMTソルバであるGeoSteinerを蒸留するニューラルネットワークであるNeuroSteinerを提案する。
NeuroSteinerはGeoSteinerによってラベル付けされた合成ネットでトレーニングされており、実際のチップ設計でトレーニングする必要がなくなる。
さらに、NeuroSteinerの微分性は、勾配降下によるWLの最小化によって実現される。
ISPD 2005と2019では、NeuroSteinerはGeoSteinerよりも60%速く、0.2%と30%のエラーを得られる。
関連論文リスト
- GAT-Steiner: Rectilinear Steiner Minimal Tree Prediction Using GNNs [0.0]
グラフニューラルネットワーク(GNN)を用いて,RSMTにおける最適なスタイナー点を高精度に予測できることを示す。
我々は、ISPD19ベンチマークにおいて、ネットの99.846%を正確に予測するグラフアテンションネットワークモデルであるGAT-Steinerを提案する。
ランダムに生成されたベンチマークでは、GAT-Steinerは99.942%を正確に予測し、準最適ワイヤ長ネットでは平均で0.420%しか増加しない。
論文 参考訳(メタデータ) (2024-07-01T16:32:49Z) - Just How Flexible are Neural Networks in Practice? [89.80474583606242]
ニューラルネットワークは、パラメータを持つ少なくとも多くのサンプルを含むトレーニングセットに適合できると広く信じられている。
しかし実際には、勾配や正規化子など、柔軟性を制限したトレーニング手順によるソリューションしか見つからない。
論文 参考訳(メタデータ) (2024-06-17T12:24:45Z) - Fast Cell Library Characterization for Design Technology Co-Optimization Based on Graph Neural Networks [0.1752969190744922]
設計技術の共同最適化(DTCO)は、最適パワー、性能、領域を達成する上で重要な役割を果たす。
本稿では,高速かつ正確なセルライブラリ解析のためのグラフニューラルネットワーク(GNN)に基づく機械学習モデルを提案する。
論文 参考訳(メタデータ) (2023-12-20T06:10:27Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - NeuralFuse: Learning to Recover the Accuracy of Access-Limited Neural
Network Inference in Low-Voltage Regimes [52.51014498593644]
ディープラーニング(Deep Neural Network, DNN)は、機械学習においてユビキタスになったが、そのエネルギー消費は依然として注目すべき問題である。
我々は、低電圧状態における精度とエネルギーのトレードオフに対処する新しいアドオンモジュールであるNeuralFuseを紹介する。
1%のビットエラー率で、NeuralFuseはメモリアクセスエネルギーを最大24%削減し、精度を最大57%向上させることができる。
論文 参考訳(メタデータ) (2023-06-29T11:38:22Z) - Neuromorphic Control using Input-Weighted Threshold Adaptation [13.237124392668573]
比例積分微分(PID)コントローラのような基本的な低レベルコントローラでさえ複製することは依然として困難である。
本稿では,学習中に比例経路,積分経路,微分経路を組み込んだニューロモルフィック制御器を提案する。
本研究では,外乱の存在下での飛行によるバイオインスパイアされたアルゴリズムの安定性を実証する。
論文 参考訳(メタデータ) (2023-04-18T07:21:24Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Voltage-Dependent Synaptic Plasticity (VDSP): Unsupervised probabilistic
Hebbian plasticity rule based on neurons membrane potential [5.316910132506153]
ニューロモルフィックハードウェア上でのHebbの可塑性機構のオンライン実装のために,脳にインスパイアされた非教師なしローカル学習ルールを提案する。
提案したVDSP学習規則はシナプス後ニューロンのスパイクにのみシナプス伝導を更新する。
MNISTデータセット上の100個の出力ニューロンのネットワークに対して85.01 $ pm $ 0.76% (Mean $ pm $ S.D.) の精度を報告した。
論文 参考訳(メタデータ) (2022-03-21T14:39:02Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Low-Precision Training in Logarithmic Number System using Multiplicative
Weight Update [49.948082497688404]
大規模ディープニューラルネットワーク(DNN)のトレーニングは、現在かなりの量のエネルギーを必要としており、深刻な環境影響をもたらす。
エネルギーコストを削減するための有望なアプローチの1つは、DNNを低精度で表現することである。
対数数システム(LNS)と乗算重み更新訓練法(LNS-Madam)を併用した低精度トレーニングフレームワークを共同で設計する。
論文 参考訳(メタデータ) (2021-06-26T00:32:17Z) - Hessian Aware Quantization of Spiking Neural Networks [1.90365714903665]
ニューロモルフィックアーキテクチャは、可変ビット精度と局所ビット精度の大規模並列計算を可能にする。
SNNトレーニングの現在の勾配に基づく方法は、複数の状態変数を持つ複雑なニューロンモデルを使用する。
我々は、勾配に基づくトレーニングと互換性を保ちつつ、状態変数の数を4倍に削減する単純化されたニューロンモデルを提案する。
論文 参考訳(メタデータ) (2021-04-29T05:27:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。