論文の概要: Net2: A Graph Attention Network Method Customized for Pre-Placement Net
Length Estimation
- arxiv url: http://arxiv.org/abs/2011.13522v1
- Date: Fri, 27 Nov 2020 01:47:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:48:53.010120
- Title: Net2: A Graph Attention Network Method Customized for Pre-Placement Net
Length Estimation
- Title(参考訳): net2:プレプレースメントネット長推定用にカスタマイズしたグラフアテンションネットワーク手法
- Authors: Zhiyao Xie, Rongjian Liang, Xiaoqing Xu, Jiang Hu, Yixiao Duan, Yiran
Chen
- Abstract要約: 本研究では、セル配置前の個々のネット長を推定するために、Net2と呼ばれるカスタマイズによるグラフアテンションネットワーク手法を提案する。
精度指向バージョンであるNet2aは、長いネットと長いクリティカルパスの両方を識別する以前のいくつかの研究よりも約15%精度が向上している。
高速バージョンであるNet2fは、配置よりも1000倍以上高速だが、さまざまな精度のメトリクスで、これまでの作業や他のニューラルネットワーク技術よりも優れている。
- 参考スコア(独自算出の注目度): 28.779032742624835
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Net length is a key proxy metric for optimizing timing and power across
various stages of a standard digital design flow. However, the bulk of net
length information is not available until cell placement, and hence it is a
significant challenge to explicitly consider net length optimization in design
stages prior to placement, such as logic synthesis. This work addresses this
challenge by proposing a graph attention network method with customization,
called Net2, to estimate individual net length before cell placement. Its
accuracy-oriented version Net2a achieves about 15% better accuracy than several
previous works in identifying both long nets and long critical paths. Its fast
version Net2f is more than 1000 times faster than placement while still
outperforms previous works and other neural network techniques in terms of
various accuracy metrics.
- Abstract(参考訳): net lengthは、標準のデジタルデザインフローの様々な段階にわたってタイミングとパワーを最適化するための重要なプロキシメトリックである。
しかし、ネット長情報の大多数はセル配置まで利用できないため、論理合成のような配置前の設計段階でネット長の最適化を明示的に検討することは重要な課題である。
この研究は、セル配置前の個々のネット長を推定するために、Net2と呼ばれるカスタマイズを伴うグラフ注意ネットワーク手法を提案することで、この問題に対処する。
精度指向バージョンであるNet2aは、長いネットと長いクリティカルパスの両方を識別する以前のいくつかの研究よりも約15%精度が向上している。
高速バージョンであるNet2fは、配置よりも1000倍以上高速だが、さまざまな精度のメトリクスで、これまでの作業や他のニューラルネットワーク技術よりも優れている。
関連論文リスト
- OMPQ: Orthogonal Mixed Precision Quantization [64.59700856607017]
混合精度量子化は、ハードウェアの多重ビット幅演算を利用して、ネットワーク量子化の全ポテンシャルを解き放つ。
本稿では、整数プログラミングの損失と高い相関関係にあるネットワーク性の概念であるプロキシメトリックを最適化することを提案する。
このアプローチは、量子化精度にほとんど妥協することなく、検索時間と必要なデータ量を桁違いに削減する。
論文 参考訳(メタデータ) (2021-09-16T10:59:33Z) - Semi-supervised Network Embedding with Differentiable Deep Quantisation [81.49184987430333]
我々はネットワーク埋め込みのための微分可能な量子化法であるd-SNEQを開発した。
d-SNEQは、学習された量子化符号にリッチな高次情報を与えるためにランク損失を組み込む。
トレーニング済みの埋め込みのサイズを大幅に圧縮できるため、ストレージのフットプリントが減少し、検索速度が向上する。
論文 参考訳(メタデータ) (2021-08-20T11:53:05Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Greedy Optimization Provably Wins the Lottery: Logarithmic Number of
Winning Tickets is Enough [19.19644194006565]
精度低下の許容範囲が指定されたニューラルネットワークのプルーク数を示す。
提案手法は,プルーンドネットワークと元のネットワークとの差が指数関数的に速い速度で減衰することを保証している。
本研究では,ResNet や MobilenetV2/V3 など,様々なネットワークアーキテクチャを ImageNet 上で刈り取る手法を実証的に改良する。
論文 参考訳(メタデータ) (2020-10-29T22:06:31Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - Learning Deep ReLU Networks Is Fixed-Parameter Tractable [21.625005195943707]
ガウス入力に関して未知のReLUネットワークを学習する問題を考察する。
ランニング時間が周囲次元の固定重みとなるアルゴリズムを与える。
我々の境界は、隠れた単位数、深さ、スペクトルノルムのスペクトルノルム、リプシッツ定数に依存する。
論文 参考訳(メタデータ) (2020-09-28T17:58:43Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - FADNet: A Fast and Accurate Network for Disparity Estimation [18.05392578461659]
本研究では,FADNetという分散度推定のための効率的かつ高精度なディープネットワークを提案する。
高速な計算を保存するために、2Dベースの効率的な相関層と積み重ねブロックを利用する。
精度を向上させるために、マルチスケールの重みスケジューリングトレーニング技術を活用するために、マルチスケールの予測を含んでいる。
論文 参考訳(メタデータ) (2020-03-24T10:27:11Z) - BitPruning: Learning Bitlengths for Aggressive and Accurate Quantization [57.14179747713731]
精度を維持しつつ,任意の粒度で推論ビット長を最小化するためのトレーニング手法を提案する。
ImageNetでは、平均4.13ビット、3.76ビット、4.36ビットを生成する。
論文 参考訳(メタデータ) (2020-02-08T04:58:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。