論文の概要: Learning-driven Physically-aware Large-scale Circuit Gate Sizing
- arxiv url: http://arxiv.org/abs/2403.08193v1
- Date: Wed, 13 Mar 2024 02:33:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 15:49:52.240649
- Title: Learning-driven Physically-aware Large-scale Circuit Gate Sizing
- Title(参考訳): 学習駆動型物理認識型大規模回路ゲートサイズ
- Authors: Yuyang Ye, Peng Xu, Lizheng Ren, Tinghuan Chen, Hao Yan, Bei Yu,
Longxing Shi
- Abstract要約: ゲートサイズは、物理設計後のタイミング最適化において重要な役割を果たす。
既存の機械学習ベースのゲートサイズワークでは、複数のタイミングパスのタイミングを同時に最適化することはできない。
本稿では,大規模回路上でのタイミング性能を効率よく最適化するための,学習駆動型物理認識ゲートサイズフレームワークを提案する。
- 参考スコア(独自算出の注目度): 16.90892760282653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gate sizing plays an important role in timing optimization after physical
design. Existing machine learning-based gate sizing works cannot optimize
timing on multiple timing paths simultaneously and neglect the physical
constraint on layouts. They cause sub-optimal sizing solutions and
low-efficiency issues when compared with commercial gate sizing tools. In this
work, we propose a learning-driven physically-aware gate sizing framework to
optimize timing performance on large-scale circuits efficiently. In our
gradient descent optimization-based work, for obtaining accurate gradients, a
multi-modal gate sizing-aware timing model is achieved via learning timing
information on multiple timing paths and physical information on
multiple-scaled layouts jointly. Then, gradient generation based on the
sizing-oriented estimator and adaptive back-propagation are developed to update
gate sizes. Our results demonstrate that our work achieves higher timing
performance improvements in a faster way compared with the commercial gate
sizing tool.
- Abstract(参考訳): ゲートサイズは、物理設計後のタイミング最適化において重要な役割を果たす。
既存の機械学習ベースのゲートサイズワークでは、複数のタイミングパスのタイミングを同時に最適化することができず、レイアウトの物理的な制約を無視することはできない。
それらは、商用ゲートサイズツールと比較して、準最適サイズソリューションと低効率の問題を引き起こします。
本研究では,大規模回路上でのタイミング性能を効率的に最適化するための,学習駆動型物理認識ゲートサイズフレームワークを提案する。
勾配勾配勾配最適化に基づく作業では,複数タイミング経路のタイミング情報と複数スケールレイアウトの物理情報とを併用して,マルチモーダルゲートサイズ対応タイミングモデルを実現する。
そして、ゲートサイズを更新するために、サイズ指向推定器と適応バックプロパゲーションに基づく勾配生成を開発する。
本研究は,市販のゲートサイズツールと比較して,より高速なタイミング性能向上を実現することを実証した。
関連論文リスト
- Sparser is Faster and Less is More: Efficient Sparse Attention for Long-Range Transformers [58.5711048151424]
SPARSEK Attention(SPARSEK Attention)は、計算およびメモリ障害を克服するために設計された、新しいスパースアテンション機構である。
提案手法では,各クエリに対して一定数のKVペアを選択するために,スコアリングネットワークと差別化可能なトップkマスク演算子であるSPARSEKを統合する。
実験結果から,SPARSEK注意は従来のスパースアテンション法よりも優れていた。
論文 参考訳(メタデータ) (2024-06-24T15:55:59Z) - IR-Aware ECO Timing Optimization Using Reinforcement Learning [2.626217090103581]
本稿では、強化学習(RL)を用いたIR-drop-aware タイミング解析と ECO タイミング最適化を統合する。
物理設計および電力グリッド合成後に動作し、ゲートサイズによるIR滴によるタイミング劣化を補正する。
論文 参考訳(メタデータ) (2024-02-12T16:47:08Z) - Mechanic: A Learning Rate Tuner [52.4242550204696]
我々は,任意の基本最適化アルゴリズムの学習率尺度係数を調整し,自動的にスケジュールする手法を導入し,それをテクスチャメカニックと呼ぶ。
各種バッチサイズ,スケジュール,基本最適化アルゴリズムを用いて,大規模深層学習タスクにおけるテクスチャメカニックを厳格に評価する。
論文 参考訳(メタデータ) (2023-05-31T19:32:43Z) - A Machine Learning Approach to Improving Timing Consistency between
Global Route and Detailed Route [3.202646674984817]
不正確なタイミング予測は設計の労力を浪費し、回路性能を損なう。
この研究は、時間と「完全」ネットリストを最適化する最も初期の機会であるクロックツリー合成と配置の合法化の後のタイミング予測に焦点を当てている。
GR-based parasiticと時間推定のギャップを埋めるために,ポストGR最適化におけるポストDR結果のギャップを埋めるため,機械学習(ML)ベースのモデルを提案する。
論文 参考訳(メタデータ) (2023-05-11T16:01:23Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Enhancing Transformer Efficiency for Multivariate Time Series
Classification [12.128991867050487]
本稿では,モデル効率と精度,複雑さの関係を考察する手法を提案する。
ベンチマークMSSデータセットの総合実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-03-28T03:25:19Z) - An Adaptive and Scalable ANN-based Model-Order-Reduction Method for
Large-Scale TO Designs [22.35243726859667]
トポロジ最適化(TO)は、興味のある最適な性能で構造設計を得るための体系的なアプローチを提供する。
ディープラーニングベースのモデルは、プロセスの高速化のために開発されている。
MapNetは、粗いスケールから細かいスケールまでの関心領域をマッピングするニューラルネットワークである。
論文 参考訳(メタデータ) (2022-03-20T10:12:24Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - Overcoming Catastrophic Forgetting via Direction-Constrained
Optimization [43.53836230865248]
連続的な学習フレームワークにおいて,分類ネットワークの固定アーキテクチャを用いてディープラーニングモデルを学習するための最適化アルゴリズムの新たな設計について検討する。
本稿では,方向制約付き最適化(DCO)法について述べる。各タスクに対して,対応する最上向きの主方向を近似する線形オートエンコーダを導入する。
我々のアルゴリズムは、他の最先端の正規化に基づく連続学習法と比較して好適に機能することを示した。
論文 参考訳(メタデータ) (2020-11-25T08:45:21Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。