論文の概要: FIST: A Feature-Importance Sampling and Tree-Based Method for Automatic
Design Flow Parameter Tuning
- arxiv url: http://arxiv.org/abs/2011.13493v1
- Date: Thu, 26 Nov 2020 23:13:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:33:57.909948
- Title: FIST: A Feature-Importance Sampling and Tree-Based Method for Automatic
Design Flow Parameter Tuning
- Title(参考訳): FIST:自動設計フローパラメータチューニングのための特徴重要サンプリングとツリーベース手法
- Authors: Zhiyao Xie, Guan-Qi Fang, Yu-Hung Huang, Haoxing Ren, Yanqing Zhang,
Brucek Khailany, Shao-Yun Fang, Jiang Hu, Yiran Chen, Erick Carvajal Barboza
- Abstract要約: 限られた試行数で最高の設計品質を見つけることを目的とした,機械学習に基づく自動パラメータチューニング手法を提案する。
我々は最先端のXGBoostモデルを活用し、オーバーフィッティングを克服する新しい動的ツリー手法を提案する。
ベンチマーク回路の実験結果から,本手法は設計品質の25%向上やサンプリングコストの低減を実現していることがわかった。
- 参考スコア(独自算出の注目度): 27.08970520268831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Design flow parameters are of utmost importance to chip design quality and
require a painfully long time to evaluate their effects. In reality, flow
parameter tuning is usually performed manually based on designers' experience
in an ad hoc manner. In this work, we introduce a machine learning-based
automatic parameter tuning methodology that aims to find the best design
quality with a limited number of trials. Instead of merely plugging in machine
learning engines, we develop clustering and approximate sampling techniques for
improving tuning efficiency. The feature extraction in this method can reuse
knowledge from prior designs. Furthermore, we leverage a state-of-the-art
XGBoost model and propose a novel dynamic tree technique to overcome
overfitting. Experimental results on benchmark circuits show that our approach
achieves 25% improvement in design quality or 37% reduction in sampling cost
compared to random forest method, which is the kernel of a highly cited
previous work. Our approach is further validated on two industrial designs. By
sampling less than 0.02% of possible parameter sets, it reduces area by 1.83%
and 1.43% compared to the best solutions hand-tuned by experienced designers.
- Abstract(参考訳): 設計フローパラメータはチップの設計品質に最も重要であり、その効果を評価するのに苦痛を伴う長い時間を要する。
実際、フローパラメータチューニングは通常、設計者の経験に基づいて、アドホックな方法で手動で実行される。
本研究では,限られた試行数で最高の設計品質を求めることを目的とした,機械学習に基づく自動パラメータチューニング手法を提案する。
機械学習エンジンを単にプラグインする代わりに、チューニング効率を向上させるためにクラスタリングと近似サンプリング技術を開発した。
この手法の特徴抽出は,従来の設計から知識を再利用することができる。
さらに,最先端のxgboostモデルを利用し,オーバーフィッティングを克服するための新しい動的木手法を提案する。
ベンチマーク回路を用いた実験結果から,提案手法は設計品質の25%向上,サンプリングコストの37%削減を実現していることがわかった。
我々のアプローチは2つの産業設計でさらに検証されている。
可能なパラメータセットの0.02%以下をサンプリングすることで、経験豊富な設計者が手作業で調整した最良のソリューションと比較して、面積を1.83%と1.43%削減できる。
関連論文リスト
- Visual Fourier Prompt Tuning [63.66866445034855]
本稿では,大規模なトランスフォーマーモデルに適用するための汎用的で効果的な方法として,Visual Fourier Prompt Tuning (VFPT)法を提案する。
提案手法では,高速フーリエ変換を即時埋め込みに取り入れ,空間領域情報と周波数領域情報の両方を調和的に検討する。
提案手法は,2つのベンチマークにおいて,現状のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-02T18:18:35Z) - SaRA: High-Efficient Diffusion Model Fine-tuning with Progressive Sparse Low-Rank Adaptation [52.6922833948127]
本研究では,事前学習した拡散モデルにおけるパラメータの重要性について検討する。
本稿では,これらの非効率パラメータをフル活用するための新しいモデル微調整法を提案する。
本手法は,下流アプリケーションにおける事前学習モデルの生成能力を向上する。
論文 参考訳(メタデータ) (2024-09-10T16:44:47Z) - Automated Design and Optimization of Distributed Filtering Circuits via Reinforcement Learning [20.500468654567033]
そこで本研究では,DFC設計のための新しいエンドツーエンド自動手法を提案する。
提案手法は強化学習(RL)アルゴリズムを利用して,技術者の設計経験への依存を解消する。
本手法は, 複雑もしくは急速に発展するDFCの設計において, 優れた性能を実現する。
論文 参考訳(メタデータ) (2024-02-22T02:36:14Z) - Transfer-Learning-Based Autotuning Using Gaussian Copula [0.0]
ガウスコプラ(GC)に基づくTLに基づく最初の自動チューニング手法を提案する。
GCは、最初の評価で64.37%のピーク数ショットのパフォーマンスを達成することができる。さらに、GCモデルは、最大33.39$times$ speedupという数ショット転送予算を決定することができる。
論文 参考訳(メタデータ) (2024-01-09T16:52:57Z) - Towards General and Efficient Online Tuning for Spark [55.30868031221838]
本稿では,3つの問題を同時に処理できる汎用的で効率的なSparkチューニングフレームワークを提案する。
我々は、このフレームワークを独立したクラウドサービスとして実装し、Tencentのデータプラットフォームに適用しました。
論文 参考訳(メタデータ) (2023-09-05T02:16:45Z) - E^2VPT: An Effective and Efficient Approach for Visual Prompt Tuning [55.50908600818483]
新しいタスクのための微調整された大規模な事前学習型ビジョンモデルは、パラメーター集約化が進んでいる。
本稿では,大規模なトランスフォーマーモデル適応のための効果的かつ効率的なビジュアルプロンプトチューニング(E2VPT)手法を提案する。
提案手法は2つのベンチマークにおいて,最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2023-07-25T19:03:21Z) - Scaling & Shifting Your Features: A New Baseline for Efficient Model
Tuning [126.84770886628833]
既存の微調整法は、事前訓練されたモデルの全てのパラメータ(フル微調整)をチューニングするか、最後の線形層(線形プローブ)のみをチューニングする。
そこで本研究では,SSFと呼ばれるパラメータ効率の高いファインタニング手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T08:14:49Z) - Hyperboost: Hyperparameter Optimization by Gradient Boosting surrogate
models [0.4079265319364249]
現在の最先端の方法は、ランダムフォレストまたはガウスプロセスを利用してサーロゲートモデルを構築しています。
勾配向上に基づく新しいサロゲートモデルを提案する。
実験により,新しい手法は,ある程度の分類問題に対して,最先端技術より優れていることを示す。
論文 参考訳(メタデータ) (2021-01-06T22:07:19Z) - Self-Tuning Stochastic Optimization with Curvature-Aware Gradient
Filtering [53.523517926927894]
サンプルごとのHessian-vector積と勾配を用いて、自己チューニングの二次構造を構築する。
モデルに基づく手続きが雑音勾配設定に収束することを証明する。
これは自己チューニング二次体を構築するための興味深いステップである。
論文 参考訳(メタデータ) (2020-11-09T22:07:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。