論文の概要: DiffTune: Optimizing CPU Simulator Parameters with Learned
Differentiable Surrogates
- arxiv url: http://arxiv.org/abs/2010.04017v2
- Date: Sat, 5 Dec 2020 00:40:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 13:08:36.844601
- Title: DiffTune: Optimizing CPU Simulator Parameters with Learned
Differentiable Surrogates
- Title(参考訳): DiffTune: 学習可能なサロゲートによるCPUシミュレータパラメータの最適化
- Authors: Alex Renda, Yishen Chen, Charith Mendis, Michael Carbin
- Abstract要約: CPUシミュレータは、きめ細かいパラメータを設定するコストと複雑さのために不正確さに悩まされる。
DiffTuneは、粗い粒度のエンド・ツー・エンドの測定から基本ブロックCPUシミュレータのパラメータを学習するシステムである。
- 参考スコア(独自算出の注目度): 15.124107808802707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CPU simulators are useful tools for modeling CPU execution behavior. However,
they suffer from inaccuracies due to the cost and complexity of setting their
fine-grained parameters, such as the latencies of individual instructions. This
complexity arises from the expertise required to design benchmarks and
measurement frameworks that can precisely measure the values of parameters at
such fine granularity. In some cases, these parameters do not necessarily have
a physical realization and are therefore fundamentally approximate, or even
unmeasurable.
In this paper we present DiffTune, a system for learning the parameters of
x86 basic block CPU simulators from coarse-grained end-to-end measurements.
Given a simulator, DiffTune learns its parameters by first replacing the
original simulator with a differentiable surrogate, another function that
approximates the original function; by making the surrogate differentiable,
DiffTune is then able to apply gradient-based optimization techniques even when
the original function is non-differentiable, such as is the case with CPU
simulators. With this differentiable surrogate, DiffTune then applies
gradient-based optimization to produce values of the simulator's parameters
that minimize the simulator's error on a dataset of ground truth end-to-end
performance measurements. Finally, the learned parameters are plugged back into
the original simulator.
DiffTune is able to automatically learn the entire set of
microarchitecture-specific parameters within the Intel x86 simulation model of
llvm-mca, a basic block CPU simulator based on LLVM's instruction scheduling
model. DiffTune's learned parameters lead llvm-mca to an average error that not
only matches but lowers that of its original, expert-provided parameter values.
- Abstract(参考訳): cpuシミュレータは、cpuの実行動作のモデリングに有用なツールである。
しかし、個々の命令のレイテンシなどの細かいパラメータを設定するコストと複雑さのために、不正確さに悩まされる。
この複雑さは、そのような細かい粒度でパラメータの値を正確に測定できるベンチマークや測定フレームワークの設計に必要な専門知識から生じる。
場合によっては、これらのパラメータは物理的に実現可能でないため、基本的に近似的、あるいは測定不能である。
本稿では,x86 の基本ブロック CPU シミュレータのパラメータを粗粒度計測から学習するシステム DiffTune を提案する。
シミュレータが与えられたとき、DiffTuneは元のシミュレータを、元の関数を近似する別の関数である微分可能なサロゲートに置き換え、パラメータを学習する。
この微分可能なサロゲートを用いて、DiffTuneは勾配に基づく最適化を適用してシミュレータのパラメータの値を生成し、シミュレータのエラーを最小限に抑える。
最後に、学習したパラメータを元のシミュレータに戻す。
difftuneは、llvmの命令スケジューリングモデルに基づいた基本的なブロックcpuシミュレータであるllvm-mcaのintel x86シミュレーションモデルで、マイクロアーキテクチャ固有のパラメータセット全体を自動学習することができる。
difftune の学習パラメータは llvm-mca を平均エラーに導いており、これはオリジナルの専門家が提供するパラメータ値とマッチするだけでなく、低下させる。
関連論文リスト
- Optimization using Parallel Gradient Evaluations on Multiple Parameters [51.64614793990665]
本稿では,複数のパラメータからの勾配を勾配降下の各ステップで利用することができる凸最適化の一階法を提案する。
本手法では,複数のパラメータからの勾配を用いて,これらのパラメータを最適方向に更新する。
論文 参考訳(メタデータ) (2023-02-06T23:39:13Z) - Embed and Emulate: Learning to estimate parameters of dynamical systems
with uncertainty quantification [11.353411236854582]
本稿では,高次元力学系の不確実性を考慮したパラメータ推定のための学習エミュレータについて検討する。
私たちのタスクは、基礎となるパラメータの可能性のある値の範囲を正確に見積もることです。
結合した396次元のマルチスケールロレンツ96系において,本手法は典型的なパラメータ推定法よりも優れていた。
論文 参考訳(メタデータ) (2022-11-03T01:59:20Z) - DiSECt: A Differentiable Simulator for Parameter Inference and Control
in Robotic Cutting [71.50844437057555]
軟質材料を切断するための最初の微分可能シミュレータであるDiSECtについて述べる。
シミュレータは、符号付き距離場に基づく連続接触モデルにより有限要素法を増強する。
このシミュレータは, 最先端の商用解法を用いて, 結果の力やフィールドに適合するようにキャリブレーションできることを示す。
論文 参考訳(メタデータ) (2022-03-19T07:27:19Z) - Probabilistic Inference of Simulation Parameters via Parallel
Differentiable Simulation [34.30381620584878]
実世界の計測を正確に再現するには、シミュレーターが適切な物理系のモデルを持つ必要がある。
ベイズ推定手法を用いてパラメータを推定する後者の問題に対処する。
我々は、GPUコード生成と微分可能シミュレーションを利用して、多くの粒子に対するその可能性とその勾配を並列に評価する。
論文 参考訳(メタデータ) (2021-09-18T03:05:44Z) - BayesSimIG: Scalable Parameter Inference for Adaptive Domain
Randomization with IsaacGym [59.53949960353792]
BayesSimIGは、最近リリースされたNVIDIA IsaacGymと統合されたBayesSimの実装を提供するライブラリである。
BayesSimIGはNVIDIABoardと統合して、高次元の後方のスライスを簡単に視覚化する。
論文 参考訳(メタデータ) (2021-07-09T16:21:31Z) - Auto-Tuned Sim-to-Real Transfer [143.44593793640814]
シミュレーションで訓練されたポリシーは、しばしば現実世界に移されるときに失敗する。
ドメインのランダム化のようなこの問題に取り組む現在のアプローチには、事前の知識とエンジニアリングが必要である。
実世界に合わせてシミュレータシステムパラメータを自動的にチューニングする手法を提案する。
論文 参考訳(メタデータ) (2021-04-15T17:59:55Z) - GradInit: Learning to Initialize Neural Networks for Stable and
Efficient Training [59.160154997555956]
ニューラルネットワークを初期化するための自動化およびアーキテクチャ手法であるgradinitを提案する。
各ネットワーク層の分散は、SGDまたはAdamの単一ステップが最小の損失値をもたらすように調整される。
また、学習率のウォームアップを伴わずに、オリジナルのPost-LN Transformerを機械翻訳用にトレーニングすることもできる。
論文 参考訳(メタデータ) (2021-02-16T11:45:35Z) - Edge Federated Learning Via Unit-Modulus Over-The-Air Computation
(Extended Version) [64.76619508293966]
本稿では,効率の良いエッジフェデレーション学習を実現するために,UM-AirCompフレームワークを提案する。
ローカルモデルパラメータを同時にアップロードし、アナログビームフォーミングを通じてグローバルモデルパラメータを更新する。
車両間自動運転シミュレーションプラットフォームにおけるUM-AirCompの実装を実演する。
論文 参考訳(メタデータ) (2021-01-28T15:10:22Z) - Continuous Optimization Benchmarks by Simulation [0.0]
最適化アルゴリズムのテスト、比較、チューニング、理解にはベンチマーク実験が必要である。
以前の評価から得られたデータは、ベンチマークに使用される代理モデルのトレーニングに使用することができる。
本研究では,スペクトルシミュレーションにより連続最適化問題のシミュレーションが可能であることを示す。
論文 参考訳(メタデータ) (2020-08-14T08:50:57Z) - Black-Box Optimization with Local Generative Surrogates [6.04055755718349]
物理学や工学などの分野において、多くのプロセスは難易度を持つ非微分可能シミュレータでモデル化される。
本稿では,パラメータ空間の局所的近傍におけるシミュレータを近似するために,深部生成モデルを導入する。
パラメータ空間に対するシミュレータの依存性が低次元部分多様体に制約されている場合、本手法はベースライン法よりも高速にミニマを実現する。
論文 参考訳(メタデータ) (2020-02-11T19:02:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。