論文の概要: Autotuning PolyBench Benchmarks with LLVM Clang/Polly Loop Optimization
Pragmas Using Bayesian Optimization
- arxiv url: http://arxiv.org/abs/2010.08040v1
- Date: Thu, 15 Oct 2020 22:09:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 05:43:31.995218
- Title: Autotuning PolyBench Benchmarks with LLVM Clang/Polly Loop Optimization
Pragmas Using Bayesian Optimization
- Title(参考訳): ベイズ最適化を用いたLLVM Clang/Polly Loop Optimization Pragmasを用いたPolyBenchベンチマークの自動最適化
- Authors: Xingfu Wu, Michael Kruse, Prasanna Balaprakash, Hal Finkel, Paul
Hovland, Valerie Taylor, Mary Hall
- Abstract要約: オートチューニング(Autotuning)は、カーネルやアプリケーションの実装/設定が可能な検索スペースを探索するアプローチである。
ベイズ最適化を利用してパラメータ空間探索を行う自動チューニングフレームワークを開発した。
- 参考スコア(独自算出の注目度): 0.6583716093321499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An autotuning is an approach that explores a search space of possible
implementations/configurations of a kernel or an application by selecting and
evaluating a subset of implementations/configurations on a target platform
and/or use models to identify a high performance implementation/configuration.
In this paper, we develop an autotuning framework that leverages Bayesian
optimization to explore the parameter space search. We select six of the most
complex benchmarks from the application domains of the PolyBench benchmarks
(syr2k, 3mm, heat-3d, lu, covariance, and Floyd-Warshall) and apply the newly
developed LLVM Clang/Polly loop optimization pragmas to the benchmarks to
optimize them. We then use the autotuning framework to optimize the pragma
parameters to improve their performance. The experimental results show that our
autotuning approach outperforms the other compiling methods to provide the
smallest execution time for the benchmarks syr2k, 3mm, heat-3d, lu, and
covariance with two large datasets in 200 code evaluations for effectively
searching the parameter spaces with up to 170,368 different configurations. We
compare four different supervised learning methods within Bayesian optimization
and evaluate their effectiveness. We find that the Floyd-Warshall benchmark did
not benefit from autotuning because Polly uses heuristics to optimize the
benchmark to make it run much slower. To cope with this issue, we provide some
compiler option solutions to improve the performance.
- Abstract(参考訳): 自動チューニング(autotuning)は、ターゲットプラットフォーム上の実装/構成のサブセットを選択して評価することで、カーネルやアプリケーションの可能な実装/構成の検索空間を探索するアプローチである。
本稿では,ベイズ最適化を利用してパラメータ空間探索を行う自動チューニングフレームワークを開発した。
我々は、PolyBenchベンチマーク(syr2k, 3mm, heat-3d, lu, covariance, Floyd-Warshall)のアプリケーションドメインから最も複雑なベンチマークを6つ選び、新たに開発されたLLVM Clang/Pollyループ最適化アルゴリズムをベンチマークに適用して最適化する。
次に、自動チューニングフレームワークを使用して、pragmaパラメータを最適化し、パフォーマンスを向上させます。
実験の結果,我々の自動チューニング手法は,最大170,368の異なるパラメータ空間を効率的に探索するための200のコード評価において,2つの大きなデータセットに対して,ベンチマーク syr2k, 3mm, Heat-3d, lu, covariance の最小実行時間を提供するために,他のコンパイル手法よりも優れていた。
ベイズ最適化における4つの教師付き学習手法を比較し,その有効性を評価する。
Floyd-Warshallベンチマークは、Pollyがヒューリスティックスを使用してベンチマークを最適化し、実行をはるかに遅くするため、自動チューニングの恩恵を受けなかったことが分かりました。
この問題に対処するため、パフォーマンスを改善するためのコンパイラオプションソリューションをいくつか提供します。
関連論文リスト
- Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Compiler generated feedback for Large Language Models [3.86901256759401]
我々は,LLVMアセンブリのコードサイズを最適化するために,コンパイラフィードバックを備えたLarge Language Modelを用いたコンパイラ最適化において,新しいパラダイムを導入する。
このモデルは、最適化されていないLLVM IRを入力として取り、最適化されたIR、最適な最適化パス、最適化されていないIRと最適化されたIRの両方の命令数を生成する。
論文 参考訳(メタデータ) (2024-03-18T23:25:13Z) - VeLO: Training Versatile Learned Optimizers by Scaling Up [67.90237498659397]
私たちは、ディープラーニングの成功の背後にある同じスケーリングアプローチを活用して、汎用性を学びます。
私たちは、パラメータの更新を取り込み出力する小さなニューラルネットワークであるディープラーニングのためのインジェクションをトレーニングします。
学習したメタトレーニングコード、関連するトレインテストデータ、およびvelo-code.ioのベースラインを備えた広範なベンチマークスイートをオープンソースとして公開しています。
論文 参考訳(メタデータ) (2022-11-17T18:39:07Z) - An Empirical Evaluation of Zeroth-Order Optimization Methods on
AI-driven Molecule Optimization [78.36413169647408]
分子目的を最適化するための様々なZO最適化手法の有効性について検討する。
ZO符号に基づく勾配降下(ZO-signGD)の利点を示す。
本稿では,Guurcamol スイートから広く使用されているベンチマークタスクに対して,ZO 最適化手法の有効性を示す。
論文 参考訳(メタデータ) (2022-10-27T01:58:10Z) - Efficient Non-Parametric Optimizer Search for Diverse Tasks [93.64739408827604]
興味のあるタスクを直接検索できる,スケーラブルで汎用的なフレームワークを初めて提示する。
基礎となる数学表現の自然木構造に着想を得て、空間を超木に再配置する。
我々は,モンテカルロ法を木探索に適用し,レジェクションサンプリングと等価形状検出を備える。
論文 参考訳(メタデータ) (2022-09-27T17:51:31Z) - Learning to Superoptimize Real-world Programs [79.4140991035247]
本稿では,ニューラルシークエンス・ツー・シーケンス・モデルを用いて,実世界のプログラムを最適化するフレームワークを提案する。
我々は、x86-64アセンブリでオープンソースプロジェクトから抽出された25万以上の実世界の関数からなるデータセットであるBig Assemblyベンチマークを紹介した。
論文 参考訳(メタデータ) (2021-09-28T05:33:21Z) - Automatic Tuning of Tensorflow's CPU Backend using Gradient-Free
Optimization Algorithms [0.6543507682026964]
Deep Learning (DL) アプリケーションは、ジーンやPyTorchといったDLライブラリやフレームワークを使って構築されている。
これらのフレームワークは複雑なパラメータを持ち、優れたトレーニングを得るために調整する。
そこで,本論文では,トレーニングと推論性能を改善するために,DLフレームワークのパラメータをチューニングする問題をブラックボックス問題として扱う。
論文 参考訳(メタデータ) (2021-09-13T19:10:23Z) - Autotuning PolyBench Benchmarks with LLVM Clang/Polly Loop Optimization
Pragmas Using Bayesian Optimization (extended version) [0.8070511670572696]
LLVM Clang/Pollyループ最適化プラグマを用いてPolyBenchベンチマークを最適化する。
次に、自動調整フレームワークを使用して、pragmaパラメータを最適化してパフォーマンスを改善します。
本稿では,Floyd-Warshallベンチマークの性能向上のために,単純なmctreeオートチューニングフレームワークを用いたループ自動チューニングを提案する。
論文 参考訳(メタデータ) (2021-04-27T14:46:57Z) - Autotuning Search Space for Loop Transformations [0.03683202928838612]
本稿では,木の形をとるループ変換探索空間を提案する。
検索空間を探索する簡単なオートチューナーを実装し,選択したPolyBenchカーネルに適用した。
論文 参考訳(メタデータ) (2020-10-13T16:26:57Z) - Static Neural Compiler Optimization via Deep Reinforcement Learning [1.458855293397494]
本稿では,位相整合問題に対する深層強化学習手法を用いる。
LLVMのO3シークエンスを構成するサブシーケンスを用いて、エージェントはトレーニングに使用するソースコードのセット上でO3シークエンスより優れていることを学習する。
我々は、我々のアプローチを用いて訓練されたモデルは、ニューラル最適化エージェントとして現代のコンパイラに統合できると考えている。
論文 参考訳(メタデータ) (2020-08-20T13:16:29Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。