論文の概要: FOGA: Flag Optimization with Genetic Algorithm
- arxiv url: http://arxiv.org/abs/2105.07202v1
- Date: Sat, 15 May 2021 11:29:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 01:58:05.036626
- Title: FOGA: Flag Optimization with Genetic Algorithm
- Title(参考訳): foga: 遺伝的アルゴリズムによるフラグ最適化
- Authors: Burak Ta\u{g}tekin, Berkan H\"oke, Mert Kutay Sezer, Mahiye
Uluya\u{g}mur \"Ozt\"urk
- Abstract要約: GCCフラグ最適化のための自動チューニングソリューションとして,Frag Optimization with Genetic Algorithm (FOGA)を提案する。
FOGAによって提供される最適化フラグの助けを借りて,C++ソースコードの実行時間を大幅に高速化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, program autotuning has become very popular especially in embedded
systems, when we have limited resources such as computing power and memory
where these systems run generally time-critical applications. Compiler
optimization space gradually expands with the renewed compiler options and
inclusion of new architectures. These advancements bring autotuning even more
important position. In this paper, we introduced Flag Optimization with Genetic
Algorithm (FOGA) as an autotuning solution for GCC flag optimization. FOGA has
two main advantages over the other autotuning approaches: the first one is the
hyperparameter tuning of the genetic algorithm (GA), the second one is the
maximum iteration parameter to stop when no further improvement occurs. We
demonstrated remarkable speedup in the execution time of C++ source codes with
the help of optimization flags provided by FOGA when compared to the state of
the art framework OpenTuner.
- Abstract(参考訳): 近年,プログラムの自動チューニングが特に組込みシステムで盛んに行われており,一般に時間クリティカルなアプリケーションを実行する計算能力やメモリなどのリソースが限られている。
コンパイラ最適化スペースは、新しいコンパイラオプションと新しいアーキテクチャの導入によって徐々に拡大する。
これらの進歩により、オートチューニングはより重要となる。
本稿では,GCCフラグ最適化のための自動チューニングソリューションとして,Frag Optimization with Genetic Algorithm (FOGA)を導入した。
ひとつは遺伝的アルゴリズム(ga)のハイパーパラメータチューニングであり、もうひとつは、さらなる改善が起こらない場合に停止する最大反復パラメータである。
我々は、アートフレームワークOpenTunerと比較して、FOGAが提供する最適化フラグを使用して、C++ソースコードの実行時間を大幅に高速化した。
関連論文リスト
- All-to-all reconfigurability with sparse and higher-order Ising machines [0.0]
オール・ツー・オールのネットワーク機能をエミュレートする多重アーキテクチャを導入する。
適応並列テンパリングアルゴリズムの実行は、競合するアルゴリズムと事前ファクターの利点を示す。
pビットIMのスケールされた磁気バージョンは、汎用最適化のための最先端技術よりも桁違いに改善される可能性がある。
論文 参考訳(メタデータ) (2023-11-21T20:27:02Z) - COGNAC: Circuit Optimization via Gradients and Noise-Aware Compilation [0.29998889086656577]
我々は、量子回路をコンパイルするための新しい戦略であるCOGNACを提案する。
ゲートを絡み合う時間帯に通知される単純なノイズモデルを用いる。
我々は、多数の明示的な消去書き直し規則を必要とせず、回路のゲート数を削減した。
論文 参考訳(メタデータ) (2023-11-05T20:59:27Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - QFactor: A Domain-Specific Optimizer for Quantum Circuit Instantiation [0.8258451067861933]
本稿では、量子回路のインスタンス化、合成、およびコンパイル法で使用される数値最適化演算のためのドメイン固有アルゴリズムを提案する。
QFactorは解析手法とともにテンソルネットワークの定式化と反復的な局所最適化アルゴリズムを用いて問題パラメータの数を削減する。
論文 参考訳(メタデータ) (2023-06-13T21:51:20Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - An Accelerated Variance-Reduced Conditional Gradient Sliding Algorithm
for First-order and Zeroth-order Optimization [111.24899593052851]
条件勾配アルゴリズム(Frank-Wolfeアルゴリズムとも呼ばれる)は、最近、機械学習コミュニティで人気を取り戻している。
ARCSは、ゼロ階最適化において凸問題を解く最初のゼロ階条件勾配スライディング型アルゴリズムである。
1次最適化では、ARCSの収束結果は、勾配クエリのオラクルの数で、従来のアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-09-18T07:08:11Z) - Autotuning Search Space for Loop Transformations [0.03683202928838612]
本稿では,木の形をとるループ変換探索空間を提案する。
検索空間を探索する簡単なオートチューナーを実装し,選択したPolyBenchカーネルに適用した。
論文 参考訳(メタデータ) (2020-10-13T16:26:57Z) - Static Neural Compiler Optimization via Deep Reinforcement Learning [1.458855293397494]
本稿では,位相整合問題に対する深層強化学習手法を用いる。
LLVMのO3シークエンスを構成するサブシーケンスを用いて、エージェントはトレーニングに使用するソースコードのセット上でO3シークエンスより優れていることを学習する。
我々は、我々のアプローチを用いて訓練されたモデルは、ニューラル最適化エージェントとして現代のコンパイラに統合できると考えている。
論文 参考訳(メタデータ) (2020-08-20T13:16:29Z) - Incorporating Expert Prior in Bayesian Optimisation via Space Warping [54.412024556499254]
大きな探索空間では、アルゴリズムは関数の最適値に達する前に、いくつかの低関数値領域を通過する。
このコールドスタートフェーズの1つのアプローチは、最適化を加速できる事前知識を使用することである。
本稿では,関数の事前分布を通じて,関数の最適性に関する事前知識を示す。
先行分布は、探索空間を最適関数の高確率領域の周りに拡張し、最適関数の低確率領域の周りに縮小するようにワープする。
論文 参考訳(メタデータ) (2020-03-27T06:18:49Z) - Proximal Gradient Algorithm with Momentum and Flexible Parameter Restart
for Nonconvex Optimization [73.38702974136102]
アルゴリズムの高速化のために,パラメータ再起動方式が提案されている。
本論文では,非滑らかな問題を解くアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-26T16:06:27Z) - On the Dual Formulation of Boosting Algorithms [92.74617630106559]
AdaBoost,LogitBoost,Soft-marginBoostのラグランジュ問題は、すべて一般化されたヒンジ損失エントロピーの双対問題であることを示す。
これらのブースティングアルゴリズムの2つの問題を見て、より良いマージン分布を維持するという観点から、ブースティングの成功を理解することができることを示す。
論文 参考訳(メタデータ) (2009-01-23T02:14:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。