論文の概要: AutoPhase: Juggling HLS Phase Orderings in Random Forests with Deep
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2003.00671v2
- Date: Wed, 4 Mar 2020 19:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 06:07:31.824577
- Title: AutoPhase: Juggling HLS Phase Orderings in Random Forests with Deep
Reinforcement Learning
- Title(参考訳): AutoPhase: 深い強化学習を伴うランダム森林におけるHLSフェーズオーダのジャグリング
- Authors: Qijing Huang, Ameer Haj-Ali, William Moses, John Xiang, Ion Stoica,
Krste Asanovic, John Wawrzynek
- Abstract要約: AutoPhaseは、プログラムを受け取り、深い強化学習を使用して、実行時間を最小限にするコンパイルパスのシーケンスを見つけるフレームワークである。
本稿では,-O3コンパイラフラグを使用する場合と比較して,AutoPhaseは回路性能を28%向上することを示す。
既存の最先端のソリューションとは異なり、我々の深層強化学習ソリューションは、実際のベンチマークを一般化する有望な結果を示している。
- 参考スコア(独自算出の注目度): 17.584552398664737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The performance of the code a compiler generates depends on the order in
which it applies the optimization passes. Choosing a good order--often referred
to as the phase-ordering problem, is an NP-hard problem. As a result, existing
solutions rely on a variety of heuristics. In this paper, we evaluate a new
technique to address the phase-ordering problem: deep reinforcement learning.
To this end, we implement AutoPhase: a framework that takes a program and uses
deep reinforcement learning to find a sequence of compilation passes that
minimizes its execution time. Without loss of generality, we construct this
framework in the context of the LLVM compiler toolchain and target high-level
synthesis programs. We use random forests to quantify the correlation between
the effectiveness of a given pass and the program's features. This helps us
reduce the search space by avoiding phase orderings that are unlikely to
improve the performance of a given program. We compare the performance of
AutoPhase to state-of-the-art algorithms that address the phase-ordering
problem. In our evaluation, we show that AutoPhase improves circuit performance
by 28% when compared to using the -O3 compiler flag, and achieves competitive
results compared to the state-of-the-art solutions, while requiring fewer
samples. Furthermore, unlike existing state-of-the-art solutions, our deep
reinforcement learning solution shows promising result in generalizing to real
benchmarks and 12,874 different randomly generated programs, after training on
a hundred randomly generated programs.
- Abstract(参考訳): コンパイラが生成するコードのパフォーマンスは、最適化が通過する順序に依存する。
良い順序を選ぶことは、しばしば位相順序問題と呼ばれるが、NPハード問題である。
その結果、既存のソリューションは様々なヒューリスティックに依存している。
本稿では,位相秩序問題に対処する新しい手法である深層強化学習の評価を行う。
この目的のために、我々はAutoPhaseを実装した。プログラムを受け取り、深い強化学習を使用して、実行時間を最小化するコンパイルパスのシーケンスを見つける。
汎用性を失うことなく、LLVMコンパイラツールチェーンのコンテキストでこのフレームワークを構築し、高レベルな合成プログラムをターゲットにする。
ランダムな森林を用いて、与えられたパスの有効性とプログラムの特徴の相関関係を定量化する。
これにより、与えられたプログラムのパフォーマンスを改善することのできないフェーズ順序を避けることで、検索スペースの削減に役立ちます。
位相順序問題に対処する最先端アルゴリズムとAutoPhaseの性能を比較した。
評価の結果,AutoPhaseは,-O3コンパイラフラグを用いた場合に比べて回路性能を28%向上し,より少ないサンプルを必要としながら,最先端のソリューションと比較して競合的な結果が得られることがわかった。
さらに,既存の最先端ソリューションとは異なり,本ソリューションでは,100個のランダム生成プログラムをトレーニングした結果,実ベンチマークと12,874種類のランダム生成プログラムに一般化する有望な結果を示す。
関連論文リスト
- Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Optimizing NOTEARS Objectives via Topological Swaps [41.18829644248979]
本稿では,候補アルゴリズムの集合に有効な手法を提案する。
内部レベルでは、対象が与えられた場合、オフ・ザ・アート制約を利用する。
提案手法は,他のアルゴリズムのスコアを大幅に改善する。
論文 参考訳(メタデータ) (2023-05-26T21:49:37Z) - NAPG: Non-Autoregressive Program Generation for Hybrid Tabular-Textual
Question Answering [52.10214317661547]
現在の数値推論法はプログラムシーケンスを自己回帰的にデコードする。
プログラム生成の精度は、デコードステップがエラー伝搬によって展開されるにつれて急激に低下する。
本稿では,非自己回帰型プログラム生成フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-07T11:25:21Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - Will Bilevel Optimizers Benefit from Loops [63.22466953441521]
AID-BiOとITD-BiOの2つの一般的な双レベルマトリクスは、自然に1つまたは2つのサブプロブレムを解決する。
AID-BiO と ITD-BiO の両ループ実装選択に適用可能な統合収束解析をまず確立する。
論文 参考訳(メタデータ) (2022-05-27T20:28:52Z) - Discovering Non-monotonic Autoregressive Orderings with Variational
Inference [67.27561153666211]
我々は、訓練データから高品質な生成順序を純粋に検出する、教師なし並列化可能な学習装置を開発した。
エンコーダを非因果的注意を持つトランスフォーマーとして実装し、1つのフォワードパスで置換を出力する。
言語モデリングタスクにおける経験的結果から,我々の手法は文脈認識であり,一定の順序と競合する,あるいはより優れた順序を見つけることができる。
論文 参考訳(メタデータ) (2021-10-27T16:08:09Z) - Searching for More Efficient Dynamic Programs [61.79535031840558]
本稿では,プログラム変換の集合,変換プログラムの効率を評価するための単純な指標,およびこの指標を改善するための探索手順について述べる。
実際に、自動検索は初期プログラムの大幅な改善を見出すことができることを示す。
論文 参考訳(メタデータ) (2021-09-14T20:52:55Z) - Learning algorithms from circuit lower bounds [0.0]
構成回路下界の様々な概念から効率的な学習アルゴリズムの既知の構成を再考する。
難しい問題を解こうとする多くのpサイズの回路の誤りを、特定のインタラクティブな方法で効率的に見つけることができれば、pサイズの回路は一様分布を通じてPACを学ぶことができることを証明します。
論文 参考訳(メタデータ) (2020-12-28T04:47:36Z) - Static Neural Compiler Optimization via Deep Reinforcement Learning [1.458855293397494]
本稿では,位相整合問題に対する深層強化学習手法を用いる。
LLVMのO3シークエンスを構成するサブシーケンスを用いて、エージェントはトレーニングに使用するソースコードのセット上でO3シークエンスより優れていることを学習する。
我々は、我々のアプローチを用いて訓練されたモデルは、ニューラル最適化エージェントとして現代のコンパイラに統合できると考えている。
論文 参考訳(メタデータ) (2020-08-20T13:16:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。