論文の概要: A Reinforcement Learning Environment for Polyhedral Optimizations
- arxiv url: http://arxiv.org/abs/2104.13732v2
- Date: Thu, 29 Apr 2021 08:04:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 10:27:36.256669
- Title: A Reinforcement Learning Environment for Polyhedral Optimizations
- Title(参考訳): 多面的最適化のための強化学習環境
- Authors: Alexander Brauckmann, Andr\'es Goens, Jeronimo Castrillon
- Abstract要約: マルコフ決定過程(MDP)として多面体モデルにおける法的変換空間の形状に依存しない定式化を提案する。
変換を使う代わりに、定式化は可能なスケジュールの抽象空間に基づいている。
我々の総合的MDP定式化は、強化学習を用いて幅広いループで最適化ポリシーを学習することを可能にする。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The polyhedral model allows a structured way of defining semantics-preserving
transformations to improve the performance of a large class of loops. Finding
profitable points in this space is a hard problem which is usually approached
by heuristics that generalize from domain-expert knowledge. Existing problem
formulations in state-of-the-art heuristics depend on the shape of particular
loops, making it hard to leverage generic and more powerful optimization
techniques from the machine learning domain. In this paper, we propose PolyGym,
a shape-agnostic formulation for the space of legal transformations in the
polyhedral model as a Markov Decision Process (MDP). Instead of using
transformations, the formulation is based on an abstract space of possible
schedules. In this formulation, states model partial schedules, which are
constructed by actions that are reusable across different loops. With a simple
heuristic to traverse the space, we demonstrate that our formulation is
powerful enough to match and outperform state-of-the-art heuristics. On the
Polybench benchmark suite, we found transformations that led to a speedup of
3.39x over LLVM O3, which is 1.83x better than the speedup achieved by ISL. Our
generic MDP formulation enables using reinforcement learning to learn
optimization policies over a wide range of loops. This also contributes to the
emerging field of machine learning in compilers, as it exposes a novel problem
formulation that can push the limits of existing methods.
- Abstract(参考訳): 多面体モデルは、セマンティクス保存変換を定義する構造化方法を可能にし、ループの大規模なクラスのパフォーマンスを向上させる。
この空間の利益点を見つけることは、通常、ドメインエキスパート知識から一般化するヒューリスティックスによってアプローチされる難しい問題である。
最先端のヒューリスティックにおける既存の問題の定式化は、特定のループの形状に依存するため、機械学習領域からの汎用的で強力な最適化技術を活用することは困難である。
本稿では,多面体モデルにおける正則変換空間をマルコフ決定過程(mdp)として定式化した多面体であるpolygymを提案する。
変換を使う代わりに、定式化は可能なスケジュールの抽象空間に基づいている。
この定式化では、状態は部分スケジュールをモデル化し、異なるループにわたって再利用可能なアクションによって構成される。
空間を横切るための単純なヒューリスティックでは、我々の定式化が最先端のヒューリスティックに適合し、性能を上回るほど強力であることを示す。
Polybenchベンチマークスイートでは、LLVM O3よりも3.39倍のスピードアップを実現した変換が見つかりました。
我々の汎用MDP定式化は、強化学習を用いて幅広いループで最適化ポリシーを学習することを可能にする。
これはまた、既存のメソッドの限界を押し上げることができる新しい問題定式化を公開するため、コンパイラにおける機械学習の新興分野にも寄与する。
関連論文リスト
- Structure Language Models for Protein Conformation Generation [66.42864253026053]
伝統的な物理学に基づくシミュレーション手法は、しばしばサンプリング平衡整合に苦しむ。
深い生成モデルは、より効率的な代替としてタンパク質のコンホメーションを生成することを約束している。
本稿では,効率的なタンパク質コンホメーション生成のための新しいフレームワークとして構造言語モデリングを紹介する。
論文 参考訳(メタデータ) (2024-10-24T03:38:51Z) - LOOPer: A Learned Automatic Code Optimizer For Polyhedral Compilers [1.7529897611426233]
ディープラーニングに基づくコストモデルを用いた,最初の多面体自動スケジューリングシステムである LOOPer を紹介する。
大規模なアフィン変換の探索をサポートし、多面体変換の複雑な配列を適用できる。
また、複数のループネストと長方形および非矩形反復領域を持つプログラムの最適化もサポートする。
論文 参考訳(メタデータ) (2024-03-18T07:22:31Z) - Machine Learning Optimized Orthogonal Basis Piecewise Polynomial Approximation [0.9208007322096533]
Piecewise Polynomials (PP) は、軌道計画のようないくつかの工学分野において、点の集合の形で与えられる位置プロファイルを近似するために用いられる。
論文 参考訳(メタデータ) (2024-03-13T14:34:34Z) - Universal Neural Functionals [67.80283995795985]
多くの現代の機械学習タスクでは、ウェイトスペース機能を処理することが難しい問題である。
最近の研究は、単純なフィードフォワードネットワークの置換対称性に同値な有望な重み空間モデルを開発した。
本研究は,任意の重み空間に対する置換同変モデルを自動的に構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-07T20:12:27Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Progress Report: A Deep Learning Guided Exploration of Affine Unimodular
Loop Transformations [1.5699353548228476]
本稿では,多面体コンパイラにおけるコードの自動最適化のための深層学習に基づくアプローチについて検討する。
提案手法は,アフィンループ変換と非アフィンループ変換の組み合わせを探索し,与えられたプログラムの実行時間を最小化する変換列を求める。
予備的な結果から,提案手法は芸術多面体コンパイラの状態よりも2.35倍の幾何平均高速化を実現することが示された。
論文 参考訳(メタデータ) (2022-06-08T05:47:42Z) - Differentiable Spline Approximations [48.10988598845873]
微分プログラミングは機械学習のスコープを大幅に強化した。
標準的な微分可能なプログラミング手法(autodiffなど)は、通常、機械学習モデルが微分可能であることを要求する。
この再設計されたヤコビアンを予測モデルにおける微分可能な「層」の形で活用することで、多様なアプリケーションの性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-04T16:04:46Z) - ResNet-LDDMM: Advancing the LDDMM Framework Using Deep Residual Networks [86.37110868126548]
本研究では,eulerの離散化スキームに基づく非定常ode(フロー方程式)の解法として,深層残留ニューラルネットワークを用いた。
複雑なトポロジー保存変換の下での3次元形状の多種多様な登録問題について述べる。
論文 参考訳(メタデータ) (2021-02-16T04:07:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。