論文の概要: Progress Report: A Deep Learning Guided Exploration of Affine Unimodular
Loop Transformations
- arxiv url: http://arxiv.org/abs/2206.03684v1
- Date: Wed, 8 Jun 2022 05:47:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 01:49:17.316575
- Title: Progress Report: A Deep Learning Guided Exploration of Affine Unimodular
Loop Transformations
- Title(参考訳): Progress Report: A Deep Learning Guided Exploration of Affine Unimodular Loop Transformations
- Authors: Massinissa Merouani, Khaled Afif Boudaoud, Iheb Nassim Aouadj, Nassim
Tchoulak, Fatima Benbouzid-Sitayeb, Karima Benatchba, Hugh Leather, and
Riyadh Baghdadi
- Abstract要約: 本稿では,多面体コンパイラにおけるコードの自動最適化のための深層学習に基づくアプローチについて検討する。
提案手法は,アフィンループ変換と非アフィンループ変換の組み合わせを探索し,与えられたプログラムの実行時間を最小化する変換列を求める。
予備的な結果から,提案手法は芸術多面体コンパイラの状態よりも2.35倍の幾何平均高速化を実現することが示された。
- 参考スコア(独自算出の注目度): 1.5699353548228476
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In this paper, we present a work in progress about a deep learning based
approach for automatic code optimization in polyhedral compilers. The proposed
technique explores combinations of affine and non-affine loop transformations
to find the sequence of transformations that minimizes the execution time of a
given program. This exploration is guided by a deep learning based cost model
that evaluates the speedup that each sequence of transformations would yield.
Preliminary results show that the proposed techniques achieve a 2.35x geometric
mean speedup over state of the art polyhedral compilers (Pluto).
- Abstract(参考訳): 本稿では,多面体コンパイラにおけるコードの自動最適化のための深層学習手法について述べる。
提案手法では,アフィンループ変換と非アフィンループ変換の組み合わせを探索し,プログラムの実行時間を最小化する変換列を求める。
この探索はディープラーニングに基づくコストモデルによって導かれ、変換の各シーケンスがもたらすスピードアップを評価する。
予備結果は, art polyhedral compilers (pluto) の2.35倍の幾何平均高速化を実現することを示す。
関連論文リスト
- Ordering for Non-Replacement SGD [7.11967773739707]
我々は,アルゴリズムの非置換形式に対する収束率を改善する順序付けを求める。
我々は,強い凸関数と凸関数のステップサイズを一定かつ小さくするための最適順序付けを開発する。
さらに、注文とミニバッチを組み合わせることで、より複雑なニューラルネットワークにも適用できます。
論文 参考訳(メタデータ) (2023-06-28T00:46:58Z) - Recurrent Generic Contour-based Instance Segmentation with Progressive
Learning [111.31166268300817]
本稿では,一般的な輪郭型インスタンスセグメンテーションのための新しいディープネットワークアーキテクチャ,すなわちPolySnakeを提案する。
従来のSnakeアルゴリズムに動機付け,提案したPolySnakeはより優れた,堅牢なセグメンテーション性能を実現する。
論文 参考訳(メタデータ) (2023-01-21T05:34:29Z) - Faster Rates for the Frank-Wolfe Algorithm Using Jacobi Polynomials [14.112444998191698]
フランク・ウルフアルゴリズム(FW)は、大規模制約付き最適化問題の解法として人気がある。
FW はコンパクト凸集合上の滑らかな凸関数を最小化する際に、線型収束率に悩まされる。
論文 参考訳(メタデータ) (2021-10-19T05:11:23Z) - Nesterov Accelerated ADMM for Fast Diffeomorphic Image Registration [63.15453821022452]
ディープラーニングに基づくアプローチの最近の発展は、DiffIRのサブ秒間実行を実現している。
本稿では,中間定常速度場を機能的に構成する簡易な反復スキームを提案する。
次に、任意の順序の正規化項を用いて、これらの速度場に滑らかさを課す凸最適化モデルを提案する。
論文 参考訳(メタデータ) (2021-09-26T19:56:45Z) - A Discrete Variational Derivation of Accelerated Methods in Optimization [68.8204255655161]
最適化のための異なる手法を導出できる変分法を導入する。
我々は1対1の対応において最適化手法の2つのファミリを導出する。
自律システムのシンプレクティシティの保存は、ここでは繊維のみに行われる。
論文 参考訳(メタデータ) (2021-06-04T20:21:53Z) - A Reinforcement Learning Environment for Polyhedral Optimizations [68.8204255655161]
マルコフ決定過程(MDP)として多面体モデルにおける法的変換空間の形状に依存しない定式化を提案する。
変換を使う代わりに、定式化は可能なスケジュールの抽象空間に基づいている。
我々の総合的MDP定式化は、強化学習を用いて幅広いループで最適化ポリシーを学習することを可能にする。
論文 参考訳(メタデータ) (2021-04-28T12:41:52Z) - Deep Shells: Unsupervised Shape Correspondence with Optimal Transport [52.646396621449]
本稿では,3次元形状対応のための教師なし学習手法を提案する。
提案手法は,複数のデータセット上での最先端技術よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-28T22:24:07Z) - Optimization of Graph Total Variation via Active-Set-based Combinatorial
Reconditioning [48.42916680063503]
本稿では,この問題クラスにおける近位アルゴリズムの適応型事前条件付け手法を提案する。
不活性エッジのネスト・フォレスト分解により局所収束速度が保証されることを示す。
この結果から,局所収束解析は近似アルゴリズムにおける可変指標選択の指針となることが示唆された。
論文 参考訳(メタデータ) (2020-02-27T16:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。