論文の概要: Reusing Auto-Schedules for Efficient DNN Compilation
- arxiv url: http://arxiv.org/abs/2201.05587v1
- Date: Fri, 14 Jan 2022 18:17:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 15:26:09.250961
- Title: Reusing Auto-Schedules for Efficient DNN Compilation
- Title(参考訳): 効率的なDNNコンパイルのための自動スケジュールの再利用
- Authors: Perry Gibson, Jos\'e Cano
- Abstract要約: チューニング-再利用は、テンソルプログラム間の自動スケジュールを特定し、再利用するための新しいアプローチである。
我々はこの概念をDeep Neural Networks (DNN) を用いて実証する。
チューニング-再利用は、最先端のAnsor自動スケジューリングを使って自動スケジューリングよりも少ない時間で最大のスピードアップを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Auto-scheduling is a process where a search algorithm automatically explores
candidate schedules (program transformations) for a given tensor program on a
given hardware platform to improve its performance. However this can be a very
time consuming process, depending on the complexity of the tensor program, and
capacity of the target device, with often many thousands of program variants
being explored. To address this, in this paper we introduce and demonstrate the
idea of \emph{tuning-reuse}, a novel approach to identify and re-use
auto-schedules between tensor programs. We demonstrate this concept using Deep
Neural Networks (DNNs), taking sets of auto-schedules from pre-tuned DNNs, and
using them to reduce the inference time of a new DNN. Given a set of pre-tuned
schedules, tuning-reuse provides its maximum speedup in less time than
auto-scheduling using the state-of-the-art Ansor auto-scheduler. On a set of
widely used DNN models, we apply tuning-reuse and achieve maximum speedups
between $1.16\times$ and $4.76\times$, while outperforming Ansor when given
limited tuning time.
- Abstract(参考訳): オートスケジューリング(Auto-scheduling)とは、検索アルゴリズムが所定のハードウェアプラットフォーム上のテンソルプログラムの候補スケジュール(プログラム変換)を自動的に探索し、その性能を改善するプロセスである。
しかし、テンソルプログラムの複雑さとターゲット装置の容量に依存するため、これは非常に時間を要するプロセスであり、しばしば数千のプログラム変種が探索されている。
そこで本論文では,テンソルプログラム間の自動スケジューリングを識別・再利用する新しい手法である 'emph{tuning-reuse} を提案し,実証する。
本稿では,この概念をDeep Neural Networks (DNN) を用いて実証し,事前調整したDNNから自動スケジューリングのセットを取り,新しいDNNの推論時間を短縮する手法を提案する。
事前調整されたスケジュールが与えられた場合、チューニング・リユースは最先端のAnsor自動スケジューリング装置を使用する自動スケジューリングよりも少ない時間で最大限のスピードアップを提供する。
広く使用されているDNNモデルのセットでは、チューニング-再利用を適用し、最大速度を1.16\times$から4.76\times$の間で達成する。
関連論文リスト
- Sparse-DySta: Sparsity-Aware Dynamic and Static Scheduling for Sparse
Multi-DNN Workloads [65.47816359465155]
複数のディープニューラルネットワーク(DNN)を並列に実行することは、両エッジデバイスで新たなワークロードとなっている。
スパースマルチDNNスケジューリングに静的なスケジューラパターンと動的スケジューラ情報の両方を利用する新しいスケジューラDystaを提案する。
提案手法は, 遅延制約違反率を最大10%削減し, 平均正規化ターンアラウンド時間で約4倍に向上する。
論文 参考訳(メタデータ) (2023-10-17T09:25:17Z) - HARL: Hierarchical Adaptive Reinforcement Learning Based Auto Scheduler
for Neural Networks [51.71682428015139]
効率的なテンソルプログラム探索のための強化学習に基づく自動スケジューリングシステムであるHARLを提案する。
HarLは、最先端のオートスケジューラと比較して、テンソル演算子の性能を22%改善し、探索速度を4.3倍改善する。
また、エンドツーエンドのニューラルネットワークでは、推論性能と探索速度も大幅に向上する。
論文 参考訳(メタデータ) (2022-11-21T04:15:27Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Hidet: Task Mapping Programming Paradigm for Deep Learning Tensor
Programs [11.338285393619042]
本稿では,スケジューリングプロセスをテンソルプログラムに組込み,タスクマッピングと呼ばれる専用マッピングを用いて計算の割り当てと順序付けを定義することを提案する。
提案するパラダイムでは、深層学習コンパイラであるHietを実装しています。
論文 参考訳(メタデータ) (2022-10-18T05:32:13Z) - AEGNN: Asynchronous Event-based Graph Neural Networks [54.528926463775946]
イベントベースのグラフニューラルネットワークは、標準のGNNを一般化して、イベントを"進化的"時間グラフとして処理する。
AEGNNは同期入力で容易に訓練でき、テスト時に効率的な「非同期」ネットワークに変換できる。
論文 参考訳(メタデータ) (2022-03-31T16:21:12Z) - Saving RNN Computations with a Neuron-Level Fuzzy Memoization Scheme [0.0]
リカレントニューラルネットワーク(Recurrent Neural Networks, RNN)は、音声認識や機械翻訳などのアプリケーションにおいて重要な技術である。
我々は,各ニューロンの出力を動的にキャッシュし,現在の出力が以前計算された結果に類似すると予測されたときに再利用する,ニューロンレベルのファジィメモ化スキームを構築した。
提案手法は26.7%以上の計算を回避し、21%の省エネと1.4倍の高速化を実現している。
論文 参考訳(メタデータ) (2022-02-14T09:02:03Z) - Automatic Mapping of the Best-Suited DNN Pruning Schemes for Real-Time
Mobile Acceleration [71.80326738527734]
本稿では,汎用的,きめ細かな構造化プルーニング手法とコンパイラの最適化を提案する。
提案手法は,より微細な構造化プルーニング手法とともに,最先端のDNN最適化フレームワークよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-22T23:53:14Z) - Spike-inspired Rank Coding for Fast and Accurate Recurrent Neural
Networks [5.986408771459261]
生物学的スパイクニューラルネットワーク(SNN)は、その出力の情報を時間的にエンコードすることができるが、人工ニューラルネットワーク(ANN)は従来はそうではない。
ここでは、SNNにインスパイアされたランク符号化(RC)のような時間符号化が、LSTMなどの従来のANNにも適用可能であることを示す。
RCトレーニングは推論中の時間と監視を著しく低減し、精度は最小限に抑えられる。
逐次分類の2つのおもちゃ問題と、最初の入力時間ステップ後にRCモデルが99.19%の精度を達成できる時間符号化MNISTデータセットにおいて、これらを実証する。
論文 参考訳(メタデータ) (2021-10-06T15:51:38Z) - CoSA: Scheduling by Constrained Optimization for Spatial Accelerators [1.9149970150912705]
我々は、Deep Neural Networks(DNN)アクセラレーターをスケジューリングするための制約最適化に基づくアプローチであるCoSAを提案する。
探索空間をナビゲートするデザイナの手法や反復的な手法に依存する既存のアプローチとは対照的に、CoSAはスケジューリング決定を制約最適化問題として表現している。
CoSA生成スケジュールは、最大2.5xの幾何学平均で最先端のアプローチを大幅に上回ることを実証します。
論文 参考訳(メタデータ) (2021-05-05T07:17:25Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。