論文の概要: Transferable Graph Optimizers for ML Compilers
- arxiv url: http://arxiv.org/abs/2010.12438v2
- Date: Sat, 20 Feb 2021 00:35:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 01:03:02.221580
- Title: Transferable Graph Optimizers for ML Compilers
- Title(参考訳): MLコンパイラのための転送可能なグラフ最適化
- Authors: Yanqi Zhou, Sudip Roy, Amirali Abdolrashidi, Daniel Wong, Peter Ma,
Qiumin Xu, Hanxiao Liu, Phitchaya Mangpo Phothilimthana, Shen Wang, Anna
Goldie, Azalia Mirhoseini, and James Laudon
- Abstract要約: 計算グラフ最適化(GO)のためのエンドツーエンドで転送可能な深層強化学習法を提案する。
GOは個々のノードに対して自動回帰ではなく,グラフ全体の決定を生成する。
GOは、人間の専門家よりも21%改善し、先行技術よりも18%改善し、15倍早く収束する。
- 参考スコア(独自算出の注目度): 18.353830282858834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most compilers for machine learning (ML) frameworks need to solve many
correlated optimization problems to generate efficient machine code. Current ML
compilers rely on heuristics based algorithms to solve these optimization
problems one at a time. However, this approach is not only hard to maintain but
often leads to sub-optimal solutions especially for newer model architectures.
Existing learning based approaches in the literature are sample inefficient,
tackle a single optimization problem, and do not generalize to unseen graphs
making them infeasible to be deployed in practice. To address these
limitations, we propose an end-to-end, transferable deep reinforcement learning
method for computational graph optimization (GO), based on a scalable
sequential attention mechanism over an inductive graph neural network. GO
generates decisions on the entire graph rather than on each individual node
autoregressively, drastically speeding up the search compared to prior methods.
Moreover, we propose recurrent attention layers to jointly optimize dependent
graph optimization tasks and demonstrate 33%-60% speedup on three graph
optimization tasks compared to TensorFlow default optimization. On a diverse
set of representative graphs consisting of up to 80,000 nodes, including
Inception-v3, Transformer-XL, and WaveNet, GO achieves on average 21%
improvement over human experts and 18% improvement over the prior state of the
art with 15x faster convergence, on a device placement task evaluated in real
systems.
- Abstract(参考訳): 機械学習(ML)フレームワーク用のほとんどのコンパイラは、効率的なマシンコードを生成するために多くの相関最適化問題を解く必要がある。
現在のMLコンパイラは、これらの最適化問題を一度に解くためにヒューリスティックスベースのアルゴリズムに依存している。
しかし、このアプローチはメンテナンスが難しいだけでなく、特に新しいモデルアーキテクチャにおいて、サブ最適化ソリューションにつながることが多い。
既存の学習ベースのアプローチはサンプル非効率であり、単一の最適化問題に取り組み、目に見えないグラフに一般化せず、実際にデプロイすることは不可能である。
これらの制約に対処するために,インダクティブグラフニューラルネットワーク上でスケーラブルな逐次注意機構に基づく計算グラフ最適化(go)のためのエンドツーエンドで転送可能な深層強化学習手法を提案する。
goは個々のノードではなく、グラフ全体の決定を自己回帰的に生成し、以前の方法に比べて検索を劇的にスピードアップする。
さらに,依存するグラフ最適化タスクを共同で最適化するリカレントアテンションレイヤを提案し,tensorflowのデフォルト最適化と比較して,3つのグラフ最適化タスクにおける33%~60%の高速化を示す。
inception-v3、transformer-xl、wavenetを含む80,000のノードからなる多様な代表グラフでは、実際のシステムで評価されたデバイス配置タスクにおいて、人間のエキスパートよりも平均21%改善され、以前の状態よりも18%改善されている。
関連論文リスト
- ALPS: Improved Optimization for Highly Sparse One-Shot Pruning for Large Language Models [14.310720048047136]
ALPSは,演算子分割法と事前条件付き勾配共役型後処理法を用いて,プルーニング問題に対処する最適化ベースのフレームワークである。
提案手法はベクトル化とGPU並列性を有効利用しながら収束を加速し理論的に保証する新しい手法を取り入れている。
OPT-30Bモデルでは70%の間隔で、ALPSはWikiTextデータセットにおけるテストの難易度を13%削減し、既存の手法と比較してゼロショットベンチマークのパフォーマンスを19%改善した。
論文 参考訳(メタデータ) (2024-06-12T02:57:41Z) - RESPECT: Reinforcement Learning based Edge Scheduling on Pipelined Coral
Edge TPUs [12.952987240366781]
本研究は、最適化アルゴリズムの挙動を学習する強化学習(RL)に基づくスケジューリングフレームワークを提案する。
RLは、実行時のオーバーヘッドを短くすることで、ほぼ最適のスケジューリング結果を生成する。
我々のフレームワークは、商用コンパイラ上での実世界のオンチップランタイム推論速度アップを最大$sim2.5times$で実証しています。
論文 参考訳(メタデータ) (2023-04-10T17:22:12Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Learning to Optimize Quasi-Newton Methods [22.504971951262004]
本稿では、最適化時に最適な事前条件をオンラインで学習するLODOと呼ばれる新しい機械学習を提案する。
他のL2Oメソッドとは異なり、LODOはトレーニングタスクの配布にメタトレーニングを一切必要としない。
この勾配は, 雑音場における逆 Hessian を近似し, 幅広い逆 Hessian を表現可能であることを示す。
論文 参考訳(メタデータ) (2022-10-11T03:47:14Z) - Alternately Optimized Graph Neural Networks [33.98939289745346]
グラフ上の半教師付き学習のための新しい最適化フレームワークを提案する。
提案手法は交互最適化アルゴリズムにより便利に解けるので,効率は大幅に向上する。
論文 参考訳(メタデータ) (2022-06-08T01:50:08Z) - Learning to Solve Combinatorial Graph Partitioning Problems via
Efficient Exploration [72.15369769265398]
実験により、ECORDは最大カット問題に対するRLアルゴリズムのための新しいSOTAを実現する。
最も近い競合と比較して、ECORDは最適性ギャップを最大73%削減する。
論文 参考訳(メタデータ) (2022-05-27T17:13:10Z) - Joint inference and input optimization in equilibrium networks [68.63726855991052]
ディープ均衡モデル(Deep equilibrium model)は、従来のネットワークの深さを予測し、代わりに単一の非線形層の固定点を見つけることによってネットワークの出力を計算するモデルのクラスである。
この2つの設定の間には自然なシナジーがあることが示されています。
この戦略は、生成モデルのトレーニングや、潜時符号の最適化、デノベートやインペインティングといった逆問題に対するトレーニングモデル、対逆トレーニング、勾配に基づくメタラーニングなど、様々なタスクにおいて実証される。
論文 参考訳(メタデータ) (2021-11-25T19:59:33Z) - A Primer on Zeroth-Order Optimization in Signal Processing and Machine
Learning [95.85269649177336]
ZO最適化は、勾配推定、降下方向、ソリューション更新の3つの主要なステップを反復的に実行する。
我々は,ブラックボックス深層学習モデルによる説明文の評価や生成,効率的なオンラインセンサ管理など,ZO最適化の有望な応用を実証する。
論文 参考訳(メタデータ) (2020-06-11T06:50:35Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Gumbel-softmax-based Optimization: A Simple General Framework for
Optimization Problems on Graphs [5.486093983007419]
本稿では,ディープラーニングフレームワークによって強化された高度な自動微分技術に基づく,シンプルで高速で汎用的なアルゴリズムフレームワークを提案する。
高品質なソリューションは、従来のアプローチに比べてはるかに少ない時間で得られる。
論文 参考訳(メタデータ) (2020-04-14T14:11:00Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。