論文の概要: Accelerating Exact Combinatorial Optimization via RL-based
Initialization -- A Case Study in Scheduling
- arxiv url: http://arxiv.org/abs/2308.11652v1
- Date: Sat, 19 Aug 2023 15:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 17:26:57.285486
- Title: Accelerating Exact Combinatorial Optimization via RL-based
Initialization -- A Case Study in Scheduling
- Title(参考訳): RLに基づく初期化によるエクサクティビティ最適化の高速化-スケジューリングのケーススタディ
- Authors: Jiaqi Yin and Cunxi Yu
- Abstract要約: 本研究の目的は、最適化問題に対処する機械学習(ML)を用いた革新的なアプローチを開発することである。
1) 粗粒スケジューラとしての解法, 2) 解緩和, 3) ILPによる正確な解法の3つのステップを含む新しい2段階のRL-to-ILPスケジューリングフレームワークを導入する。
提案フレームワークは, 正確なスケジューリング手法と比較して, 最大128ドルの高速化を実現しつつ, 同一のスケジューリング性能を示す。
- 参考スコア(独自算出の注目度): 1.3053649021965603
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Scheduling on dataflow graphs (also known as computation graphs) is an
NP-hard problem. The traditional exact methods are limited by runtime
complexity, while reinforcement learning (RL) and heuristic-based approaches
struggle with determinism and solution quality. This research aims to develop
an innovative approach that employs machine learning (ML) for addressing
combinatorial optimization problems, using scheduling as a case study. The goal
is to provide guarantees in optimality and determinism while maintaining the
runtime cost of heuristic methods. Specifically, we introduce a novel two-phase
RL-to-ILP scheduling framework, which includes three steps: 1) RL solver acts
as coarse-grain scheduler, 2) solution relaxation and 3) exact solving via ILP.
Our framework demonstrates the same scheduling performance compared with using
exact scheduling methods while achieving up to 128 $\times$ speed improvements.
This was conducted on actual EdgeTPU platforms, utilizing ImageNet DNN
computation graphs as input. Additionally, the framework offers improved
on-chip inference runtime and acceleration compared to the commercially
available EdgeTPU compiler.
- Abstract(参考訳): データフローグラフのスケジューリング(計算グラフとも呼ばれる)はNPハード問題である。
従来の厳密な手法は実行時の複雑さによって制限されるが、強化学習(RL)とヒューリスティックベースのアプローチは決定論とソリューションの品質に苦しむ。
本研究の目的は、スケジューリングを事例研究として、組合せ最適化問題に対処する機械学習(ML)を用いた革新的なアプローチを開発することである。
目標は、ヒューリスティックなメソッドの実行コストを維持しながら、最適性と決定性の保証を提供することである。
具体的には,新しい2段階のRL-to-ILPスケジューリングフレームワークを提案する。
1)RLソルバは粗粒スケジューラとして機能する。
2【解緩和・解法】
3) ILPによる正確な解法。
提案フレームワークは, 正確なスケジューリング手法と比較して, 最大128$\times$スピード改善を実現しながら, 同じスケジューリング性能を示す。
これは実際のEdgeTPUプラットフォーム上で行われ、ImageNet DNN計算グラフを入力として利用した。
さらに、このフレームワークは市販のEdgeTPUコンパイラと比較して、オンチップ推論ランタイムとアクセラレーションが改善されている。
関連論文リスト
- Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - RESPECT: Reinforcement Learning based Edge Scheduling on Pipelined Coral
Edge TPUs [12.952987240366781]
本研究は、最適化アルゴリズムの挙動を学習する強化学習(RL)に基づくスケジューリングフレームワークを提案する。
RLは、実行時のオーバーヘッドを短くすることで、ほぼ最適のスケジューリング結果を生成する。
我々のフレームワークは、商用コンパイラ上での実世界のオンチップランタイム推論速度アップを最大$sim2.5times$で実証しています。
論文 参考訳(メタデータ) (2023-04-10T17:22:12Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - A Heuristically Assisted Deep Reinforcement Learning Approach for
Network Slice Placement [0.7885276250519428]
本稿では,Deep Reinforcement Learning(DRL)に基づくハイブリッド配置ソリューションと,Power of Two Choices原則に基づく専用最適化を提案する。
提案したHuristically-Assisted DRL (HA-DRL) は,他の最先端手法と比較して学習プロセスの高速化と資源利用の促進を可能にする。
論文 参考訳(メタデータ) (2021-05-14T10:04:17Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Geometric Deep Reinforcement Learning for Dynamic DAG Scheduling [8.14784681248878]
本稿では,現実的なスケジューリング問題を解決するための強化学習手法を提案する。
高性能コンピューティングコミュニティにおいて一般的に実行されるアルゴリズムであるColesky Factorizationに適用する。
我々のアルゴリズムは,アクター・クリティカル・アルゴリズム (A2C) と組み合わせてグラフニューラルネットワークを用いて,問題の適応表現をオンザフライで構築する。
論文 参考訳(メタデータ) (2020-11-09T10:57:21Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。