論文の概要: A Comparative Study of OpenMP Scheduling Algorithm Selection Strategies
- arxiv url: http://arxiv.org/abs/2507.20312v1
- Date: Sun, 27 Jul 2025 15:10:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.378849
- Title: A Comparative Study of OpenMP Scheduling Algorithm Selection Strategies
- Title(参考訳): OpenMPスケジューリングアルゴリズム選択戦略の比較検討
- Authors: Jonas H. Müller Korndörfer, Ali Mohammed, Ahmed Eleliemy, Quentin Guilloteau, Reto Krummenacher, Florina M. Ciorba,
- Abstract要約: 我々は,OpenMPにおけるスケジューリングアルゴリズムの選択のための学習に基づくアプローチを提案し,評価する。
その結果,RL法は高い性能のスケジューリング決定を学習できることがわかった。
このアプローチはMPIベースのプログラムにも拡張可能で、並列性の複数のレベルにまたがるスケジューリング決定の最適化を可能にする。
- 参考スコア(独自算出の注目度): 4.068270792140994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scientific and data science applications are becoming increasingly complex, with growing computational and memory demands. Modern high performance computing (HPC) systems provide high parallelism and heterogeneity across nodes, devices, and cores. To achieve good performance, effective scheduling and load balancing techniques are essential. Parallel programming frameworks such as OpenMP now offer a variety of advanced scheduling algorithms to support diverse applications and platforms. This creates an instance of the scheduling algorithm selection problem, which involves identifying the most suitable algorithm for a given combination of workload and system characteristics. In this work, we explore learning-based approaches for selecting scheduling algorithms in OpenMP. We propose and evaluate expert-based and reinforcement learning (RL)-based methods, and conduct a detailed performance analysis across six applications and three systems. Our results show that RL methods are capable of learning high-performing scheduling decisions, although they require significant exploration, with the choice of reward function playing a key role. Expert-based methods, in contrast, rely on prior knowledge and involve less exploration, though they may not always identify the optimal algorithm for a specific application-system pair. By combining expert knowledge with RL-based learning, we achieve improved performance and greater adaptability. Overall, this work demonstrates that dynamic selection of scheduling algorithms during execution is both viable and beneficial for OpenMP applications. The approach can also be extended to MPI-based programs, enabling optimization of scheduling decisions across multiple levels of parallelism.
- Abstract(参考訳): 科学とデータサイエンスのアプリケーションはますます複雑になり、計算とメモリの需要が増えている。
現代のハイパフォーマンスコンピューティング(HPC)システムは、ノード、デバイス、コア間で高い並列性と異質性を提供する。
優れた性能を達成するためには、効率的なスケジューリングと負荷分散技術が不可欠である。
OpenMPのような並列プログラミングフレームワークは、様々なアプリケーションやプラットフォームをサポートするために、様々な高度なスケジューリングアルゴリズムを提供する。
これは、所定のワークロードとシステム特性の組み合わせに対して最も適したアルゴリズムを特定することを含むスケジューリングアルゴリズム選択問題のインスタンスを作成する。
本研究では,OpenMPにおけるスケジューリングアルゴリズムの選択のための学習に基づくアプローチについて検討する。
エキスパートベースおよび強化学習(RL)に基づく手法を提案し評価し、6つのアプリケーションと3つのシステムにまたがって詳細な性能解析を行う。
以上の結果から,RL法は高い性能のスケジューリング決定を学習できるが,大きな探索が必要であり,報酬関数の選択が重要な役割を担っていることが明らかとなった。
対照的に、エキスパートベースの手法は事前の知識に依存し、探索を少なくするが、特定のアプリケーションとシステムの組み合わせに対して最適なアルゴリズムを常に特定するとは限らない。
専門知識とRLに基づく学習を組み合わせることで,性能の向上と適応性の向上を実現した。
全体として、この研究は、実行中のスケジューリングアルゴリズムの動的選択がOpenMPアプリケーションに有効かつ有益であることを示している。
このアプローチはMPIベースのプログラムにも拡張可能で、並列性の複数のレベルにまたがるスケジューリング決定の最適化を可能にする。
関連論文リスト
- How Should We Meta-Learn Reinforcement Learning Algorithms? [74.37180723338591]
メタ学習型アルゴリズムに適用した場合、異なるアプローチの実証的な比較を行う。
また, メタトレインとメタテスト性能に加えて, 解釈可能性, サンプルコスト, 列車時間などの要因についても検討した。
我々は,将来学習されるアルゴリズムが可能な限り高性能であることを保証するために,新しいRLアルゴリズムをメタラーニングするためのガイドラインをいくつか提案する。
論文 参考訳(メタデータ) (2025-07-23T16:31:38Z) - Decentralized Distributed Proximal Policy Optimization (DD-PPO) for High Performance Computing Scheduling on Multi-User Systems [45.62643537023675]
本研究では,分散型分散プロキシポリシー最適化(DD-PPO)アルゴリズムを用いた新しいRLベースのスケジューラを提案する。
DD-PPOアルゴリズムは、各ステップでパラメータ同期を必要とせずに、複数のワーカーにまたがる大規模な分散トレーニングをサポートする。
検証データセットは、1150万以上の実際のHPCジョブトレースを利用して、DD-PPOのパフォーマンスを従来のスケジューリング手法と高度なスケジューリング手法と比較した。
論文 参考訳(メタデータ) (2025-05-06T19:50:37Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Machine Learning Insides OptVerse AI Solver: Design Principles and
Applications [74.67495900436728]
本稿では,Huawei CloudのOpsVerse AIソルバに機械学習(ML)技術を統合するための総合的研究について述べる。
本稿では,実世界の多面構造を反映した生成モデルを用いて,複雑なSATインスタンスとMILPインスタンスを生成する手法を紹介する。
本稿では,解解器性能を著しく向上させる,最先端パラメータチューニングアルゴリズムの導入について詳述する。
論文 参考訳(メタデータ) (2024-01-11T15:02:15Z) - Accelerating Exact Combinatorial Optimization via RL-based
Initialization -- A Case Study in Scheduling [1.3053649021965603]
本研究の目的は、最適化問題に対処する機械学習(ML)を用いた革新的なアプローチを開発することである。
1) 粗粒スケジューラとしての解法, 2) 解緩和, 3) ILPによる正確な解法の3つのステップを含む新しい2段階のRL-to-ILPスケジューリングフレームワークを導入する。
提案フレームワークは, 正確なスケジューリング手法と比較して, 最大128ドルの高速化を実現しつつ, 同一のスケジューリング性能を示す。
論文 参考訳(メタデータ) (2023-08-19T15:52:43Z) - Deep reinforcement learning applied to an assembly sequence planning
problem with user preferences [1.0558951653323283]
本稿では,アセンブリシーケンス計画問題におけるDRL手法の実装に対するアプローチを提案する。
提案手法では,RL環境のパラメトリックな動作を導入し,トレーニング時間とサンプル効率を改善する。
その結果,人的相互作用を伴う組立シーケンス計画問題への深層強化学習の適用の可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-13T14:25:15Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Geometric Deep Reinforcement Learning for Dynamic DAG Scheduling [8.14784681248878]
本稿では,現実的なスケジューリング問題を解決するための強化学習手法を提案する。
高性能コンピューティングコミュニティにおいて一般的に実行されるアルゴリズムであるColesky Factorizationに適用する。
我々のアルゴリズムは,アクター・クリティカル・アルゴリズム (A2C) と組み合わせてグラフニューラルネットワークを用いて,問題の適応表現をオンザフライで構築する。
論文 参考訳(メタデータ) (2020-11-09T10:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。