論文の概要: AGMARL-DKS: An Adaptive Graph-Enhanced Multi-Agent Reinforcement Learning for Dynamic Kubernetes Scheduling
- arxiv url: http://arxiv.org/abs/2603.12031v1
- Date: Thu, 12 Mar 2026 15:09:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.169739
- Title: AGMARL-DKS: An Adaptive Graph-Enhanced Multi-Agent Reinforcement Learning for Dynamic Kubernetes Scheduling
- Title(参考訳): AGMARL-DKS: 動的Kubernetesスケジューリングのための適応型グラフ強化マルチエージェント強化学習
- Authors: Hamed Hamzeh,
- Abstract要約: クラウドネイティブなアプリケーションには、システムの安定性、リソース利用、関連するコストのバランスをとることのできる、インテリジェントなスケジューラが必要です。
現在の強化学習ベースのスケジューラには3つの大きな制限がある。
AGMARL-DKS(Adaptive Graph-enhanced Neural Multi-Agent Reinforcement Learning Dynamic Scheduler)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art cloud-native applications require intelligent schedulers that can effectively balance system stability, resource utilisation, and associated costs. While Kubernetes provides feasibility-based placement by default, recent research efforts have explored the use of reinforcement learning (RL) for more intelligent scheduling decisions. However, current RL-based schedulers have three major limitations. First, most of these schedulers use monolithic centralised agents, which are non-scalable for large heterogeneous clusters. Second, the ones that use multi-objective reward functions assume simple, static, linear combinations of the objectives. Third, no previous work has produced a stress-aware scheduler that can react adaptively to dynamic conditions. To address these gaps in current research, we propose the Adaptive Graph-enhanced Multi-Agent Reinforcement Learning Dynamic Kubernetes Scheduler (AGMARL-DKS). AGMARL-DKS addresses these gaps by introducing three major innovations. First, we construct a scalable solution by treating the scheduling challenge as a cooperative multi-agent problem, where every cluster node operates as an agent, employing centralised training methods before decentralised execution. Second, to be context-aware and yet decentralised, we use a Graph Neural Network (GNN) to build a state representation of the global cluster context at each agent. This represents an improvement over methods that rely solely on local observations. Finally, to make trade-offs between these objectives, we use a stress-aware lexicographical ordering policy instead of a simple, static linear weighting of these objectives. The evaluations in Google Kubernetes Engine (GKE) reveal that AGMARL-DKS significantly outperforms the default scheduler in terms of fault tolerance, utilisation, and cost, especially in scheduling batch and mission-critical workloads.
- Abstract(参考訳): 最先端のクラウドネイティブアプリケーションは、システムの安定性、リソース利用、関連するコストを効果的にバランスするインテリジェントなスケジューラを必要とします。
Kubernetesはデフォルトでフィージビリティベースの配置を提供するが、最近の研究で、よりインテリジェントなスケジューリング決定に強化学習(RL)を使用することが検討されている。
しかし、現在のRLベースのスケジューラには3つの大きな制限がある。
まず、これらのスケジューラのほとんどはモノリシックな集中型エージェントを使用しており、大きな異種クラスタではスケールできない。
第二に、多目的報酬関数を使用するものは、目的の単純で静的な線形結合を仮定する。
第三に、これまでの研究では動的条件に適応的に反応できるストレス対応スケジューラは作成されていない。
現在の研究におけるこれらのギャップを解決するために、Adaptive Graph-enhanced Multi-Agent Reinforcement Learning Dynamic Kubernetes Scheduler(AGMARL-DKS)を提案する。
AGMARL-DKSは3つの大きなイノベーションを導入してこれらのギャップに対処している。
まず、スケジューリング課題を協調的マルチエージェント問題として扱い、各クラスタノードがエージェントとして動作し、分散実行前に集中的なトレーニング手法を用いる、スケーラブルなソリューションを構築する。
第二に、コンテキストを認識しながら分散化するために、グラフニューラルネットワーク(GNN)を使用して、各エージェントでグローバルクラスタコンテキストの状態表現を構築します。
これは、局所的な観測のみに依存する手法よりも改善されたことを示している。
最後に、これらの目的間のトレードオフを行うために、これらの目的の単純で静的な線形重み付けではなく、ストレス対応の辞書順序付けポリシーを用いる。
Google Kubernetes Engine(GKE)の評価によると、AGMARL-DKSは、特にバッチとミッションクリティカルなワークロードのスケジューリングにおいて、フォールトトレランス、有効性、コストという点で、デフォルトスケジューラを著しく上回っている。
関連論文リスト
- Beyond Quantity: Trajectory Diversity Scaling for Code Agents [51.71414642763219]
Trajectory Diversity Scalingは、コードエージェントのためのデータ合成フレームワークである。
TDScalingは、(1)実際のサービスの論理的依存関係をキャプチャするBusiness Clusterメカニズム、(2)軌道コヒーレンスを強制するブループリント駆動のマルチエージェントパラダイム、(3)ロングテールシナリオを指向する適応的な進化メカニズムの4つの革新を統合しています。
論文 参考訳(メタデータ) (2026-02-03T07:43:03Z) - Towards a Science of Scaling Agent Systems [79.64446272302287]
エージェント評価の定義を定式化し,エージェント量,コーディネーション構造,モデル,タスク特性の相互作用として,スケーリング法則を特徴付ける。
協調指標を用いて予測モデルを導出し,R2=0をクロスバリデーションし,未知のタスク領域の予測を可能にする。
ツールコーディネーショントレードオフ: 固定的な計算予算の下では, ツールヘビータスクはマルチエージェントのオーバーヘッドから不均衡に悩まされ, 2) 能力飽和: 調整が減少または負のリターンを, 単一エージェントのベースラインが45%を超えると達成できる。
論文 参考訳(メタデータ) (2025-12-09T06:52:21Z) - Reinforcement Learning for Machine Learning Engineering Agents [52.03168614623642]
強化学習によって改善される弱いモデルによって支援されるエージェントは、はるかに大きいが静的モデルによって支援されるエージェントよりも優れていることを示す。
分散非同期RLフレームワークにおいて,高コストかつ高利回りな動作を増幅するための時間依存性の勾配更新を提案する。
また,早期に失敗するプログラムとほぼ正しくないプログラムを区別し,部分クレジットを提供する環境機器を提案する。
論文 参考訳(メタデータ) (2025-09-01T18:04:10Z) - AgentNet: Decentralized Evolutionary Coordination for LLM-based Multi-Agent Systems [22.291969093748005]
AgentNet(エージェントネット)は、マルチエージェントシステムのための分散化された検索型生成(RAG)ベースのフレームワークである。
静的ロールや集中制御の以前のアプローチとは異なり、AgentNetはエージェントがローカルの専門知識とコンテキストに基づいて接続とタスクのルーティングを調整することができる。
実験の結果,AgentNetは単一エージェントと集中型マルチエージェントのベースラインよりも高いタスク精度を実現することがわかった。
論文 参考訳(メタデータ) (2025-04-01T09:45:25Z) - FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - Hybrid intelligence for dynamic job-shop scheduling with deep
reinforcement learning and attention mechanism [28.28095225164155]
我々は、DJSPをマルコフ決定過程(MDP)として定式化し、強化学習(RL)に対処する。
本稿では,分割グラフを状態とするフレキシブルなハイブリッドフレームワークを提案する。
我々は、有名なOR-Libraryに基づく公開ベンチマークであるGymjspを紹介し、RLおよびDJSP研究コミュニティのための標準化されたオフザシェルフ施設を提供する。
論文 参考訳(メタデータ) (2022-01-03T09:38:13Z) - Smart Scheduling based on Deep Reinforcement Learning for Cellular
Networks [18.04856086228028]
深部強化学習(DRL)に基づくスマートスケジューリング手法を提案する。
実装フレンドリーな設計、すなわちエージェントのためのスケーラブルなニューラルネットワーク設計と仮想環境トレーニングフレームワークを提供する。
本研究では, DRLベースのスマートスケジューリングが従来のスケジューリング方式を上回り, 実用システムにも適用できることを示した。
論文 参考訳(メタデータ) (2021-03-22T02:09:16Z) - Dif-MAML: Decentralized Multi-Agent Meta-Learning [54.39661018886268]
我々は,MAML や Dif-MAML と呼ばれる協調型マルチエージェントメタ学習アルゴリズムを提案する。
提案手法により, エージェントの集合が線形速度で合意に達し, 集約MAMLの定常点に収束できることを示す。
シミュレーションの結果は従来の非協調的な環境と比較して理論的な結果と優れた性能を示している。
論文 参考訳(メタデータ) (2020-10-06T16:51:09Z) - Dynamic Scheduling for Stochastic Edge-Cloud Computing Environments
using A3C learning and Residual Recurrent Neural Networks [30.61220416710614]
A-Advantage-Actor-Critic(A3C)学習は、データが少ない動的なシナリオに迅速に適応することが知られ、Residual Recurrent Neural Network(R2N2)はモデルパラメータを迅速に更新する。
我々はR2N2アーキテクチャを用いて、多数のホストパラメータとタスクパラメータを時間パターンとともにキャプチャし、効率的なスケジューリング決定を提供する。
実世界のデータセットで実施された実験では、エネルギー消費、応答時間、ServiceLevelAgreementおよびランニングコストがそれぞれ14.4%、7.74%、31.9%、および4.64%で大幅に改善された。
論文 参考訳(メタデータ) (2020-09-01T13:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。