論文の概要: Mixture-of-Schedulers: An Adaptive Scheduling Agent as a Learned Router for Expert Policies
- arxiv url: http://arxiv.org/abs/2511.11628v1
- Date: Fri, 07 Nov 2025 14:16:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.315829
- Title: Mixture-of-Schedulers: An Adaptive Scheduling Agent as a Learned Router for Expert Policies
- Title(参考訳): Mixture-of-Schedulers:エキスパートポリシーの学習ルータとしての適応型スケジューリングエージェント
- Authors: Xinbo Wang, Shian Jia, Ziyang Huang, Jing Cao, Mingli Song,
- Abstract要約: 本稿では,ワークロードと実行時に最適なスケジューリングポリシをインテリジェントにマッチングする軽量フレームワークであるAdaptive Scheduling Agent(ASA)を紹介する。
ASAのコアは、新しい、低オーバーヘッドのオフライン/オンラインアプローチである。
我々の評価は,ユーザエクスペリエンスの指標に着目した新しいベンチマークに基づいて,ASAがデフォルトのLinuxスケジューラを一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 45.88210980548133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern operating system schedulers employ a single, static policy, which struggles to deliver optimal performance across the diverse and dynamic workloads of contemporary systems. This "one-policy-fits-all" approach leads to significant compromises in fairness, throughput, and latency, particularly with the rise of heterogeneous hardware and varied application architectures. This paper proposes a new paradigm: dynamically selecting the optimal policy from a portfolio of specialized schedulers rather than designing a single, monolithic one. We present the Adaptive Scheduling Agent (ASA), a lightweight framework that intelligently matches workloads to the most suitable "expert" scheduling policy at runtime. ASA's core is a novel, low-overhead offline/online approach. First, an offline process trains a universal, hardware-agnostic machine learning model to recognize abstract workload patterns from system behaviors. Second, at runtime, ASA continually processes the model's predictions using a time-weighted probability voting algorithm to identify the workload, then makes a scheduling decision by consulting a pre-configured, machine-specific mapping table to switch to the optimal scheduler via Linux's sched_ext framework. This decoupled architecture allows ASA to adapt to new hardware platforms rapidly without expensive retraining of the core recognition model. Our evaluation, based on a novel benchmark focused on user-experience metrics, demonstrates that ASA consistently outperforms the default Linux scheduler (EEVDF), achieving superior results in 86.4% of test scenarios. Furthermore, ASA's selections are near-optimal, ranking among the top three schedulers in 78.6% of all scenarios. This validates our approach as a practical path toward more intelligent, adaptive, and responsive operating system schedulers.
- Abstract(参考訳): 現代のOSスケジューラは単一の静的ポリシーを採用しており、現代のシステムの多様な動的ワークロードに対して最適なパフォーマンスを提供するのに苦労している。
このアプローチは、フェアネス、スループット、レイテンシにおいて、特に異質なハードウェアとさまざまなアプリケーションアーキテクチャの台頭に重大な妥協をもたらす。
本稿では,単一のモノリシックな設計ではなく,特定のスケジューラのポートフォリオから最適なポリシーを動的に選択する,という新しいパラダイムを提案する。
本稿では,ワークロードと実行時に最も適した"専門家"スケジューリングポリシをインテリジェントにマッチングする軽量フレームワークであるAdaptive Scheduling Agent(ASA)を紹介する。
ASAのコアは、新しい、低オーバーヘッドのオフライン/オンラインアプローチである。
まず、オフラインプロセスは、普遍的でハードウェアに依存しない機械学習モデルをトレーニングし、システムの振る舞いから抽象的なワークロードパターンを認識する。
次に、ASAは、実行時に時間重み付き確率投票アルゴリズムを使用してモデルの予測を継続的に処理し、設定済みのマシン固有のマッピングテーブルを参照してスケジュール決定を行い、Linuxのsched_extフレームワークを介して最適なスケジューラに切り替える。
この分離アーキテクチャにより、ASAはコア認識モデルの高価な再トレーニングなしに、新しいハードウェアプラットフォームに迅速に適応することができる。
我々の評価は,ユーザエクスペリエンスの指標に着目した新しいベンチマークに基づいて,ASAがデフォルトのLinuxスケジューラ(EEVDF)を一貫して上回り,テストシナリオの86.4%で優れた結果が得られることを示した。
さらにASAの選択はほぼ最適であり、全シナリオの78.6%で上位3つのスケジューラにランクインしている。
これにより、よりインテリジェントで適応的で応答性の高いOSスケジューラへの実践的な道として、我々のアプローチを検証することができる。
関連論文リスト
- Towards Agentic OS: An LLM Agent Framework for Linux Schedulers [3.8068085728995307]
我々は、完全に自律的な大規模言語モデル(LLM)エージェントが、人間の関与なしにLinuxスケジューラを安全かつ効率的に最適化できる、最初のフレームワークであるSchedCPを紹介した。
評価の結果,SchedCPの性能改善は最大1.79倍,コスト削減は有意なエージェントアプローチに比べて13倍であることがわかった。
論文 参考訳(メタデータ) (2025-09-01T08:38:49Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Towards Optimal VPU Compiler Cost Modeling by using Neural Networks to
Infer Hardware Performances [58.720142291102135]
VPUNN"は低レベルのタスクプロファイリングに基づいてトレーニングされたニューラルネットワークベースのコストモデルである。
これは、IntelのVPUプロセッサのラインにおける最先端のコストモデリングよりも一貫して優れている。
論文 参考訳(メタデータ) (2022-05-09T22:48:39Z) - Elastic Architecture Search for Diverse Tasks with Different Resources [87.23061200971912]
本研究では,異なるリソースを持つ多様なタスクを効率的に配置する上で,クラス群に対応するリソース制約や関心のタスクをテスト時に動的に指定する,新たな課題について検討する。
従来のNASアプローチでは、全てのクラスのアーキテクチャを同時に設計することを模索しており、これはいくつかの個別のタスクに最適ではないかもしれない。
本稿では、様々なリソース制約のある多様なタスクに対して、実行時に即時特殊化を可能にする、Elastic Architecture Search (EAS)と呼ばれる斬新で一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T00:54:27Z) - Better than the Best: Gradient-based Improper Reinforcement Learning for
Network Scheduling [60.48359567964899]
パケット遅延を最小限に抑えるため,制約付き待ち行列ネットワークにおけるスケジューリングの問題を考える。
我々は、利用可能な原子ポリシーよりも優れたスケジューラを生成するポリシー勾配に基づく強化学習アルゴリズムを使用する。
論文 参考訳(メタデータ) (2021-05-01T10:18:34Z) - Deep Reinforcement Agent for Scheduling in HPC [1.6569798882223303]
クラスタスケジューラは、利用可能なシステムリソースにいつ、どのユーザジョブを割り当てるべきかを決定する。
本研究では,深層強化学習を活用したDRAS(Deep Reinforcement Agent for Scheduling)と呼ばれる自動HPCスケジューリングエージェントを提案する。
論文 参考訳(メタデータ) (2021-02-11T20:08:38Z) - Tailored Learning-Based Scheduling for Kubernetes-Oriented Edge-Cloud
System [54.588242387136376]
エッジクラウドシステムのための学習ベースのスケジューリングフレームワークkaisを紹介する。
まず,分散した要求ディスパッチに対応するために,協調型マルチエージェントアクタ-クリティックアルゴリズムを設計する。
次に,多種多様なシステムスケールと構造について,グラフニューラルネットワークを用いてシステム状態情報を埋め込む。
第3に、リクエストディスパッチとサービスオーケストレーションを調和させる2段階のスケジューリングメカニズムを採用します。
論文 参考訳(メタデータ) (2021-01-17T03:45:25Z) - MLComp: A Methodology for Machine Learning-based Performance Estimation
and Adaptive Selection of Pareto-Optimal Compiler Optimization Sequences [10.200899224740871]
組込みソフトウェア最適化のための新しい強化学習型ポリシー手法を提案する。
異なる機械学習モデルが自動的にテストされ、最適なものを選択する。
また、ターゲットとするプラットフォームやアプリケーションドメインに対して、フレームワークを効率的にトレーニングできることも示しています。
論文 参考訳(メタデータ) (2020-12-09T19:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。