論文の概要: ReLA: Representation Learning and Aggregation for Job Scheduling with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2601.03646v2
- Date: Thu, 08 Jan 2026 05:28:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 13:05:36.778788
- Title: ReLA: Representation Learning and Aggregation for Job Scheduling with Reinforcement Learning
- Title(参考訳): ReLA:強化学習によるジョブスケジューリングのための表現学習と集約
- Authors: Zhengyi Kwan, Wei Zhang, Aik Beng Ng, Zhengkui Wang, Simon See,
- Abstract要約: 構造化表現学習とアグリゲーションに基づく強化学習スケジューラであるReLAを提案する。
小規模、中規模、大規模なジョブインスタンスの実験では、ReLAはテスト済みのほとんどの設定で最高のペースパンを達成する。
その結果、ReLAの学習表現と集約がRLスケジューリングの強力な決定支援を提供することを確認した。
- 参考スコア(独自算出の注目度): 22.12474387188828
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Job scheduling is widely used in real-world manufacturing systems to assign ordered job operations to machines under various constraints. Existing solutions remain limited by long running time or insufficient schedule quality, especially when problem scale increases. In this paper, we propose ReLA, a reinforcement-learning (RL) scheduler built on structured representation learning and aggregation. ReLA first learns diverse representations from scheduling entities, including job operations and machines, using two intra-entity learning modules with self-attention and convolution and one inter-entity learning module with cross-attention. These modules are applied in a multi-scale architecture, and their outputs are aggregated to support RL decision-making. Across experiments on small, medium, and large job instances, ReLA achieves the best makespan in most tested settings over the latest solutions. On non-large instances, ReLA reduces the optimality gap of the SOTA baseline by 13.0%, while on large-scale instances it reduces the gap by 78.6%, with the average optimality gaps lowered to 7.3% and 2.1%, respectively. These results confirm that ReLA's learned representations and aggregation provide strong decision support for RL scheduling, and enable fast job completion and decision-making for real-world applications.
- Abstract(参考訳): ジョブスケジューリングは、様々な制約の下で機械に注文されたジョブ操作を割り当てるために、現実世界の製造システムで広く使われている。
既存のソリューションは、特に問題スケールが大きくなると、長時間実行時間やスケジュール品質の不足によって制限され続けます。
本稿では,構造化表現学習とアグリゲーションに基づく強化学習(RL)スケジューラReLAを提案する。
ReLAはまず、セルフアテンションと畳み込みを備えた2つのイントラエンタリティ学習モジュールと、クロスアテンションを備えた1つのイントラエンタリティ学習モジュールを使用して、ジョブ操作やマシンを含むスケジューリングエンティティからさまざまな表現を学習する。
これらのモジュールはマルチスケールアーキテクチャに適用され、その出力はRL決定をサポートするために集約される。
小規模、中規模、大規模なジョブインスタンスに関する実験全体を通じて、ReLAは、最新のソリューションよりもテスト済みのほとんどの設定で最高のペースパンを達成している。
非大規模インスタンスでは、ReLAはSOTAベースラインの最適性ギャップを13.0%削減し、大規模インスタンスでは78.6%削減し、平均最適性ギャップは7.3%と2.1%に低下した。
これらの結果は、ReLAが学習した表現と集約が、RLスケジューリングの強力な決定サポートを提供し、実世界のアプリケーションで高速なジョブ完了と意思決定を可能にすることを確認した。
関連論文リスト
- Stronger Together: On-Policy Reinforcement Learning for Collaborative LLMs [20.084201133669534]
マルチエージェントシステム(MAS)と強化学習(RL)は,大規模言語モデル(LLM)のエージェント能力を高めるために広く利用されている。
政治上のRLをMASに適用することはまだ未熟であり、ユニークな課題を提示している。
我々は,エージェントとターンワイドなグループ化RLアルゴリズムをMASに適合させるAT-GRPOと,単一・複数政治体制をサポートするトレーニングシステムを提案する。
論文 参考訳(メタデータ) (2025-10-13T06:55:09Z) - Fine-tuning with RAG for Improving LLM Learning of New Skills [8.825427873545063]
大規模言語モデル(LLM)エージェントは予測可能な方法で頻繁に失敗する。
本稿では,推論時間検索を蒸留による学習能力に変換する単純なパイプラインを提案する。
論文 参考訳(メタデータ) (2025-10-01T19:03:48Z) - Reinforcement Learning for Machine Learning Engineering Agents [52.03168614623642]
強化学習によって改善される弱いモデルによって支援されるエージェントは、はるかに大きいが静的モデルによって支援されるエージェントよりも優れていることを示す。
分散非同期RLフレームワークにおいて,高コストかつ高利回りな動作を増幅するための時間依存性の勾配更新を提案する。
また,早期に失敗するプログラムとほぼ正しくないプログラムを区別し,部分クレジットを提供する環境機器を提案する。
論文 参考訳(メタデータ) (2025-09-01T18:04:10Z) - Omni-Thinker: Scaling Multi-Task RL in LLMs with Hybrid Reward and Task Scheduling [66.0871543682453]
我々はOmni-Thinkerについて紹介する。Omni-Thinkerは多種多様なタスクにわたって大きな言語モデルをスケールする統合強化学習フレームワークである。
我々のスケジューラは,BWTに基づいてタスクを順序付けし,マルチタスク性能を向上する。
論文 参考訳(メタデータ) (2025-07-20T01:50:16Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Task Aware Modulation using Representation Learning: An Approach for Few Shot Learning in Environmental Systems [15.40286222692196]
TAM-RLは異種システムにおける少数ショット学習のための新しいフレームワークである。
2つの実環境データセット上でのTAM-RLの評価を行った。
論文 参考訳(メタデータ) (2023-10-07T07:55:22Z) - Learning What to Defer for Maximum Independent Sets [84.00112106334655]
本稿では,各段階における解の要素的決定を学習することにより,エージェントが適応的に段階数を縮小あるいは拡張する,新たなDRL方式を提案する。
提案手法を最大独立集合(MIS)問題に適用し、現状のDRL方式よりも大幅に改善したことを示す。
論文 参考訳(メタデータ) (2020-06-17T02:19:31Z) - Distributed Resource Scheduling for Large-Scale MEC Systems: A
Multi-Agent Ensemble Deep Reinforcement Learning with Imitation Acceleration [44.40722828581203]
本稿では,各MECサーバにデプロイされた各エージェントのグローバル情報と分散意思決定に依存する集中型トレーニングを含む分散インテリジェントリソーススケジューリング(DIRS)フレームワークを提案する。
まず,マルチエージェント・アンサンブルを用いた分散強化学習(DRL)アーキテクチャを導入し,各エージェントの全体的なニューラルネットワーク構造を簡素化する。
第2に,提案したDIRSフレームワークの探索能力を高めるために,新しいL'evyフライトサーチにより,最適に近い状態対が得られた。
論文 参考訳(メタデータ) (2020-05-21T20:04:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。