論文の概要: A Production Scheduling Framework for Reinforcement Learning Under Real-World Constraints
- arxiv url: http://arxiv.org/abs/2506.13566v1
- Date: Mon, 16 Jun 2025 14:50:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.706746
- Title: A Production Scheduling Framework for Reinforcement Learning Under Real-World Constraints
- Title(参考訳): 実世界制約下での強化学習のための生産スケジューリングフレームワーク
- Authors: Jonathan Hoss, Felix Schelling, Noah Klarmann,
- Abstract要約: 実世界の運用環境は、従来のスケジューリングアプローチの効率を低下させる追加の複雑さを導入します。
強化学習(RL)はこれらの課題に対処する可能性を秘めている。
JobShopLabは、研究開発と産業アプリケーションの両方のためのオープンソースのツールだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The classical Job Shop Scheduling Problem (JSSP) focuses on optimizing makespan under deterministic constraints. Real-world production environments introduce additional complexities that cause traditional scheduling approaches to be less effective. Reinforcement learning (RL) holds potential in addressing these challenges, as it allows agents to learn adaptive scheduling strategies. However, there is a lack of a comprehensive, general-purpose frameworks for effectively training and evaluating RL agents under real-world constraints. To address this gap, we propose a modular framework that extends classical JSSP formulations by incorporating key \mbox{real-world} constraints inherent to the shopfloor, including transport logistics, buffer management, machine breakdowns, setup times, and stochastic processing conditions, while also supporting multi-objective optimization. The framework is a customizable solution that offers flexibility in defining problem instances and configuring simulation parameters, enabling adaptation to diverse production scenarios. A standardized interface ensures compatibility with various RL approaches, providing a robust environment for training RL agents and facilitating the standardized comparison of different scheduling methods under dynamic and uncertain conditions. We release JobShopLab as an open-source tool for both research and industrial applications, accessible at: https://github.com/proto-lab-ro/jobshoplab
- Abstract(参考訳): 古典的なジョブショップスケジューリング問題(JSSP)は、決定論的制約の下でのメイスパンの最適化に焦点を当てている。
実世界の運用環境は、従来のスケジューリングアプローチの効率を低下させる追加の複雑さを導入します。
強化学習(RL)は、エージェントが適応的なスケジューリング戦略を学習できるようにするため、これらの課題に対処する可能性を秘めている。
しかし、実世界の制約下でRLエージェントを効果的に訓練し評価するための包括的な汎用フレームワークが欠如している。
このギャップに対処するために,輸送ロジスティクス,バッファ管理,マシンの故障,セットアップ時間,確率的処理条件など,店舗に固有のキー \mbox{real-world} 制約を組み込むことで,従来の JSSP の定式化を拡張したモジュラーフレームワークを提案する。
フレームワークはカスタマイズ可能なソリューションで、問題インスタンスの定義やシミュレーションパラメータの設定に柔軟性を提供し、さまざまな運用シナリオへの適応を可能にする。
標準化されたインタフェースは、様々なRLアプローチとの互換性を確保し、RLエージェントを訓練するための堅牢な環境を提供し、動的かつ不確実な条件下で異なるスケジューリング方法の標準化された比較を容易にする。
私たちはJobShopLabを,研究用と産業用の両方用のオープンソースツールとしてリリースしています。
関連論文リスト
- Evaluating the Efficacy of LLM-Based Reasoning for Multiobjective HPC Job Scheduling [6.623504719591386]
大規模言語モデル(LLM)ベースのスケジューラはReActスタイルのフレームワークを使用する(Reason + Act)
Systemはスクラッチパッドメモリを内蔵し、スケジューリング履歴を追跡し、自然言語のフィードバックを通じて決定を洗練する。
我々は,OpenAI の O4-Mini と Anthropic の Claude 3.7 を用いて,実世界の7つの HPC ワークロードシナリオに対してアプローチを評価した。
論文 参考訳(メタデータ) (2025-05-29T14:25:29Z) - Learning Virtual Machine Scheduling in Cloud Computing through Language Agents [22.314607581353638]
クラウドサービスでは、仮想マシン(VM)スケジューリングは典型的なオンライン動的多次元Bin Packing(ODMBP)問題である。
従来の手法はリアルタイムな変化に適応するのに苦労し、ドメイン専門家が設計したアプローチは厳格な戦略に苦しむ。
本稿では,ODMBPを解くための大規模言語モデル(LLM)駆動設計パラダイムを提供するMiCoという階層型言語エージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-15T09:42:11Z) - Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Learning-enabled Flexible Job-shop Scheduling for Scalable Smart
Manufacturing [11.509669981978874]
スマートマニュファクチャリングシステムでは、生産性を最大化するためのソリューションを最適化するために、輸送制約付きフレキシブルなジョブショップスケジューリングが不可欠である。
近年, 深部強化学習(DRL)に基づくFJSPT法の開発が, 大規模一般化の課題に直面している。
Heterogeneous Graph Scheduler (HGS) と呼ばれる新しいグラフベースのDRL法を導入する。
論文 参考訳(メタデータ) (2024-02-14T06:49:23Z) - Action-Quantized Offline Reinforcement Learning for Robotic Skill
Learning [68.16998247593209]
オフライン強化学習(RL)パラダイムは、静的な行動データセットを、データを収集したポリシーよりも優れたパフォーマンスのポリシーに変換するためのレシピを提供する。
本稿では,アクション量子化のための適応型スキームを提案する。
IQL,CQL,BRACといった最先端のオフラインRL手法が,提案手法と組み合わせることで,ベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T06:07:10Z) - Flexible Job Shop Scheduling via Dual Attention Network Based
Reinforcement Learning [73.19312285906891]
フレキシブルなジョブショップスケジューリング問題(FJSP)では、複数のマシンで操作を処理でき、操作とマシンの間の複雑な関係が生じる。
近年, 深層強化学習(DRL)を用いて, FJSP解決のための優先派遣規則(PDR)を学習している。
本稿では,Deep機能抽出のための自己注意モデルと,スケーラブルな意思決定のためのDRLの利点を生かした,エンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T01:35:48Z) - A Memetic Algorithm with Reinforcement Learning for Sociotechnical
Production Scheduling [0.0]
本稿では、フレキシブルジョブショップスケジューリング問題(DRC-FJSSP)に深層強化学習(DRL)を適用したメメティックアルゴリズムを提案する。
産業における研究プロジェクトから、フレキシブルマシン、フレキシブルなヒューマンワーカー、作業能力、セットアップと処理操作、材料到着時間、材料製造の請求書の並列タスク、シーケンス依存のセットアップ時間、人間と機械のコラボレーションにおける(一部)自動化タスクを検討する必要性を認識します。
論文 参考訳(メタデータ) (2022-12-21T11:24:32Z) - Towards Deployment-Efficient Reinforcement Learning: Lower Bound and
Optimality [141.89413461337324]
展開効率は、強化学習(RL)の多くの実世界の応用にとって重要な基準である
本稿では,「制約付き最適化」の観点から,デプロイ効率の高いRL(DE-RL)の理論的定式化を提案する。
論文 参考訳(メタデータ) (2022-02-14T01:31:46Z) - Guided Constrained Policy Optimization for Dynamic Quadrupedal Robot
Locomotion [78.46388769788405]
我々は,制約付きポリシー最適化(CPPO)の実装に基づくRLフレームワークであるGCPOを紹介する。
誘導制約付きRLは所望の最適値に近い高速収束を実現し,正確な報酬関数チューニングを必要とせず,最適かつ物理的に実現可能なロボット制御動作を実現することを示す。
論文 参考訳(メタデータ) (2020-02-22T10:15:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。