論文の概要: Learning-Guided Rolling Horizon Optimization for Long-Horizon Flexible Job-Shop Scheduling
- arxiv url: http://arxiv.org/abs/2502.15791v1
- Date: Tue, 18 Feb 2025 15:54:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:56:18.611330
- Title: Learning-Guided Rolling Horizon Optimization for Long-Horizon Flexible Job-Shop Scheduling
- Title(参考訳): 長軸フレキシブルジョブショップスケジューリングのための学習誘導圧延水平最適化
- Authors: Sirui Li, Wenbin Ouyang, Yining Ma, Cathy Wu,
- Abstract要約: 長い水平最適化問題(COP)は、拡張時間枠に対する複雑な相互依存的な決定を伴うことが多い。
RHO(Rolling Horizon Optimization)は、問題を短い水平サブプロブレムに分割することでこの問題に対処する。
COPのための最初の学習誘導型RHOフレームワークであるL-RHOについて述べる。
- 参考スコア(独自算出の注目度): 7.806139495906425
- License:
- Abstract: Long-horizon combinatorial optimization problems (COPs), such as the Flexible Job-Shop Scheduling Problem (FJSP), often involve complex, interdependent decisions over extended time frames, posing significant challenges for existing solvers. While Rolling Horizon Optimization (RHO) addresses this by decomposing problems into overlapping shorter-horizon subproblems, such overlap often involves redundant computations. In this paper, we present L-RHO, the first learning-guided RHO framework for COPs. L-RHO employs a neural network to intelligently fix variables that in hindsight did not need to be re-optimized, resulting in smaller and thus easier-to-solve subproblems. For FJSP, this means identifying operations with unchanged machine assignments between consecutive subproblems. Applied to FJSP, L-RHO accelerates RHO by up to 54% while significantly improving solution quality, outperforming other heuristic and learning-based baselines. We also provide in-depth discussions and verify the desirable adaptability and generalization of L-RHO across numerous FJSP variates, distributions, online scenarios and benchmark instances. Moreover, we provide a theoretical analysis to elucidate the conditions under which learning is beneficial.
- Abstract(参考訳): FJSP (Flexible Job-Shop Scheduling Problem) のような長い水平組合せ最適化問題(COP)は、しばしば拡張時間枠よりも複雑で相互依存的な決定を伴い、既存の解決者にとって重大な課題を提起する。
RHO(Rolling Horizon Optimization)は、問題を短い水平サブプロブレムに分割することでこの問題に対処するが、そのような重複はしばしば冗長な計算を必要とする。
本稿では,COPのための最初の学習誘導型RHOフレームワークであるL-RHOについて述べる。
L-RHOは、後向きで再最適化する必要のない変数をインテリジェントに修正するために、ニューラルネットワークを使用している。
FJSPでは、連続するサブプロブレム間のマシン割り当てを変更せずに操作を識別する。
FJSPに適用されたL-RHOは、RHOを最大54%高速化すると同時に、ソリューションの品質を大幅に向上し、他のヒューリスティックで学習ベースのベースラインを上回っている。
我々はまた、多くのFJSP変数、分布、オンラインシナリオ、ベンチマークインスタンスをまたいだL-RHOの適応性と一般化を詳細に議論し、検証する。
さらに,学習が有益である条件を解明するための理論的分析を行った。
関連論文リスト
- Offline reinforcement learning for job-shop scheduling problems [1.3927943269211593]
本稿では,複雑な制約を伴う最適化問題に対して,新しいオフラインRL法を提案する。
我々のアプローチは、エッジ属性のアクションを符号化し、専門家ソリューションの模倣と期待される報酬のバランスをとる。
本手法がジョブショップスケジューリングおよびフレキシブルジョブショップスケジューリングベンチマークに与える影響を実証する。
論文 参考訳(メタデータ) (2024-10-21T07:33:42Z) - Offline Reinforcement Learning for Learning to Dispatch for Job Shop Scheduling [0.9831489366502301]
ジョブショップスケジューリング問題(JSSP)は複雑な最適化問題である。
オンライン強化学習(RL)は、JSSPの許容可能なソリューションを素早く見つけることで、有望であることを示している。
オフライン強化学習による分散学習(Offline-LD)について紹介する。
論文 参考訳(メタデータ) (2024-09-16T15:18:10Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z) - Spatial-temporal-demand clustering for solving large-scale vehicle
routing problems with time windows [0.0]
本稿では,クラスタリングを用いて顧客をグループ化するDRI(Decompose-route-improve)フレームワークを提案する。
その類似度基準は、顧客の空間的、時間的、需要データを含む。
本研究では,解答サブプロブレム間でプルーンド局所探索(LS)を適用し,全体の解法を改善する。
論文 参考訳(メタデータ) (2024-01-20T06:06:01Z) - Flexible Job Shop Scheduling via Dual Attention Network Based
Reinforcement Learning [73.19312285906891]
フレキシブルなジョブショップスケジューリング問題(FJSP)では、複数のマシンで操作を処理でき、操作とマシンの間の複雑な関係が生じる。
近年, 深層強化学習(DRL)を用いて, FJSP解決のための優先派遣規則(PDR)を学習している。
本稿では,Deep機能抽出のための自己注意モデルと,スケーラブルな意思決定のためのDRLの利点を生かした,エンドツーエンド学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-09T01:35:48Z) - A Reinforcement Learning Approach for Scheduling Problems With Improved
Generalization Through Order Swapping [0.0]
JSSP は NP-hard COP のカテゴリに分類される。
近年,COPの解法にDRLを用いる研究が注目され,解の質や計算効率の面で有望な結果が示されている。
特に、制約されたジョブのディスパッチにおいてよく機能すると考えられるポリシ・グラディエントパラダイムを採用するPPOアルゴリズムを採用する。
論文 参考訳(メタデータ) (2023-02-27T16:45:04Z) - Two-Stage Learning For the Flexible Job Shop Scheduling Problem [18.06058556156014]
本稿では,フレキシブルジョブショップスケジューリング問題に対して,ディープラーニングフレームワークを用いて高速かつ正確な近似を生成する可能性について検討する。
本稿では,FJSP決定の階層的性質を明示的にモデル化する2段階学習フレームワークを提案する。
その結果、2SL-FJSPはミリ秒で高品質なソリューションを生成でき、最先端の強化学習手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-01-23T20:23:35Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。