論文の概要: The Practimum-Optimum Algorithm for Manufacturing Scheduling: A Paradigm Shift Leading to Breakthroughs in Scale and Performance
- arxiv url: http://arxiv.org/abs/2408.10040v1
- Date: Mon, 19 Aug 2024 14:32:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-20 15:52:57.647907
- Title: The Practimum-Optimum Algorithm for Manufacturing Scheduling: A Paradigm Shift Leading to Breakthroughs in Scale and Performance
- Title(参考訳): 生産スケジューリングのための最適最適化アルゴリズム:スケールと性能のブレークスルーにつながるパラダイムシフト
- Authors: Moshe BenBassat,
- Abstract要約: Practimum-Optimum (P-O)アルゴリズムは、自動最適化製品の開発におけるパラダイムシフトを表している。
それらをアルゴリズムにコンピュータ化することにより、P-Oは人間のスケジューラよりもはるかに高速で多くの有効なスケジュールを生成する。
P-OアルゴリズムはPlatene Schedulerの中心であり、1クリックで3万~5万のタスクを実生活の複雑な製造作業にスケジュールする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Practimum-Optimum (P-O) algorithm represents a paradigm shift in developing automatic optimization products for complex real-life business problems such as large-scale manufacturing scheduling. It leverages deep business domain expertise to create a group of virtual human expert (VHE) agents with different "schools of thought" on how to create high-quality schedules. By computerizing them into algorithms, P-O generates many valid schedules at far higher speeds than human schedulers are capable of. Initially, these schedules can also be local optimum peaks far away from high-quality schedules. By submitting these schedules to a reinforced machine learning algorithm (RL), P-O learns the weaknesses and strengths of each VHE schedule, and accordingly derives reward and punishment changes in the Demand Set that will modify the relative priorities for time and resource allocation that jobs received in the prior iteration that led to the current state of the schedule. These cause the core logic of the VHE algorithms to explore, in the subsequent iteration, substantially different parts of the schedules universe and potentially find higher-quality schedules. Using the hill climbing analogy, this may be viewed as a big jump, shifting from a given local peak to a faraway promising start point equipped with knowledge embedded in the demand set for future iterations. This is a fundamental difference from most contemporary algorithms, which spend considerable time on local micro-steps restricted to the neighbourhoods of local peaks they visit. This difference enables a breakthrough in scale and performance for fully automatic manufacturing scheduling in complex organizations. The P-O algorithm is at the heart of Plataine Scheduler that, in one click, routinely schedules 30,000-50,000 tasks for real-life complex manufacturing operations.
- Abstract(参考訳): Practimum-Optimum (P-O) アルゴリズムは、大規模製造スケジューリングのような複雑な実生活ビジネス問題に対して、自動最適化製品を開発する際のパラダイムシフトを表す。
深いビジネスドメインの専門知識を活用して、高品質なスケジュールを作成する方法について、さまざまな“考え方の流派”を持つ仮想人間専門家(VHE)エージェントのグループを作成する。
それらをアルゴリズムにコンピュータ化することにより、P-Oは人間のスケジューラよりもはるかに高速で多くの有効なスケジュールを生成する。
当初は、これらのスケジュールは、高品質なスケジュールから遠く離れた局所的な最適ピークでもある。
これらのスケジュールを強化機械学習アルゴリズム(RL)に送信することにより、P-Oは各VHEスケジュールの弱点と強みを学習し、それによって、スケジュールの現在の状態につながる前回のイテレーションで受信されたジョブの相対的な優先度とリソース割り当てを変更するデマンドセットの報酬と罰則の変更を導出する。
これらの結果、VHEアルゴリズムのコアロジックは、その後の反復でスケジュール宇宙のかなり異なる部分を探索し、より高品質なスケジュールを見つける可能性がある。
ヒルクライミングのアナロジーを用いて、これは大きなジャンプと見なされ、ある局所的なピークから、将来のイテレーションの要求セットに埋め込まれた知識を備えた、遠い将来有望なスタートポイントへとシフトする。
これは、訪れた局所的なピークの近傍に制限された局所的なマイクロステップにかなりの時間を費やす、現代のほとんどのアルゴリズムと根本的な違いである。
この違いは、複雑な組織における完全な自動製造スケジューリングのための規模と性能のブレークスルーを可能にする。
P-OアルゴリズムはPlatene Schedulerの中心であり、1クリックで3万~5万のタスクを実生活の複雑な製造作業にスケジュールする。
関連論文リスト
- Learning Logic Specifications for Policy Guidance in POMDPs: an
Inductive Logic Programming Approach [57.788675205519986]
我々は任意の解法によって生成されるPOMDP実行から高品質なトレースを学習する。
我々は、データと時間効率のIndu Logic Programming(ILP)を利用して、解釈可能な信念に基づくポリシー仕様を生成する。
ASP(Answer Set Programming)で表現された学習は、ニューラルネットワークよりも優れた性能を示し、より少ない計算時間で最適な手作りタスクに類似していることを示す。
論文 参考訳(メタデータ) (2024-02-29T15:36:01Z) - AI planning in the imagination: High-level planning on learned abstract
search spaces [68.75684174531962]
我々は,エージェントが訓練中に学習する抽象的な検索空間において,エージェントが計画することを可能にする,PiZeroと呼ばれる新しい手法を提案する。
本研究では,旅行セールスマン問題,ソコバン問題,2048年,施設立地問題,パックマン問題など,複数の分野で評価を行った。
論文 参考訳(メタデータ) (2023-08-16T22:47:16Z) - An End-to-End Reinforcement Learning Approach for Job-Shop Scheduling
Problems Based on Constraint Programming [5.070542698701157]
本稿では,CPと強化学習(Reinforcement Learning, RL)を用いてスケジューリング問題を解決する新しいエンドツーエンドアプローチを提案する。
当社のアプローチでは,既存のCPソルバを活用して,プライオリティ・ディスパッチ・ルール(PDR)を学ぶエージェントをトレーニングする。
論文 参考訳(メタデータ) (2023-06-09T08:24:56Z) - A Memetic Algorithm with Reinforcement Learning for Sociotechnical
Production Scheduling [0.0]
本稿では、フレキシブルジョブショップスケジューリング問題(DRC-FJSSP)に深層強化学習(DRL)を適用したメメティックアルゴリズムを提案する。
産業における研究プロジェクトから、フレキシブルマシン、フレキシブルなヒューマンワーカー、作業能力、セットアップと処理操作、材料到着時間、材料製造の請求書の並列タスク、シーケンス依存のセットアップ時間、人間と機械のコラボレーションにおける(一部)自動化タスクを検討する必要性を認識します。
論文 参考訳(メタデータ) (2022-12-21T11:24:32Z) - Achieving mouse-level strategic evasion performance using real-time
computational planning [59.60094442546867]
計画とは、脳が想像し、予測可能な未来を成立させる特別な能力である。
我々は,動物の生態が空間計画の価値をどのように支配するかという研究に基づいて,より効率的な生物学的に着想を得た計画アルゴリズムであるTLPPOを開発した。
TLPPOを用いたリアルタイムエージェントの性能とライブマウスの性能を比較し,ロボット捕食者を避けることを課題とする。
論文 参考訳(メタデータ) (2022-11-04T18:34:36Z) - Genetic algorithms for the resource-constrained project scheduling
problem in aircraft heavy maintenance [0.0]
本稿では,資源制約付きプロジェクトスケジューリング問題(RCPSP)をAHMで解くための遺伝的アルゴリズムを提案する。
本研究の目的は,メンテナンス計画の規模を最小化することであった。
論文 参考訳(メタデータ) (2022-06-16T13:41:20Z) - Better than the Best: Gradient-based Improper Reinforcement Learning for
Network Scheduling [60.48359567964899]
パケット遅延を最小限に抑えるため,制約付き待ち行列ネットワークにおけるスケジューリングの問題を考える。
我々は、利用可能な原子ポリシーよりも優れたスケジューラを生成するポリシー勾配に基づく強化学習アルゴリズムを使用する。
論文 参考訳(メタデータ) (2021-05-01T10:18:34Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Learning to Schedule DAG Tasks [7.577417675452624]
有向非周期グラフ(DAG)のスケジューリングに関する新しい学習手法を提案する。
このアルゴリズムは強化学習エージェントを用いて、DAGに向けられたエッジを反復的に追加する。
我々の手法は既存のスケジューリングアルゴリズムにも容易に適用できる。
論文 参考訳(メタデータ) (2021-03-05T01:10:24Z) - Community detection using fast low-cardinality semidefinite programming [94.4878715085334]
局所的な更新を一般化し、ライデン-k-カットから導かれる半定緩和を最大化する、新しい低カルチナリティアルゴリズムを提案する。
提案アルゴリズムはスケーラビリティが高く,最先端のアルゴリズムより優れ,実時間では性能が向上し,追加コストがほとんどない。
論文 参考訳(メタデータ) (2020-12-04T15:46:30Z) - DeepSoCS: A Neural Scheduler for Heterogeneous System-on-Chip (SoC)
Resource Scheduling [0.0]
システム・オン・チップ(SoC)システムのための新しいスケジューリングソリューションを提案する。
我々のDeep Reinforcement Learning (DRL)ベースのスケジューリング(DeepSoCS)はルールベースのスケジューラの脆さを克服する。
論文 参考訳(メタデータ) (2020-05-15T17:31:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。