論文の概要: Bilevel Learning Model Towards Industrial Scheduling
- arxiv url: http://arxiv.org/abs/2008.04130v1
- Date: Mon, 10 Aug 2020 13:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:10:34.546386
- Title: Bilevel Learning Model Towards Industrial Scheduling
- Title(参考訳): 産業スケジューリングに向けた二段階学習モデル
- Authors: Longkang Li, Hui-Ling Zhen, Mingxuan Yuan, Jiawen Lu, XialiangTong,
Jia Zeng, Jun Wang, Dirk Schnieders
- Abstract要約: そこで我々は,2段階の深層強化学習スケジューリング(textitBDS)を提案し,その上層部が最初のグローバルシーケンスを探索する役割を担っている。
この実装では、Double Deep Q Network (DDQN) が上位層で使われ、Graph Pointer Network (GPN) は下位層にある。
提案したBDSは,3つの強力なディープネットワークと,別のバイレベルベースラインアプローチを著しく上回っている。
- 参考スコア(独自算出の注目度): 15.91128525860494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automatic industrial scheduling, aiming at optimizing the sequence of jobs
over limited resources, is widely needed in manufacturing industries. However,
existing scheduling systems heavily rely on heuristic algorithms, which either
generate ineffective solutions or compute inefficiently when job scale
increases. Thus, it is of great importance to develop new large-scale
algorithms that are not only efficient and effective, but also capable of
satisfying complex constraints in practice. In this paper, we propose a Bilevel
Deep reinforcement learning Scheduler, \textit{BDS}, in which the higher level
is responsible for exploring an initial global sequence, whereas the lower
level is aiming at exploitation for partial sequence refinements, and the two
levels are connected by a sliding-window sampling mechanism. In the
implementation, a Double Deep Q Network (DDQN) is used in the upper level and
Graph Pointer Network (GPN) lies within the lower level. After the theoretical
guarantee for the convergence of BDS, we evaluate it in an industrial automatic
warehouse scenario, with job number up to $5000$ in each production line. It is
shown that our proposed BDS significantly outperforms two most used heuristics,
three strong deep networks, and another bilevel baseline approach. In
particular, compared with the most used greedy-based heuristic algorithm in
real world which takes nearly an hour, our BDS can decrease the makespan by
27.5\%, 28.6\% and 22.1\% for 3 largest datasets respectively, with
computational time less than 200 seconds.
- Abstract(参考訳): 生産産業では、限られた資源に対してジョブの順序を最適化することを目的とした自動産業スケジューリングが広く求められている。
しかし、既存のスケジューリングシステムは、非効率なソリューションを生成するか、ジョブスケールが増加すると非効率に計算するヒューリスティックなアルゴリズムに大きく依存している。
したがって、効率的で効率的なだけでなく、実際は複雑な制約を満たすことのできる新しい大規模アルゴリズムを開発することが非常に重要である。
本稿では,二段階深層強化学習スケジューラである \textit{bds} を提案し,高レベルが初期大域列の探索を担っているのに対し,下位レベルは部分配列の精密化の活用を目標とし,この2レベルはスライディングウィンドウサンプリング機構によって接続されている。
この実装では、Double Deep Q Network (DDQN) が上位層で使われ、Graph Pointer Network (GPN) は下位層にある。
BDSの収束を理論的に保証した後、各生産ラインで5000ドルまでの雇用数を持つ産業用自動倉庫のシナリオで評価した。
提案したBDSは, 2つの最もよく使われているヒューリスティック, 3つの強力なディープネットワーク, および2段階のベースラインアプローチよりも優れていた。
特に、1時間近くかかる現実界で最もよく使われる欲望に基づくヒューリスティックアルゴリズムと比較すると、我々のbdsは3つの大きなデータセットでそれぞれ27.5\%、28.6\%、22.1\%減少し、計算時間は200秒未満である。
関連論文リスト
- FusionLLM: A Decentralized LLM Training System on Geo-distributed GPUs with Adaptive Compression [55.992528247880685]
分散トレーニングは、システム設計と効率に関する重要な課題に直面します。
大規模深層ニューラルネットワーク(DNN)のトレーニング用に設計・実装された分散トレーニングシステムFusionLLMを提案する。
本システムと手法は,収束性を確保しつつ,ベースライン法と比較して1.45~9.39倍の高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-16T16:13:19Z) - OTOv3: Automatic Architecture-Agnostic Neural Network Training and
Compression from Structured Pruning to Erasing Operators [57.145175475579315]
このトピックは、構造化プルーニングからニューラルアーキテクチャサーチまで、さまざまなテクニックにまたがっている。
第3世代のOTOv3(Noth-Train-Once)を導入する。
我々は,構造化プルーニングとニューラルアーキテクチャ探索におけるOTOv3の有効性を実証した。
論文 参考訳(メタデータ) (2023-12-15T00:22:55Z) - Towards Better Out-of-Distribution Generalization of Neural Algorithmic
Reasoning Tasks [51.8723187709964]
ニューラルネットワーク推論タスクのOOD一般化について検討する。
目標は、ディープニューラルネットワークを使用して入出力ペアからアルゴリズムを学ぶことである。
論文 参考訳(メタデータ) (2022-11-01T18:33:20Z) - Binary Early-Exit Network for Adaptive Inference on Low-Resource Devices [3.591566487849146]
バイナリニューラルネットワーク(BNN)は、実数値モデルと比較して、極端な圧縮とスピードアップによる問題に対処する。
そこで本研究では,BNNを早期導入戦略で統合して推論を高速化する,シンプルだが効果的な手法を提案する。
このアプローチでは、決定しきい値に基づいて単純なインスタンスを早期に終了させ、異なる中間層に追加される出力層を利用してバイナリモデル全体の実行を回避する。
論文 参考訳(メタデータ) (2022-06-17T22:11:11Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - Improved Branch and Bound for Neural Network Verification via Lagrangian
Decomposition [161.09660864941603]
ニューラルネットワークの入出力特性を公式に証明するためのブランチとバウンド(BaB)アルゴリズムのスケーラビリティを改善します。
活性化に基づく新しい分岐戦略とBaBフレームワークであるブランチとデュアルネットワーク境界(BaDNB)を提案する。
BaDNBは、従来の完全検証システムを大きなマージンで上回り、対数特性で平均検証時間を最大50倍に削減した。
論文 参考訳(メタデータ) (2021-04-14T09:22:42Z) - Phase Retrieval using Expectation Consistent Signal Recovery Algorithm
based on Hypernetwork [73.94896986868146]
位相検索は現代の計算イメージングシステムにおいて重要な要素である。
近年のディープラーニングの進歩は、堅牢で高速なPRの新たな可能性を開いた。
我々は、既存の制限を克服するために、深層展開のための新しいフレームワークを開発する。
論文 参考訳(メタデータ) (2021-01-12T08:36:23Z) - EQ-Net: A Unified Deep Learning Framework for Log-Likelihood Ratio
Estimation and Quantization [25.484585922608193]
EQ-Netは,データ駆動手法を用いてログ類似度(LLR)推定と量子化の両課題を解決する,最初の包括的フレームワークである。
広範な実験評価を行い,両タスクにおいて単一アーキテクチャが最先端の成果を達成できることを実証する。
論文 参考訳(メタデータ) (2020-12-23T18:11:30Z) - When Deep Reinforcement Learning Meets Federated Learning: Intelligent
Multi-Timescale Resource Management for Multi-access Edge Computing in 5G
Ultra Dense Network [31.274279003934268]
まず,ブロックチェーンとAIを5Gエッジコンピューティングネットワークに統合した,インテリジェントな超高密度エッジコンピューティング(I-UDEC)フレームワークを提案する。
実時間および低オーバーヘッド計算のオフロード決定と資源配分戦略を実現するために,新しい2段階の深層強化学習法(textit2Ts-DRL)を設計する。
提案アルゴリズムはタスク実行時間を最大31.87%削減できる。
論文 参考訳(メタデータ) (2020-09-22T15:08:00Z) - Fully Dynamic Inference with Deep Neural Networks [19.833242253397206]
Layer-Net(L-Net)とChannel-Net(C-Net)と呼ばれる2つのコンパクトネットワークは、どのレイヤやフィルタ/チャネルが冗長であるかをインスタンス毎に予測する。
CIFAR-10データセットでは、LC-Netは11.9$times$ less floating-point Operations (FLOPs) となり、他の動的推論手法と比較して最大3.3%精度が向上する。
ImageNetデータセットでは、LC-Netは最大1.4$times$ FLOPsを減らし、Top-1の精度は他の方法よりも4.6%高い。
論文 参考訳(メタデータ) (2020-07-29T23:17:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。