論文の概要: Graph Neural Networks for Job Shop Scheduling Problems: A Survey
- arxiv url: http://arxiv.org/abs/2406.14096v3
- Date: Fri, 06 Dec 2024 05:18:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:54:17.104710
- Title: Graph Neural Networks for Job Shop Scheduling Problems: A Survey
- Title(参考訳): ジョブショップスケジューリング問題のためのグラフニューラルネットワーク:サーベイ
- Authors: Igor G. Smit, Jianan Zhou, Robbert Reijnen, Yaoxin Wu, Jian Chen, Cong Zhang, Zaharah Bukhsh, Yingqian Zhang, Wim Nuijten,
- Abstract要約: ジョブショップスケジューリング問題(JSSP)は、重要な最適化問題である。
近年、JSSPの解決にグラフニューラルネットワーク(GNN)の適用が急速に増加しているのを目撃している。
本稿では,様々な種類のJSSPに対するGNN手法と,それに密接に関連するフローショップスケジューリング問題について,徹底的に検討することを目的とする。
- 参考スコア(独自算出の注目度): 9.072608705759322
- License:
- Abstract: Job shop scheduling problems (JSSPs) represent a critical and challenging class of combinatorial optimization problems. Recent years have witnessed a rapid increase in the application of graph neural networks (GNNs) to solve JSSPs, albeit lacking a systematic survey of the relevant literature. This paper aims to thoroughly review prevailing GNN methods for different types of JSSPs and the closely related flow-shop scheduling problems (FSPs), especially those leveraging deep reinforcement learning (DRL). We begin by presenting the graph representations of various JSSPs, followed by an introduction to the most commonly used GNN architectures. We then review current GNN-based methods for each problem type, highlighting key technical elements such as graph representations, GNN architectures, GNN tasks, and training algorithms. Finally, we summarize and analyze the advantages and limitations of GNNs in solving JSSPs and provide potential future research opportunities. We hope this survey can motivate and inspire innovative approaches for more powerful GNN-based approaches in tackling JSSPs and other scheduling problems.
- Abstract(参考訳): ジョブショップスケジューリング問題(JSSP)は、組合せ最適化問題の重要かつ困難なクラスである。
近年、JSSPの解決にグラフニューラルネットワーク(GNN)の適用が急速に増加したが、関連する文献の体系的な調査は行われていない。
本稿では,多種多様なJSSPに対する一般的なGNN手法と密接なフローショップスケジューリング問題(FSP),特に深層強化学習(DRL)を活用することを目的としている。
まず、JSSPのグラフ表現の提示と、最もよく使われているGNNアーキテクチャの導入から始める。
次に,グラフ表現,GNNアーキテクチャ,GNNタスク,トレーニングアルゴリズムなどの重要な技術要素を取り上げ,各問題タイプに対する現在のGNNベースの手法を概観する。
最後に,JSSPの解決におけるGNNのメリットと限界を要約し,分析し,今後の研究機会を提供する。
本調査は,JSSPなどのスケジューリング問題に対処する上で,より強力なGNNベースのアプローチに対する革新的アプローチの動機付けとインスピレーションを期待する。
関連論文リスト
- Learning Regularization for Graph Inverse Problems [16.062351610520693]
グラフ逆問題(GRIP)を解決するためにGNNを利用するフレームワークを導入する。
このフレームワークは、データに適合するソリューションを見つけるために使用される、可能性と事前条件の組み合わせに基づいている。
本稿では,フレームワークの有効性を示す代表的問題について検討する。
論文 参考訳(メタデータ) (2024-08-19T22:03:02Z) - Acceleration Algorithms in GNNs: A Survey [34.28669696478494]
グラフニューラルネットワーク(GNN)は、様々なグラフベースのタスクにおいて有効性を示している。
トレーニングと推論の非効率性は、実世界の大規模グラフアプリケーションにスケールアップする上での課題である。
GNNの訓練と推論を高速化するアルゴリズムが提案されている。
論文 参考訳(メタデータ) (2024-05-07T08:34:33Z) - A Survey on Graph Neural Network Acceleration: Algorithms, Systems, and
Customized Hardware [30.525912505620685]
グラフ構造化データに関する機械学習研究のために、グラフニューラルネットワーク(GNN)が登場している。
GNNは多くのタスクで最先端のパフォーマンスを実現するが、現実のアプリケーションではスケーラビリティの問題に直面している。
我々は,GNN加速の分類学を提供し,既存のアプローチをレビューし,今後の研究方向性を提案する。
論文 参考訳(メタデータ) (2023-06-24T20:20:45Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Ranking Structured Objects with Graph Neural Networks [0.0]
RankGNNはグラフ間のペアワイズ選好のセットでトレーニングされており、一方が他方よりも好まれていることを示唆している。
この問題の実用的な適用の1つは薬剤の候補者の大規模なコレクションの最も有望な分子を見つけたいと思う薬剤のスクリーニングです。
提案するペアワイズrankgnnアプローチが,平均的なポイントワイズベースラインアプローチのランキング性能を有意に上回っているか,少なくとも同等であることを示す。
論文 参考訳(メタデータ) (2021-04-18T14:40:59Z) - Overcoming Catastrophic Forgetting in Graph Neural Networks [50.900153089330175]
破滅的な忘れは、ニューラルネットワークが新しいタスクを学ぶ前に学んだ知識を「忘れる」傾向を指します。
本稿では,この問題を克服し,グラフニューラルネットワーク(GNN)における継続学習を強化するための新しいスキームを提案する。
私たちのアプローチの中心には、トポロジ認識重量保存(TWP)と呼ばれる汎用モジュールがあります。
論文 参考訳(メタデータ) (2020-12-10T22:30:25Z) - Learning to Execute Programs with Instruction Pointer Attention Graph
Neural Networks [55.98291376393561]
グラフニューラルネットワーク(GNN)は、ソフトウェアエンジニアリングタスクを学習するための強力なツールとして登場した。
リカレントニューラルネットワーク(RNN)は、長いシーケンシャルな推論の連鎖に適しているが、プログラム構造を自然に組み込んでいるわけではない。
本稿では,新しいGNNアーキテクチャ,IPA-GNN(Instruction Pointer Attention Graph Neural Networks)を導入する。
論文 参考訳(メタデータ) (2020-10-23T19:12:30Z) - Computing Graph Neural Networks: A Survey from Algorithms to
Accelerators [2.491032752533246]
グラフニューラルネットワーク(GNN)は、グラフ構造化データからモデル化および学習する能力のため、近年、機械学習の現場で爆発的に普及している。
本稿では,GNNの分野をコンピュータの観点から概観する。
現在のソフトウェアとハードウェアアクセラレーションスキームの詳細な分析を行う。
論文 参考訳(メタデータ) (2020-09-30T22:29:27Z) - Attentive Graph Neural Networks for Few-Shot Learning [74.01069516079379]
グラフニューラルネットワーク(GNN)は、数ショットの学習タスクを含む多くの困難なアプリケーションにおいて、優れたパフォーマンスを示している。
少数のサンプルからモデルを学習し、一般化する能力があるにもかかわらず、GNNは通常、モデルが深くなるにつれて、過度な過度な適合と過度なスムーシングに悩まされる。
本稿では,三重注意機構を組み込むことにより,これらの課題に対処するための新しい注意型GNNを提案する。
論文 参考訳(メタデータ) (2020-07-14T07:43:09Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。