論文の概要: LLM-Upgraded Graph Reinforcement Learning for Carbon-Aware Job Scheduling in Smart Manufacturing
- arxiv url: http://arxiv.org/abs/2512.06351v1
- Date: Sat, 06 Dec 2025 08:53:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.317057
- Title: LLM-Upgraded Graph Reinforcement Learning for Carbon-Aware Job Scheduling in Smart Manufacturing
- Title(参考訳): スマートマニュファクチャリングにおけるCarbon-AwareジョブスケジューリングのためのLLM改善グラフ強化学習
- Authors: Zhiying Yang, Fang Liu, Wei Zhang, Xin Lou, Malcolm Yoke Hean Low, Boon Ping Gan,
- Abstract要約: textscLucaは、スマート製造システムにおける動的で持続可能なスケジューリングの課題に対処する。
textscLucaは、メースパンと二酸化炭素排出量の両方に最適化されたリアルタイムスケジューリング決定を生成する。
- 参考スコア(独自算出の注目度): 8.476683128701847
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents \textsc{Luca}, a \underline{l}arge language model (LLM)-\underline{u}pgraded graph reinforcement learning framework for \underline{c}arbon-\underline{a}ware flexible job shop scheduling. \textsc{Luca} addresses the challenges of dynamic and sustainable scheduling in smart manufacturing systems by integrating a graph neural network and an LLM, guided by a carefully designed in-house prompting strategy, to produce a fused embedding that captures both structural characteristics and contextual semantics of the latest scheduling state. This expressive embedding is then processed by a deep reinforcement learning policy network, which generates real-time scheduling decisions optimized for both makespan and carbon emission objectives. To support sustainability goals, \textsc{Luca} incorporates a dual-objective reward function that encourages both energy efficiency and scheduling timeliness. Experimental results on both synthetic and public datasets demonstrate that \textsc{Luca} consistently outperforms comparison algorithms. For instance, on the synthetic dataset, it achieves an average of 4.1\% and up to 12.2\% lower makespan compared to the best-performing comparison algorithm while maintaining the same emission level. On public datasets, additional gains are observed for both makespan and emission. These results demonstrate that \textsc{Luca} is effective and practical for carbon-aware scheduling in smart manufacturing.
- Abstract(参考訳): 本稿では, 'textsc{Luca}, a \underline{l}arge language model (LLM)-\underline{u}pgraded graph reinforcement learning framework for \underline{c}arbon-\underline{a}ware flexible job shop schedulingについて述べる。
\textsc{Luca}は、グラフニューラルネットワークとLLMを統合することで、スマート製造システムにおける動的かつ持続可能なスケジューリングの課題に対処する。
この表現的埋め込みは、深層強化学習政策ネットワークによって処理され、このネットワークは、メースパンと二酸化炭素の排出目標の両方に最適化されたリアルタイムなスケジューリング決定を生成する。
サステナビリティ目標をサポートするために、 \textsc{Luca} はエネルギー効率とスケジュールスケジュールの両方を促進する二重目的報酬関数を組み込んだ。
合成データセットと公開データセットの両方の実験結果から, <textsc{Luca} が比較アルゴリズムを一貫して上回っていることが示された。
例えば、合成データセットでは、同じエミッションレベルを維持しながら、最高の性能比較アルゴリズムと比較して平均4.1\%、最大12.2\%低いメースパンを達成する。
公開データセットでは、メースパンとエミッションの両方について追加の利得が観測される。
これらの結果から, スマートマニュファクチャリングにおける炭素を意識したスケジューリングには, textsc{Luca} が有効で実用的であることが示された。
関連論文リスト
- GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Generalizable LLM Learning of Graph Synthetic Data with Post-training Alignment [38.485929062532925]
本稿では,グラフの一般化可能な学習を,学習後の合成データとの整合性で解き放つことを提案する。
我々はGRPOやDPOといったポストトレーニング後のアライメントアルゴリズムを採用し、合成グラフデータに基づいて、既製のLLMとLLMの両方を微調整する。
大規模な実験により、我々のトレーニング後のアライメントレシピは、5つのデータセットに対して統計的に有意な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2025-06-01T05:39:56Z) - Rethinking Graph Structure Learning in the Era of LLMs [37.348487195600384]
Large Language and Tree Assistant (LLaTA)は、木に基づくLLMインコンテキスト学習を活用し、トポロジーとテキストの理解を強化する。
11のデータセットに対する大規模な実験は、LLaTAが任意のバックボーンを組み込んだ柔軟性を享受していることを示している。
論文 参考訳(メタデータ) (2025-03-27T07:28:30Z) - Plan-over-Graph: Towards Parallelable LLM Agent Schedule [53.834646147919436]
大規模言語モデル(LLM)はタスク計画の推論において例外的な能力を示した。
本稿では,まず実生活のテキストタスクを実行可能なサブタスクに分解し,抽象的なタスクグラフを構築する,新しいパラダイムであるプランオーバーグラフを提案する。
モデルはこのタスクグラフを入力として理解し、並列実行計画を生成する。
論文 参考訳(メタデータ) (2025-02-20T13:47:51Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Parameter-Efficient Tuning Large Language Models for Graph Representation Learning [62.26278815157628]
Graph-awareを導入します。
GPEFT - グラフ表現学習のための新しい手法。
グラフニューラルネットワーク(GNN)を用いて、隣接するノードからグラフプロンプトに構造情報をエンコードする。
我々は8つの異なるテキストリッチグラフで実施した総合的な実験を通じて,リンク予測評価において hit@1 と Mean Reciprocal Rank (MRR) の平均 2% の改善を観察し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-04-28T18:36:59Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Energy-Based Learning for Scene Graph Generation [26.500496033477127]
シーングラフを生成するための新しいエネルギーベース学習フレームワークを提案する。
提案する定式化により,シーングラフの構造を出力空間に効率的に組み込むことができる。
提案するフレームワークを用いて,既存の最先端モデルをトレーニングし,大幅な性能向上を実現する。
論文 参考訳(メタデータ) (2021-03-03T07:11:23Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。