論文の概要: DScheLLM: Enabling Dynamic Scheduling through a Fine-Tuned Dual-System Large language Model
- arxiv url: http://arxiv.org/abs/2601.09100v2
- Date: Thu, 15 Jan 2026 02:37:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 13:33:41.421307
- Title: DScheLLM: Enabling Dynamic Scheduling through a Fine-Tuned Dual-System Large language Model
- Title(参考訳): DScheLLM: 微調整されたデュアルシステム大言語モデルによる動的スケジューリングの実現
- Authors: Lixiang Zhang, Chenggong Zhao, Qing Gao, Xiaoke Zhao, Gengyi Bai, Jinhu Lv,
- Abstract要約: 本稿では,マルチシステム(高速スロー)推論アーキテクチャにおいて,微調整された大規模言語モデルを活用する動的スケジューリング手法DScheLLMを提案する。
動的イベントを処理するために、統合された大きな言語モデルベースのフレームワークが構築されている。
標準的なジョブショップスケジューリングベンチマークの実験的評価は、高速思考モードが高品質なスケジュールを効率的に生成できることを実証している。
- 参考スコア(独自算出の注目度): 2.9367859148626945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Production scheduling is highly susceptible to dynamic disruptions, such as variations in processing times, machine availability, and unexpected task insertions. Conventional approaches typically rely on event-specific models and explicit analytical formulations, which limits their adaptability and generalization across previously unseen disturbances. To overcome these limitations, this paper proposes DScheLLM, a dynamic scheduling approach that leverages fine-tuned large language models within a dual-system (fast-slow) reasoning architecture to address disturbances of different scales. A unified large language model-based framework is constructed to handle dynamic events, where training datasets for both fast and slow reasoning modes are generated using exact schedules obtained from an operations research solver. The Huawei OpenPangu Embedded-7B model is subsequently fine-tuned under the hybrid reasoning paradigms using LoRA. Experimental evaluations on standard job shop scheduling benchmarks demonstrate that the fast-thinking mode can efficiently generate high-quality schedules and the slow-thinking mode can produce solver-compatible and well-formatted decision inputs. To the best of our knowledge, this work represents one of the earliest studies applying large language models to job shop scheduling in dynamic environments, highlighting their considerable potential for intelligent and adaptive scheduling optimization.
- Abstract(参考訳): 生産スケジュールは、処理時間の変化、マシンの可用性、予期せぬタスク挿入など、動的破壊の影響を受けやすい。
従来のアプローチは、通常、イベント固有のモデルと明示的な分析的定式化に依存しており、これは、それまで目に見えなかった乱に対する適応性と一般化を制限する。
これらの制約を克服するために,DScheLLMを提案する。DScheLLMは,異なるスケールの障害に対処するために,双対系(高速スロー)推論アーキテクチャにおいて,微調整された大規模言語モデルを活用する動的スケジューリング手法である。
動的イベントを処理するために、統合された大規模言語モデルベースのフレームワークを構築し、オペレーションリサーチソルバから得られた正確なスケジュールを用いて、高速かつ遅い推論モードのトレーニングデータセットを生成する。
Huawei OpenPangu Embedded-7Bモデルはその後、LoRAを使用したハイブリッド推論パラダイムの下で微調整される。
標準的なジョブショップスケジューリングベンチマークの実験的評価により、高速思考モードは効率よく高品質なスケジュールを生成でき、スロー思考モードはソルバ互換で整合性の良い意思決定入力を生成できることが示された。
我々の知る限り、この研究は、動的環境におけるジョブショップスケジューリングに大規模言語モデルを適用した最も初期の研究の1つであり、インテリジェントで適応的なスケジューリング最適化の可能性を強調している。
関連論文リスト
- Multimodal Large Language Models with Adaptive Preference Optimization for Sequential Recommendation [60.33386541343322]
本稿では,Hardness-Aware とNoNoRec (HaNoRec) を併用したマルチモーダル大規模言語モデルフレームワークを提案する。
具体的には、HaNoRecは、各トレーニングサンプルの予測硬度とポリシーモデルのリアルタイム応答性の両方に基づいて、最適化重量を動的に調整する。
論文 参考訳(メタデータ) (2025-11-24T04:10:46Z) - TableMind: An Autonomous Programmatic Agent for Tool-Augmented Table Reasoning [10.267950603662776]
TableMindは、データ分析と正確な数値推論のために、セキュアなサンドボックス環境で、マルチターンツールの実行、書き込み、実行を自律的に実行する、ツール統合テーブル推論エージェントである。
これらの機能を実現するために、我々は強力な事前学習言語モデルの上に構築された2段階の微調整パラダイムを採用する。
論文 参考訳(メタデータ) (2025-09-08T02:00:31Z) - Evaluating the Efficacy of LLM-Based Reasoning for Multiobjective HPC Job Scheduling [6.375075345747834]
ReActスタイルフレームワークを用いたLarge Language Model (LLM)ベースのスケジューラ(Reason + Act)
Systemはスクラッチパッドメモリを内蔵し、スケジューリング履歴を追跡し、自然言語のフィードバックを通じて決定を洗練する。
我々は,OpenAI の O4-Mini と Anthropic の Claude 3.7 を用いて,実世界の7つの HPC ワークロードシナリオに対してアプローチを評価した。
論文 参考訳(メタデータ) (2025-05-29T14:25:29Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [48.15777554876988]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - Unlocking Reasoning Potential in Large Langauge Models by Scaling Code-form Planning [94.76546523689113]
CodePlanは、テキストコード形式の計画を生成し、追跡するフレームワークで、高いレベルの構造化された推論プロセスの概要を擬似コードで示します。
CodePlanは、洗練された推論タスク固有のリッチなセマンティクスと制御フローを効果的にキャプチャする。
反応を直接生成するのに比べて25.1%の相対的な改善が達成されている。
論文 参考訳(メタデータ) (2024-09-19T04:13:58Z) - Automated Conversion of Static to Dynamic Scheduler via Natural Language [3.4748713192043876]
我々は、動的スケジューリング(RAGDyS)の制約を実装するプロセスを自動化するために、検索型拡張生成(RAG)ベースのLLMモデルを提案する。
本フレームワークは,エンドユーザーを対象とした数学的モデリングと計算負荷に関する技術的複雑さの最小化を目的としている。
論文 参考訳(メタデータ) (2024-05-08T04:07:38Z) - Conditional Generative Modeling via Learning the Latent Space [54.620761775441046]
マルチモーダル空間における条件生成のための新しい枠組みを提案する。
潜在変数を使って一般化可能な学習パターンをモデル化する。
推論では、潜伏変数は複数の出力モードに対応する最適解を見つけるために最適化される。
論文 参考訳(メタデータ) (2020-10-07T03:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。