論文の概要: Evaluating Large Language Models for Workload Mapping and Scheduling in Heterogeneous HPC Systems
- arxiv url: http://arxiv.org/abs/2511.11612v1
- Date: Tue, 04 Nov 2025 03:04:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.296019
- Title: Evaluating Large Language Models for Workload Mapping and Scheduling in Heterogeneous HPC Systems
- Title(参考訳): 不均一HPCシステムにおけるワークロードマッピングとスケジューリングのための大規模言語モデルの評価
- Authors: Aasish Kumar Sharma, Julian Kunkel,
- Abstract要約: 大規模言語モデル(LLM)は、その推論能力のためにますます研究されている。
本研究は、代表的ワークロードマッピングとスケジューリング問題に基づいて、利用可能なLLMを21個評価する。
- 参考スコア(独自算出の注目度): 0.03819617852128932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly explored for their reasoning capabilities, yet their ability to perform structured, constraint-based optimization from natural language remains insufficiently understood. This study evaluates twenty-one publicly available LLMs on a representative heterogeneous high-performance computing (HPC) workload mapping and scheduling problem. Each model received the same textual description of system nodes, task requirements, and scheduling constraints, and was required to assign tasks to nodes, compute the total makespan, and explain its reasoning. A manually derived analytical optimum of nine hours and twenty seconds served as the ground truth reference. Three models exactly reproduced the analytical optimum while satisfying all constraints, twelve achieved near-optimal results within two minutes of the reference, and six produced suboptimal schedules with arithmetic or dependency errors. All models generated feasible task-to-node mappings, though only about half maintained strict constraint adherence. Nineteen models produced partially executable verification code, and eighteen provided coherent step-by-step reasoning, demonstrating strong interpretability even when logical errors occurred. Overall, the results define the current capability boundary of LLM reasoning in combinatorial optimization: leading models can reconstruct optimal schedules directly from natural language, but most still struggle with precise timing, data transfer arithmetic, and dependency enforcement. These findings highlight the potential of LLMs as explainable co-pilots for optimization and decision-support tasks rather than autonomous solvers.
- Abstract(参考訳): 大規模言語モデル(LLM)はその推論能力について研究が進んでいるが、自然言語から構造化された制約ベースの最適化を行う能力はまだ十分に理解されていない。
本研究では,代表的ヘテロジニアスハイパフォーマンスコンピューティング(HPC)のワークロードマッピングとスケジューリング問題に対して,利用可能なLLMを21個評価する。
各モデルは、システムノード、タスク要求、スケジューリングの制約に関する同じテキスト記述を受け取り、ノードにタスクを割り当て、全体のメースパンを計算し、その推論を説明する必要があった。
9時間20秒という手作業による分析の最適化が、根拠となる真理の基準となった。
3つのモデルでは、全ての制約を満たしながら解析的最適を正確に再現し、基準から2分以内に12のほぼ最適結果を得た。
すべてのモデルで実行可能なタスク・ツー・ノードマッピングが生成されたが、厳密な制約順守は半分程度しか維持されなかった。
19のモデルが部分的に実行可能な検証コードを作成し、18のモデルが一貫性のあるステップ・バイ・ステップの推論を提供し、論理的誤りが発生した場合でも強い解釈可能性を示した。
先行モデルでは、自然言語から直接最適なスケジュールを再構築することができるが、ほとんどの場合、正確なタイミング、データ転送演算、依存性の強制に苦慮している。
これらの結果は、自律的解法よりも最適化と意思決定支援のための説明可能なコパイロットとしてのLCMの可能性を強調した。
関連論文リスト
- From Natural Language to Solver-Ready Power System Optimization: An LLM-Assisted, Validation-in-the-Loop Framework [1.7136832159667206]
本稿では,Large Language Models (LLMs) を用いたエージェントを導入し,電力系統最適化シナリオの自然言語記述を,コンパクトで解決可能な定式化に自動変換する。
提案手法は,オフザシェルフ最適化解法により効率よく解ける数学的に互換性のある定式化の発見に重点を置いている。
論文 参考訳(メタデータ) (2025-08-11T16:22:57Z) - Evaluating the Efficacy of LLM-Based Reasoning for Multiobjective HPC Job Scheduling [6.375075345747834]
ReActスタイルフレームワークを用いたLarge Language Model (LLM)ベースのスケジューラ(Reason + Act)
Systemはスクラッチパッドメモリを内蔵し、スケジューリング履歴を追跡し、自然言語のフィードバックを通じて決定を洗練する。
我々は,OpenAI の O4-Mini と Anthropic の Claude 3.7 を用いて,実世界の7つの HPC ワークロードシナリオに対してアプローチを評価した。
論文 参考訳(メタデータ) (2025-05-29T14:25:29Z) - Self-Steering Language Models [113.96916935955842]
DisCIPL は "self-steering" 言語モデル (LM) の手法である。
DisCIPLは、Followerモデルの集団によって実行されるタスク固有の推論プログラムを生成する。
我々の研究は、高度に並列化されたモンテカルロ推論戦略の設計空間を開く。
論文 参考訳(メタデータ) (2025-04-09T17:54:22Z) - Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching [64.74765550805024]
Chain-of-Thoughtはステップバイステップの問題解決を促すが、中間出力の過剰な冗長性を犠牲にすることが多い。
我々は,認知にインスパイアされた推論パラダイムを言語制約と統合する促進フレームワークであるSketch-of-Thought(SoT)を提案する。
SoTはトークンを最大84%削減し、18の推論データセットで最小限の精度ロスを達成している。
論文 参考訳(メタデータ) (2025-03-07T06:57:17Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。