論文の概要: SimLLM: Fine-Tuning Code LLMs for SimPy-Based Queueing System Simulation
- arxiv url: http://arxiv.org/abs/2601.06543v1
- Date: Sat, 10 Jan 2026 11:53:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:00.869953
- Title: SimLLM: Fine-Tuning Code LLMs for SimPy-Based Queueing System Simulation
- Title(参考訳): SimLLM: SimPy ベースのキューシステムシミュレーションのための微調整コード LLM
- Authors: Jun-Qi Chen, Kun Zhang, Rui Zheng, Ying Zhong,
- Abstract要約: PythonパッケージSimPyはキューシステムのモデリングに広く使われている。
大規模言語モデル(LLM)の最近の進歩は、明確で実行可能なコードを生成する強力な能力を示している。
キュレートしたSimPyキューデータ上で,オープンソースのLLMであるQwen-Coder-7BとDeepSeek-Coder-6.7Bを微調整する。
- 参考スコア(独自算出の注目度): 19.709345153687142
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Python package SimPy is widely used for modeling queueing systems due to its flexibility, simplicity, and smooth integration with modern data analysis and optimization frameworks. Recent advances in large language models (LLMs) have shown strong ability in generating clear and executable code, making them powerful and suitable tools for writing SimPy queueing simulation code. However, directly employing closed-source models like GPT-4o to generate such code may lead to high computational costs and raise data privacy concerns. To address this, we fine-tune two open-source LLMs, Qwen-Coder-7B and DeepSeek-Coder-6.7B, on curated SimPy queueing data, which enhances their code-generating performance in executability, output-format compliance, and instruction-code consistency. Particularly, we proposed a multi-stage fine-tuning framework comprising two stages of supervised fine-tuning (SFT) and one stage of direct preference optimization (DPO), progressively enhancing the model's ability in SimPy-based queueing simulation code generation. Extensive evaluations demonstrate that both fine-tuned models achieve substantial improvements in executability, output-format compliance, and instruct consistency. These results confirm that domain-specific fine-tuning can effectively transform compact open-source code models into reliable SimPy simulation generators which provide a practical alternative to closed-source LLMs for education, research, and operational decision support.
- Abstract(参考訳): PythonパッケージのSimPyは、その柔軟性、単純さ、モダンなデータ分析と最適化フレームワークとのスムーズな統合のために、キューシステムのモデリングに広く使用されている。
大規模言語モデル(LLM)の最近の進歩は、明確で実行可能なコードを生成する強力な能力を示しており、SimPyキューイングシミュレーションコードを書くための強力で適切なツールとなっている。
しかし、GPT-4oのようなクローズドソースモデルを直接利用してコードを生成すると、計算コストが高くなり、データプライバシの懸念が高まる可能性がある。
これを解決するために、我々は、SimPyキューデータ上に、Qwen-Coder-7BとDeepSeek-Coder-6.7Bという2つのオープンソースのLCMを微調整する。
特に,教師付き微調整(SFT)の2段階と直接選好最適化(DPO)の1段階からなる多段階微調整フレームワークを提案する。
厳密な評価は、両方の微調整モデルが実行可能性、出力形式コンプライアンス、命令整合性を大幅に改善することを示している。
これらの結果は、ドメイン固有の微調整により、コンパクトなオープンソースコードモデルを信頼性の高いSimPyシミュレーションジェネレータに効果的に変換できることを示す。
関連論文リスト
- Simulating Environments with Reasoning Models for Agent Training [55.98861707136674]
トレーニング用の起動環境の構築は重く、脆く、進捗を制限します。
我々はSimia-SFTとSimia-RLの2つのフレームワークを提案する。
Simia-SFTとSimia-RLは、環境工学を使わずにスケーラブルなエージェントトレーニングを可能にする。
論文 参考訳(メタデータ) (2025-11-03T18:29:57Z) - Toward a Trustworthy Optimization Modeling Agent via Verifiable Synthetic Data Generation [11.988926173584154]
本稿では,信頼性の高い大規模言語モデル(LLM)エージェントを合成データ生成パイプラインを介して訓練するためのフレームワークを提案する。
OptiTrustは、自然言語からソルバ対応コードへの多言語翻訳を行うモジュール型LLMエージェントである。
我々のエージェントは、標準ベンチマークで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-05T05:54:20Z) - G-Sim: Generative Simulations with Large Language Models and Gradient-Free Calibration [48.948187359727996]
G-Simは、厳密な経験的校正によるシミュレータ構築を自動化するハイブリッドフレームワークである。
信頼性のある因果的インフォームドシミュレータを生成し、データ効率を軽減し、堅牢なシステムレベルの介入を可能にする。
論文 参考訳(メタデータ) (2025-06-10T22:14:34Z) - SimuGen: Multi-modal Agentic Framework for Constructing Block Diagram-Based Simulation Models [1.0287010722745598]
SimuGenは視覚的なSimulinkダイアグラムとドメイン知識の両方を活用することで、正確なSimulinkシミュレーションコードを自動的に生成するフレームワークである。
ソースコードはhttps://github.com/renxinxing123/SimuGen_beta.comで公開されています。
論文 参考訳(メタデータ) (2025-05-28T00:35:43Z) - Leveraging Importance Sampling to Detach Alignment Modules from Large Language Models [48.15777554876988]
伝統的なアライメント手法では、しばしば大きな事前訓練されたモデルを再訓練する必要がある。
本稿では,アライメント処理を重要サンプリングの一種として形式化する新しいtextitResidual Alignment Model (textitRAM) を提案する。
本稿では,トークンレベルの復号化を反復的に行う再サンプリングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2025-05-26T08:53:02Z) - Syntactic and Semantic Control of Large Language Models via Sequential Monte Carlo [90.78001821963008]
広い範囲のLMアプリケーションは、構文的制約や意味論的制約に適合するテキストを生成する必要がある。
我々は、連続モンテカルロ(SMC)に基づく制御LM生成のためのアーキテクチャを開発する。
我々のシステムはLew et al. (2023) のフレームワーク上に構築されており、言語モデル確率型プログラミング言語と統合されている。
論文 参考訳(メタデータ) (2025-04-17T17:49:40Z) - Simulation Streams: A Programming Paradigm for Controlling Large Language Models and Building Complex Systems with Generative AI [3.3126968968429407]
Simulation Streamsは、LLM(Large Language Models)を効率的に制御し活用するために設計されたプログラミングパラダイムである。
私たちの一番の目標は、一貫性を維持するための制限に対処しながら、LLMのエージェント能力を活用するフレームワークを作ることです。
論文 参考訳(メタデータ) (2025-01-30T16:38:03Z) - Enhancing the Reasoning Ability of Multimodal Large Language Models via Mixed Preference Optimization [65.64108848398696]
我々は、MLLMのマルチモーダル推論能力を高めるために、選好最適化(PO)プロセスを導入する。
具体的には、自動選好データ構築パイプラインを設計し、高品質で大規模なマルチモーダル推論選好データセットであるMMPRを作成する。
マルチモーダルCoT性能を向上するMPO(Mixed Preference Optimization)と呼ばれるシンプルな手法を開発した。
論文 参考訳(メタデータ) (2024-11-15T18:59:27Z) - LLMServingSim: A HW/SW Co-Simulation Infrastructure for LLM Inference Serving at Scale [17.00936774784349]
大規模言語モデル(LLM)サービスシステムにおいて、汎用的なハードウェア・ソフトウェア動作を正確にモデル化できるシミュレーション基盤が欠如している。
本稿では,LLMServingSimと呼ばれる効率的なシミュレーションツールを開発し,LCMサービスシステムにおける今後の研究を支援することを目的とする。
論文 参考訳(メタデータ) (2024-08-10T09:26:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。