論文の概要: Automating Modelica Module Generation Using Large Language Models: A Case Study on Building Control Description Language
- arxiv url: http://arxiv.org/abs/2509.14623v1
- Date: Thu, 18 Sep 2025 05:07:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:53.07111
- Title: Automating Modelica Module Generation Using Large Language Models: A Case Study on Building Control Description Language
- Title(参考訳): 大規模言語モデルを用いたモデルモジュール生成の自動化:制御記述言語の構築を事例として
- Authors: Hanlong Wan, Xing Lu, Yan Chen, Karthik Devaprasad, Laura Hinkle,
- Abstract要約: 本稿では,制御記述言語モジュールの自動生成における大規模言語モデルの利用について検討する。
我々は,標準化されたプロンプトスキャフォールド,ライブラリ認識基盤,OpenModelicaによる自動コンパイル,ループ評価を併用した構造化ワークフローを開発した。
- 参考スコア(独自算出の注目度): 2.7764780384237895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic energy systems and controls require advanced modeling frameworks to design and test supervisory and fault tolerant strategies. Modelica is a widely used equation based language, but developing control modules is labor intensive and requires specialized expertise. This paper examines the use of large language models (LLMs) to automate the generation of Control Description Language modules in the Building Modelica Library as a case study. We developed a structured workflow that combines standardized prompt scaffolds, library aware grounding, automated compilation with OpenModelica, and human in the loop evaluation. Experiments were carried out on four basic logic tasks (And, Or, Not, and Switch) and five control modules (chiller enable/disable, bypass valve control, cooling tower fan speed, plant requests, and relief damper control). The results showed that GPT 4o failed to produce executable Modelica code in zero shot mode, while Claude Sonnet 4 achieved up to full success for basic logic blocks with carefully engineered prompts. For control modules, success rates reached 83 percent, and failed outputs required medium level human repair (estimated one to eight hours). Retrieval augmented generation often produced mismatches in module selection (for example, And retrieved as Or), while a deterministic hard rule search strategy avoided these errors. Human evaluation also outperformed AI evaluation, since current LLMs cannot assess simulation results or validate behavioral correctness. Despite these limitations, the LLM assisted workflow reduced the average development time from 10 to 20 hours down to 4 to 6 hours per module, corresponding to 40 to 60 percent time savings. These results highlight both the potential and current limitations of LLM assisted Modelica generation, and point to future research in pre simulation validation, stronger grounding, and closed loop evaluation.
- Abstract(参考訳): 動的エネルギーシステムと制御は、監視およびフォールトトレラント戦略を設計およびテストするための高度なモデリングフレームワークを必要とする。
Modelicaは広く使われている方程式ベースの言語であるが、制御モジュールの開発は労働集約的であり、専門的な専門知識を必要とする。
本稿では,大規模言語モデル(LLM)を用いて,ビルディングモデルニカライブラリにおける制御記述言語モジュールの自動生成を事例として検討する。
我々は、標準化されたプロンプトの足場、ライブラリの認識基盤、OpenModelicaによる自動コンパイルとループ評価を組み合わせた構造化ワークフローを開発した。
4つの基本的な論理的タスク(And, Or, Not, Switch)と5つの制御モジュール(シラー有効/無効、バイパス弁制御、冷却塔ファン速度、プラント要求、リリーフダンパー制御)で実験が行われた。
その結果、GPT 4oはゼロショットモードで実行可能なModelicaコードを生成することができず、Claude Sonnet 4は慎重に設計されたプロンプトを持つ基本的な論理ブロックで完全に成功した。
制御モジュールの場合、成功率は83%に達し、出力失敗には中級の人間修理が必要だった(推定1時間から8時間)。
検索可能な拡張生成は、しばしばモジュール選択においてミスマッチを生成し(例えば、Orとして検索される)、決定論的ハードルール探索戦略はこれらのエラーを避けた。
人間の評価は、現在のLLMではシミュレーション結果を評価したり、行動の正当性を検証できないため、AI評価よりも優れています。
これらの制限にもかかわらず、LLMはワークフローを補助し、平均開発時間を10時間から20時間に短縮し、1モジュールあたり4時間から6時間に短縮した。
これらの結果は、LLM支援モデルニカ生成のポテンシャルと現在の限界、およびプレシミュレーションバリデーション、より強力な接地、閉ループ評価における今後の研究を浮き彫りにしている。
関連論文リスト
- Autonomous Control Leveraging LLMs: An Agentic Framework for Next-Generation Industrial Automation [0.0]
本稿では,大規模言語モデル(LLM)を個別のフォールトリカバリ計画と継続的プロセス制御の両方に活用する統合エージェントフレームワークを提案する。
その結果、構造化されたフィードバックとモジュラーエージェントにより、LLMは高レベルな記号計画と低レベルな連続制御を統一できることを示した。
論文 参考訳(メタデータ) (2025-07-03T11:20:22Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Automatically Improving LLM-based Verilog Generation using EDA Tool Feedback [25.596711210493172]
大きな言語モデル(LLM)は、完全に機能するHDLコードを生成するための潜在的なツールとして現れています。
電子設計自動化(EDA)ツールからのフィードバックを利用して,自作のVerilogの誤りを修正できることを評価する。
論文 参考訳(メタデータ) (2024-11-01T17:33:28Z) - LLM4PLC: Harnessing Large Language Models for Verifiable Programming of
PLCs in Industrial Control Systems [9.946058168276744]
LLM(Large Language Models)は、PLC(Programmable Logic Controllers)が運用する産業制御システム(ICS)のための有効なプログラムを作成できない。
本稿では,ユーザフィードバックと文法チェック,コンパイラ,SMV検証などの外部検証ツールを活用したユーザガイド型反復パイプラインを提案する。
GPT-3.5, GPT-4, Code Llama-7B, Code Llama-34B, Code Llama-34Bで完全なテストスイートを実行する。
論文 参考訳(メタデータ) (2024-01-08T23:52:42Z) - DriveMLM: Aligning Multi-Modal Large Language Models with Behavioral
Planning States for Autonomous Driving [69.82743399946371]
DriveMLMは、現実的なシミュレータでクローズループの自律運転を実行するためのフレームワークである。
モジュールADシステムの動作計画モジュールをモデル化するために,MLLM (Multi-modal LLM) を用いる。
このモデルは、Apolloのような既存のADシステムでプラグイン・アンド・プレイすることで、クローズループ運転を行うことができる。
論文 参考訳(メタデータ) (2023-12-14T18:59:05Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z) - Self-Checker: Plug-and-Play Modules for Fact-Checking with Large Language Models [75.75038268227554]
Self-Checkerはファクトチェックを容易にするプラグインとプレイモジュールからなるフレームワークである。
このフレームワークは、低リソース環境でファクトチェックシステムを構築するための、高速で効率的な方法を提供する。
論文 参考訳(メタデータ) (2023-05-24T01:46:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。