論文の概要: Automatic Syntax Error Repair for Discrete Controller Synthesis using Large Language Model
- arxiv url: http://arxiv.org/abs/2512.07261v1
- Date: Mon, 08 Dec 2025 07:57:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.771174
- Title: Automatic Syntax Error Repair for Discrete Controller Synthesis using Large Language Model
- Title(参考訳): 大規模言語モデルを用いた離散制御器合成のための自動構文誤り修正
- Authors: Yusei Ishimizu, Takuto Yamauchi, Sinan Chen, Jinyu Cai, Jialong Li, Kenji Tei,
- Abstract要約: 本稿では,Large Language Models (LLMs) を利用してDCSモデルの構文誤りを修復する自動手法を提案する。
LLMには形式文法規則やイラストレーション例を含むDCS固有のドメイン知識が備わっており、正確な修正を導く。
人間の開発者に比べて3.46倍のスピードアップを実現している。
- 参考スコア(独自算出の注目度): 8.741815980649667
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrete Controller Synthesis (DCS) is a powerful formal method for automatically generating specifications of discrete event systems. However, its practical adoption is often hindered by the highly specialized nature of formal models written in languages such as FSP and FLTL. In practice, syntax errors in modeling frequently become an important bottleneck for developers-not only disrupting the workflow and reducing productivity, but also diverting attention from higher-level semantic design. To this end, this paper presents an automated approach that leverages Large Language Models (LLMs) to repair syntax errors in DCS models using a well-designed, knowledge-informed prompting strategy. Specifically, the prompting is derived from a systematic empirical study of common error patterns, identified through expert interviews and student workshops. It equips the LLM with DCS-specific domain knowledge, including formal grammar rules and illustrative examples, to guide accurate corrections. To evaluate our method, we constructed a new benchmark by systematically injecting realistic syntax errors into validated DCS models. The quantitative evaluation demonstrates the high effectiveness of the proposed approach in terms of repair accuracy and its practical utility regarding time, achieving a speedup of 3.46 times compared to human developers. The experimental replication suite, including the benchmark and prompts, is available at https://github.com/Uuusay1432/DCSModelRepair.git
- Abstract(参考訳): 離散コントローラ合成(DCS)は離散イベントシステムの仕様を自動生成する強力な形式的手法である。
しかし、FSPやFLTLのような言語で書かれた形式モデルの高度に専門化された性質によって、その実践的採用が妨げられることが多い。
実際には、モデリングにおける構文エラーは、ワークフローを中断し生産性を低下させるだけでなく、高レベルのセマンティックデザインから注意を逸らすという、開発者にとって重要なボトルネックになることが多い。
そこで本研究では,言語モデル(LLM)を利用して,よく設計された知識インフォームドプロンプト戦略を用いて,DCSモデルの構文誤りを修復する手法を提案する。
具体的には、専門家インタビューや学生ワークショップを通じて特定される共通誤りパターンの体系的研究から導かれる。
LLMには形式文法規則やイラストレーション例を含むDCS固有のドメイン知識が備わっており、正確な修正を導く。
提案手法を評価するため,本研究では,現実的な構文誤差を検証済みDCSモデルに系統的に注入することで,新しいベンチマークを構築した。
この定量的評価は,人間の開発者に比べて3.46倍の高速化を実現し,補修精度と時間に関する実用性の観点から提案手法の有効性を実証するものである。
ベンチマークとプロンプトを含む実験的なレプリケーションスイートは、https://github.com/Uuusay1432/DCSModelRepair.gitで公開されている。
関連論文リスト
- Autoformalizer with Tool Feedback [52.334957386319864]
自動形式化は、数学的問題を自然言語から形式的ステートメントに変換することによって、ATP(Automated Theorem Proving)のデータ不足に対処する。
既存のフォーミュラライザは、構文的妥当性とセマンティック一貫性を満たす有効なステートメントを一貫して生成することに苦慮している。
本稿では,ツールフィードバックを用いたオートフォーマライザ (ATF) を提案する。
論文 参考訳(メタデータ) (2025-10-08T10:25:12Z) - PAT-Agent: Autoformalization for Model Checking [17.082027022913998]
PAT-Agentは自然言語の自動形式化と形式モデル修復のためのエンドツーエンドフレームワークである。
これは、大きな言語モデルの生成能力と形式的検証の厳密さを組み合わせたものである。
論文 参考訳(メタデータ) (2025-09-28T06:32:14Z) - Re:Form -- Reducing Human Priors in Scalable Formal Software Verification with RL in LLMs: A Preliminary Study on Dafny [78.1575956773948]
強化学習(RL)で訓練された大規模言語モデル(LLM)は、信頼性も拡張性もない、という大きな課題に直面している。
有望だが、ほとんど報われていない代替手段は、フォーマルな言語ベースの推論である。
生成モデルが形式言語空間(例えばダフニー)で機能する厳密な形式体系におけるLLMの接地は、それらの推論プロセスと結果の自動的かつ数学的に証明可能な検証を可能にする。
論文 参考訳(メタデータ) (2025-07-22T08:13:01Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。