論文の概要: Explicating Tacit Regulatory Knowledge from LLMs to Auto-Formalize Requirements for Compliance Test Case Generation
- arxiv url: http://arxiv.org/abs/2601.09762v1
- Date: Wed, 14 Jan 2026 08:31:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.846467
- Title: Explicating Tacit Regulatory Knowledge from LLMs to Auto-Formalize Requirements for Compliance Test Case Generation
- Title(参考訳): LLMからの暗黙的規制知識の展開とコンプライアンステストケース生成の自動化
- Authors: Zhiyi Xue, Xiaohong Chen, Min Zhang,
- Abstract要約: 本稿では,自動形式化とコンプライアンステスト生成のためのフレームワークであるRAFTを提案する。
金融、自動車、電力分野における実験は、RAFTが専門家レベルのパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 14.786080080223785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compliance testing in highly regulated domains is crucial but largely manual, requiring domain experts to translate complex regulations into executable test cases. While large language models (LLMs) show promise for automation, their susceptibility to hallucinations limits reliable application. Existing hybrid approaches mitigate this issue by constraining LLMs with formal models, but still rely on costly manual modeling. To solve this problem, this paper proposes RAFT, a framework for requirements auto-formalization and compliance test generation via explicating tacit regulatory knowledge from multiple LLMs. RAFT employs an Adaptive Purification-Aggregation strategy to explicate tacit regulatory knowledge from multiple LLMs and integrate it into three artifacts: a domain meta-model, a formal requirements representation, and testability constraints. These artifacts are then dynamically injected into prompts to guide high-precision requirement formalization and automated test generation. Experiments across financial, automotive, and power domains show that RAFT achieves expert-level performance, substantially outperforms state-of-the-art (SOTA) methods while reducing overall generation and review time.
- Abstract(参考訳): 高度に規制されたドメインでのコンプライアンステストは不可欠だが、大部分が手作業であり、ドメインの専門家は複雑な規制を実行可能なテストケースに変換する必要がある。
大きな言語モデル(LLM)は自動化を約束するが、幻覚への感受性は信頼性の高いアプリケーションを制限する。
既存のハイブリッドアプローチは、LSMを形式的なモデルで制約することでこの問題を軽減するが、それでもコストのかかる手動モデリングに依存している。
本稿では,複数のLSMから暗黙的な規制知識を抽出し,自動形式化とコンプライアンステスト生成のためのフレームワークであるRAFTを提案する。
RAFTはアダプティブ・パーフィケーション・アグリゲーション(Adaptive Purification-Aggregation)戦略を採用し、複数のLSMから暗黙の規制知識を抽出し、それをドメインメタモデル、正式な要求表現、テスト可能性制約という3つのアーティファクトに統合する。
これらのアーティファクトを動的にインジェクトして,高精度要件の形式化と自動テスト生成を導出する。
金融分野、自動車分野、電力分野における実験により、RAFTは専門家レベルのパフォーマンスを達成し、全体の生成とレビュー時間を短縮しつつ、最先端(SOTA)の手法を大幅に上回っていることが示されている。
関連論文リスト
- PAT-Agent: Autoformalization for Model Checking [17.082027022913998]
PAT-Agentは自然言語の自動形式化と形式モデル修復のためのエンドツーエンドフレームワークである。
これは、大きな言語モデルの生成能力と形式的検証の厳密さを組み合わせたものである。
論文 参考訳(メタデータ) (2025-09-28T06:32:14Z) - Re:Form -- Reducing Human Priors in Scalable Formal Software Verification with RL in LLMs: A Preliminary Study on Dafny [78.1575956773948]
強化学習(RL)で訓練された大規模言語モデル(LLM)は、信頼性も拡張性もない、という大きな課題に直面している。
有望だが、ほとんど報われていない代替手段は、フォーマルな言語ベースの推論である。
生成モデルが形式言語空間(例えばダフニー)で機能する厳密な形式体系におけるLLMの接地は、それらの推論プロセスと結果の自動的かつ数学的に証明可能な検証を可能にする。
論文 参考訳(メタデータ) (2025-07-22T08:13:01Z) - Leveraging LLMs for Formal Software Requirements -- Challenges and Prospects [0.0]
VERIFAI1は、このギャップを埋めるための自動化および半自動化アプローチを調査することを目的としている。
本論文では, 課題の繰り返しと今後の研究方向性を明らかにするために, 関連文献の予備的な合成について述べる。
論文 参考訳(メタデータ) (2025-07-18T19:15:50Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Towards Generating Executable Metamorphic Relations Using Large Language Models [46.26208489175692]
大規模言語モデル(LLM)を用いた要件から実行可能なMRを自動的に抽出する手法を提案する。
提案手法の有効性を評価するため,シーメンス・インダストリー・ソフトウェアと共同で質問紙調査を行った。
論文 参考訳(メタデータ) (2024-01-30T13:52:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。