論文の概要: Leveraging Large Language Models for Use Case Model Generation from Software Requirements
- arxiv url: http://arxiv.org/abs/2511.09231v1
- Date: Thu, 13 Nov 2025 01:41:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.477344
- Title: Leveraging Large Language Models for Use Case Model Generation from Software Requirements
- Title(参考訳): ソフトウェア要件からユースケースモデルを生成するための大規模言語モデルを活用する
- Authors: Tobias Eisenreich, Nicholas Friedlaender, Stefan Wagner,
- Abstract要約: 提案手法はオープンウェイト LLM を統合し,ソフトウェア要件からアクターやユースケースを体系的に抽出する。
その結果, モデリング時間を60%削減し, 大幅な加速が得られた。
モデリング効率の改善に加えて,参加者は,この手法がプロセスに価値あるガイダンスを提供することを示した。
- 参考スコア(独自算出の注目度): 2.5501791028999583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Use case modeling employs user-centered scenarios to outline system requirements. These help to achieve consensus among relevant stakeholders. Because the manual creation of use case models is demanding and time-consuming, it is often skipped in practice. This study explores the potential of Large Language Models (LLMs) to assist in this tedious process. The proposed method integrates an open-weight LLM to systematically extract actors and use cases from software requirements with advanced prompt engineering techniques. The method is evaluated using an exploratory study conducted with five professional software engineers, which compares traditional manual modeling to the proposed LLM-based approach. The results show a substantial acceleration, reducing the modeling time by 60\%. At the same time, the model quality remains on par. Besides improving the modeling efficiency, the participants indicated that the method provided valuable guidance in the process.
- Abstract(参考訳): ユースケースモデリングでは、システム要件を概観するためにユーザ中心のシナリオを使用します。
これらのことは、関連する利害関係者の間で合意に達するのに役立ちます。
ユースケースモデルの手作業による作成が要求され、時間を要するため、実際は省略されることが多い。
本研究では,この面倒なプロセスを支援するために,LLM(Large Language Models)の可能性について検討する。
提案手法は,ソフトウェア要件からアクターやユースケースをシステム的に抽出するオープンウェイトLLMを,高度なプロンプト技術を用いて統合する。
本手法は,従来の手動モデリングとLLMに基づくアプローチを比較した,5人のプロソフトウェアエンジニアによる探索的研究を用いて評価する。
その結果, モデリング時間を60\%削減し, 大幅な加速効果を示した。
同時に、モデルの品質は引き続き同等です。
モデリング効率の改善に加えて,参加者は,この手法がプロセスに価値あるガイダンスを提供することを示した。
関連論文リスト
- Approach to Finding a Robust Deep Learning Model [0.28675177318965045]
機械学習(ML)と人工知能(AI)のアプリケーションの開発は、多数のモデルのトレーニングを必要とする。
本稿ではメタアルゴリズムとして設計したモデル選択アルゴリズムを用いてモデルロバスト性を決定する新しい手法を提案する。
本フレームワークでは,学習モデルの堅牢性に及ぼすトレーニングサンプルサイズ,モデル重み,帰納的バイアスの影響について検討する。
論文 参考訳(メタデータ) (2025-05-22T20:05:20Z) - Efficient Model Selection for Time Series Forecasting via LLMs [52.31535714387368]
本稿では,Large Language Models (LLM) をモデル選択の軽量な代替手段として活用することを提案する。
提案手法は, LLMの固有知識と推論能力を活用することで, 明示的な性能行列の必要性を解消する。
論文 参考訳(メタデータ) (2025-04-02T20:33:27Z) - Towards Synthetic Trace Generation of Modeling Operations using In-Context Learning Approach [1.8874331450711404]
本稿では,イベントログのモデリング,インテリジェントなモデリングアシスタント,モデリング操作の生成を組み合わせた概念的フレームワークを提案する。
特に、アーキテクチャは、設計者がシステムを指定するのを助け、その操作をグラフィカルなモデリング環境内で記録し、関連する操作を自動的に推奨する、モデリングコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-08-26T13:26:44Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - MAO: A Framework for Process Model Generation with Multi-Agent Orchestration [12.729855942941724]
本稿では,マルチエージェントオーケストレーション(MAO)を用いたプロセスモデルの自動生成フレームワークについて検討する。
大きな言語モデルは幻覚を起こす傾向があるため、エージェントはプロセスモデルにおける意味幻覚をレビューし、修復する必要がある。
実験により、我々のフレームワークが生成したプロセスモデルは、4つの異なるデータセットで手動モデリングを89%、61%、52%、75%以上上回っていることが示された。
論文 参考訳(メタデータ) (2024-08-04T03:32:17Z) - What is the best model? Application-driven Evaluation for Large Language Models [7.054112690519648]
A-Evalは、一般的な大規模言語モデルのアプリケーション駆動評価ベンチマークである。
我々は,678組の質問・回答ペアからなるデータセットを,アノテート・アノテート・レビューのプロセスを通じて構築する。
モデルスケールと課題難易度に関する興味深い法則を明らかにし、最適なモデルを選択するための実現可能な方法を提案する。
論文 参考訳(メタデータ) (2024-06-14T04:52:15Z) - Retrieval-based Knowledge Transfer: An Effective Approach for Extreme
Large Language Model Compression [64.07696663255155]
大規模事前学習型言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて例外的な性能を示した。
しかし、これらのモデルの巨大なサイズは、現実世界のアプリケーションに展開する上で大きな課題をもたらします。
本稿では,LLMの知識を極めて小規模なモデルに効果的に伝達するRetrieval-based Knowledge Transfer (RetriKT)と呼ばれる新しい圧縮パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-24T07:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。