論文の概要: Leveraging Large Language Models for Use Case Model Generation from Software Requirements
- arxiv url: http://arxiv.org/abs/2511.09231v2
- Date: Fri, 14 Nov 2025 01:46:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 13:23:30.729825
- Title: Leveraging Large Language Models for Use Case Model Generation from Software Requirements
- Title(参考訳): ソフトウェア要件からユースケースモデルを生成するための大規模言語モデルを活用する
- Authors: Tobias Eisenreich, Nicholas Friedlaender, Stefan Wagner,
- Abstract要約: 提案手法はオープンウェイト LLM を統合し,ソフトウェア要件からアクターやユースケースを体系的に抽出する。
その結果, モデリング時間を60%削減し, 大幅な加速が得られた。
モデリング効率の改善に加えて,参加者は,この手法がプロセスに価値あるガイダンスを提供することを示した。
- 参考スコア(独自算出の注目度): 2.5501791028999583
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Use case modeling employs user-centered scenarios to outline system requirements. These help to achieve consensus among relevant stakeholders. Because the manual creation of use case models is demanding and time-consuming, it is often skipped in practice. This study explores the potential of Large Language Models (LLMs) to assist in this tedious process. The proposed method integrates an open-weight LLM to systematically extract actors and use cases from software requirements with advanced prompt engineering techniques. The method is evaluated using an exploratory study conducted with five professional software engineers, which compares traditional manual modeling to the proposed LLM-based approach. The results show a substantial acceleration, reducing the modeling time by 60\%. At the same time, the model quality remains on par. Besides improving the modeling efficiency, the participants indicated that the method provided valuable guidance in the process.
- Abstract(参考訳): ユースケースモデリングでは、システム要件を概観するためにユーザ中心のシナリオを使用します。
これらのことは、関連する利害関係者の間で合意に達するのに役立ちます。
ユースケースモデルの手作業による作成が要求され、時間を要するため、実際は省略されることが多い。
本研究では,この面倒なプロセスを支援するために,LLM(Large Language Models)の可能性について検討する。
提案手法は,ソフトウェア要件からアクターやユースケースをシステム的に抽出するオープンウェイトLLMを,高度なプロンプト技術を用いて統合する。
本手法は,従来の手動モデリングとLLMに基づくアプローチを比較した,5人のプロソフトウェアエンジニアによる探索的研究を用いて評価する。
その結果, モデリング時間を60\%削減し, 大幅な加速効果を示した。
同時に、モデルの品質は引き続き同等です。
モデリング効率の改善に加えて,参加者は,この手法がプロセスに価値あるガイダンスを提供することを示した。
関連論文リスト
- Approach to Finding a Robust Deep Learning Model [0.28675177318965045]
機械学習(ML)と人工知能(AI)のアプリケーションの開発は、多数のモデルのトレーニングを必要とする。
本稿ではメタアルゴリズムとして設計したモデル選択アルゴリズムを用いてモデルロバスト性を決定する新しい手法を提案する。
本フレームワークでは,学習モデルの堅牢性に及ぼすトレーニングサンプルサイズ,モデル重み,帰納的バイアスの影響について検討する。
論文 参考訳(メタデータ) (2025-05-22T20:05:20Z) - Efficient Model Selection for Time Series Forecasting via LLMs [52.31535714387368]
本稿では,Large Language Models (LLM) をモデル選択の軽量な代替手段として活用することを提案する。
提案手法は, LLMの固有知識と推論能力を活用することで, 明示的な性能行列の必要性を解消する。
論文 参考訳(メタデータ) (2025-04-02T20:33:27Z) - A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - Revisiting SMoE Language Models by Evaluating Inefficiencies with Task Specific Expert Pruning [78.72226641279863]
SMOE(Sparse Mixture of Expert)モデルは、言語モデリングにおける高密度モデルに代わるスケーラブルな代替品として登場した。
本研究は,SMoEアーキテクチャの設計に関する意思決定を行うために,タスク固有のモデルプルーニングについて検討する。
適応型タスク対応プルーニング手法 UNCURL を導入し,MoE 層当たりの専門家数をオフラインで学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T22:35:03Z) - Towards Synthetic Trace Generation of Modeling Operations using In-Context Learning Approach [1.8874331450711404]
本稿では,イベントログのモデリング,インテリジェントなモデリングアシスタント,モデリング操作の生成を組み合わせた概念的フレームワークを提案する。
特に、アーキテクチャは、設計者がシステムを指定するのを助け、その操作をグラフィカルなモデリング環境内で記録し、関連する操作を自動的に推奨する、モデリングコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-08-26T13:26:44Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - MAO: A Framework for Process Model Generation with Multi-Agent Orchestration [12.729855942941724]
本稿では,マルチエージェントオーケストレーション(MAO)を用いたプロセスモデルの自動生成フレームワークについて検討する。
大きな言語モデルは幻覚を起こす傾向があるため、エージェントはプロセスモデルにおける意味幻覚をレビューし、修復する必要がある。
実験により、我々のフレームワークが生成したプロセスモデルは、4つの異なるデータセットで手動モデリングを89%、61%、52%、75%以上上回っていることが示された。
論文 参考訳(メタデータ) (2024-08-04T03:32:17Z) - What is the best model? Application-driven Evaluation for Large Language Models [7.054112690519648]
A-Evalは、一般的な大規模言語モデルのアプリケーション駆動評価ベンチマークである。
我々は,678組の質問・回答ペアからなるデータセットを,アノテート・アノテート・レビューのプロセスを通じて構築する。
モデルスケールと課題難易度に関する興味深い法則を明らかにし、最適なモデルを選択するための実現可能な方法を提案する。
論文 参考訳(メタデータ) (2024-06-14T04:52:15Z) - Retrieval-based Knowledge Transfer: An Effective Approach for Extreme
Large Language Model Compression [64.07696663255155]
大規模事前学習型言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて例外的な性能を示した。
しかし、これらのモデルの巨大なサイズは、現実世界のアプリケーションに展開する上で大きな課題をもたらします。
本稿では,LLMの知識を極めて小規模なモデルに効果的に伝達するRetrieval-based Knowledge Transfer (RetriKT)と呼ばれる新しい圧縮パラダイムを提案する。
論文 参考訳(メタデータ) (2023-10-24T07:58:20Z) - Understanding User Intent Modeling for Conversational Recommender
Systems: A Systematic Literature Review [1.3630870408844922]
我々は,会話レコメンデーションシステムの設計によく使用されるモデルについて,系統的な文献レビューを行った。
我々は,研究者がシステムに最も適したモデルを選択するのを支援するための意思決定モデルを開発した。
本研究は,より効果的でパーソナライズされた対話型レコメンデーションシステムの開発を支援する,ユーザ意図モデリングの実践的洞察と包括的理解に寄与する。
論文 参考訳(メタデータ) (2023-08-05T22:50:21Z) - Large Language Models in the Workplace: A Case Study on Prompt
Engineering for Job Type Classification [58.720142291102135]
本研究では,実環境における職種分類の課題について検討する。
目標は、英語の求職が卒業生やエントリーレベルの地位に適切かどうかを判断することである。
論文 参考訳(メタデータ) (2023-03-13T14:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。