論文の概要: ReqInOne: A Large Language Model-Based Agent for Software Requirements Specification Generation
- arxiv url: http://arxiv.org/abs/2508.09648v1
- Date: Wed, 13 Aug 2025 09:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.833666
- Title: ReqInOne: A Large Language Model-Based Agent for Software Requirements Specification Generation
- Title(参考訳): ReqInOne: ソフトウェア要件仕様生成のための大規模言語モデルベースのエージェント
- Authors: Taohong Zhu, Lucas C. Cordeiro, Youcheng Sun,
- Abstract要約: LLM(Large Language Model)ベースのアプローチは幻覚と限定的な制御性に悩まされる。
ReqInOneでは,SRS生成を要約,要件抽出,要件分類という3つのタスクに分解することで,モジュールアーキテクチャを採用している。
GPT-4o, LLaMA 3, DeepSeek-R1 を用いて ReqInOne の評価を行い, 得られた SRS と GPT-4 をベースとした手法との比較を行った。
- 参考スコア(独自算出の注目度): 10.422454564870929
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software Requirements Specification (SRS) is one of the most important documents in software projects, but writing it manually is time-consuming and often leads to ambiguity. Existing automated methods rely heavily on manual analysis, while recent Large Language Model (LLM)-based approaches suffer from hallucinations and limited controllability. In this paper, we propose ReqInOne, an LLM-based agent that follows the common steps taken by human requirements engineers when writing an SRS to convert natural language into a structured SRS. ReqInOne adopts a modular architecture by decomposing SRS generation into three tasks: summary, requirement extraction, and requirement classification, each supported by tailored prompt templates to improve the quality and consistency of LLM outputs. We evaluate ReqInOne using GPT-4o, LLaMA 3, and DeepSeek-R1, and compare the generated SRSs against those produced by the holistic GPT-4-based method from prior work as well as by entry-level requirements engineers. Expert evaluations show that ReqInOne produces more accurate and well-structured SRS documents. The performance advantage of ReqInOne benefits from its modular design, and experimental results further demonstrate that its requirement classification component achieves comparable or even better results than the state-of-the-art requirement classification model.
- Abstract(参考訳): ソフトウェア要件仕様(Software Requirements Specification, SRS)は、ソフトウェアプロジェクトにおいて最も重要な文書の1つだが、手作業で記述するのは時間を要するため、曖昧さにつながることが多い。
既存の自動手法は手動解析に大きく依存しているが、最近のLarge Language Model(LLM)ベースのアプローチは幻覚と限定的な制御性に悩まされている。
本稿では,自然言語を構造化SRSに変換するためのSRSを書く際に,人間の要求技術者が行う共通ステップに従うLLMベースのエージェントであるReqInOneを提案する。
ReqInOneでは,SRS生成を要約,要件抽出,要件分類という3つのタスクに分解することで,モジュールアーキテクチャを採用している。
GPT-4o, LLaMA 3, DeepSeek-R1 を用いて ReqInOne の評価を行い, 得られた SRS と GPT-4 をベースとした総合的な SRS を比較した。
専門家による評価によると、ReqInOneはより正確でよく構造化されたSRS文書を生成する。
ReqInOneの性能上の利点はモジュラー設計の利点であり、実験結果は、その要求分類コンポーネントが最先端の要求分類モデルと同等かそれ以上の結果を得ることを示す。
関連論文リスト
- Exploring the Use of LLMs for Requirements Specification in an IT Consulting Company [0.39563752273706504]
本稿では,大規模言語モデル(LLM)を用いた要件仕様プロセスの自動化について報告する。
LLMは要件仕様の自動化と標準化に役立ち、時間と人的労力の削減に役立ちます。
しかし、LLM生成FDSの品質は入力に大きく依存しており、しばしば人間の修正を必要とする。
論文 参考訳(メタデータ) (2025-07-25T09:49:37Z) - SPARE: Single-Pass Annotation with Reference-Guided Evaluation for Automatic Process Supervision and Reward Modelling [70.01883340129204]
シングルパス。
リファレンスガイドによる評価(SPARE)
参照ソリューションにおける各ソリューションステップを1つまたは複数のステップにアライメントすることで、単一のパス毎のアノテーションを可能にする新しい構造化フレームワーク。
SPAREは2.6倍の効率を実現し、実行時の38%しか必要としない。
論文 参考訳(メタデータ) (2025-06-18T14:37:59Z) - Using LLMs in Software Requirements Specifications: An Empirical Evaluation [0.2812395851874055]
ソフトウェア要件仕様のドラフト作成におけるGPT-4とCodeLlamaの性能を評価する。
この結果から,LSMはエントリーレベルのソフトウェア技術者の出力品質と一致し,SRSを生成できることが示唆された。
LLMは、生産性を向上させるために、ソフトウェアエンジニアによって有利に使用できると結論付けています。
論文 参考訳(メタデータ) (2024-04-27T09:37:00Z) - Harnessing Multi-Role Capabilities of Large Language Models for
Open-Domain Question Answering [40.2758450304531]
オープンドメイン質問応答 (ODQA) は情報システムにおいて重要な研究スポットライトとなっている。
本稿では,ODQA処理をクエリ拡張,文書選択,回答生成という3つの基本ステップに定式化するフレームワークを提案する。
我々は,ロールプレイングプロンプトを洗練するための新しいプロンプト最適化アルゴリズムを導入し,高品質なエビデンスと回答を生成する。
論文 参考訳(メタデータ) (2024-03-08T11:09:13Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over Tabular and Textual Data [73.29220562541204]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - Language Models Enable Simple Systems for Generating Structured Views of Heterogeneous Data Lakes [54.13559879916708]
EVAPORATEは大規模言語モデル(LLM)を利用したプロトタイプシステムである。
コード合成は安価だが、各文書をLSMで直接処理するよりもはるかに正確ではない。
直接抽出よりも優れた品質を実現する拡張コード実装EVAPORATE-CODE+を提案する。
論文 参考訳(メタデータ) (2023-04-19T06:00:26Z) - Self-Prompting Large Language Models for Zero-Shot Open-Domain QA [67.08732962244301]
Open-Domain Question Answering (ODQA)は、背景文書を明示的に提供せずに質問に答えることを目的としている。
このタスクは、調整済みの検索リーダーモデルをトレーニングするデータがないゼロショット設定で顕著に困難になる。
本稿では,大規模言語モデルのパラメータに符号化された膨大な知識を明示的に活用するセルフプロンプトフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-16T18:23:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。