論文の概要: Large Language Models (LLMs) for Requirements Engineering (RE): A Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2509.11446v1
- Date: Sun, 14 Sep 2025 21:45:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.086547
- Title: Large Language Models (LLMs) for Requirements Engineering (RE): A Systematic Literature Review
- Title(参考訳): 要求工学のための大規模言語モデル(LLM) : 体系的文献レビュー
- Authors: Mohammad Amin Zadenoori, Jacek Dąbrowski, Waad Alhoshan, Liping Zhao, Alessio Ferrari,
- Abstract要約: 本研究は,出版動向,RE活動,促進戦略,評価方法など,諸次元の文献を分類する。
研究の多くは、欠陥検出や分類よりも、要件の適用と検証にLLMを使うことに重点を置いている。
問題追跡システム、規制、技術マニュアルなど、他のアーティファクトもますます検討されている。
- 参考スコア(独自算出の注目度): 2.0061679654181392
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) are finding applications in numerous domains, and Requirements Engineering (RE) is increasingly benefiting from their capabilities to assist with complex, language-intensive tasks. This paper presents a systematic literature review of 74 primary studies published between 2023 and 2024, examining how LLMs are being applied in RE. The study categorizes the literature according to several dimensions, including publication trends, RE activities, prompting strategies, and evaluation methods. Our findings indicate notable patterns, among which we observe substantial differences compared to previous works leveraging standard Natural Language Processing (NLP) techniques. Most of the studies focus on using LLMs for requirements elicitation and validation, rather than defect detection and classification, which were dominant in the past. Researchers have also broadened their focus and addressed novel tasks, e.g., test generation, exploring the integration of RE with other software engineering (SE) disciplines. Although requirements specifications remain the primary focus, other artifacts are increasingly considered, including issues from issue tracking systems, regulations, and technical manuals. The studies mostly rely on GPT-based models, and often use Zero-shot or Few-shot prompting. They are usually evaluated in controlled environments, with limited use in industry settings and limited integration in complex workflows. Our study outlines important future directions, such as leveraging the potential to expand the influence of RE in SE, exploring less-studied tasks, improving prompting methods, and testing in real-world environments. Our contribution also helps researchers and practitioners use LLMs more effectively in RE, by providing a list of identified tools leveraging LLMs for RE, as well as datasets.
- Abstract(参考訳): 大きな言語モデル(LLM)は多くのドメインでアプリケーションを見つけており、Requireements Engineering(RE)は複雑な言語集約タスクを支援する能力の恩恵をますます受けています。
本稿は,2023年から2024年にかけて発行された74の初等研究の体系的な文献レビューを行い,LLMがREにどのように適用されているかを検討した。
本研究は,出版動向,RE活動,促進戦略,評価方法など,諸次元の文献を分類する。
本研究は,従来の自然言語処理(NLP)技術とは大きく異なるパターンを呈する。
これらの研究の多くは、過去に優勢であった欠陥検出や分類よりも、要件の適用と検証にLLMを使うことに重点を置いている。
研究者はまた、焦点を拡大し、例えば、テスト生成、REと他のソフトウェアエンジニアリング(SE)の規律の統合を探求する、新しいタスクに取り組みました。
要件仕様は依然として主要な焦点であるが、イシュートラッキングシステム、規制、技術マニュアルなど他のアーティファクトも考慮されている。
研究は主にGPTベースのモデルに依存しており、Zero-shotやFew-shotのプロンプトを使うことが多い。
通常、制御された環境で評価され、業界環境での使用は限られ、複雑なワークフローでの統合は限られている。
本研究は、SEにおけるREの影響を拡大する可能性の活用、研究の少ないタスクの探索、プロンプト手法の改善、実環境におけるテストなど、今後の重要な方向性について概説する。
私たちの貢献は、研究者や実践者がREでLLMをより効果的に活用するためにも役立ちます。
関連論文リスト
- Prompt Engineering for Requirements Engineering: A Literature Review and Roadmap [7.63638387750336]
本稿では,Pmpt Engineering for RE(PE4RE)の最初のロードマップ指向の体系的文献レビューを紹介する。
断片化された景観に秩序をもたらすために,技術指向のパターンとタスク指向のREロールを結びつけるハイブリッド分類法を提案する。
論文 参考訳(メタデータ) (2025-07-10T12:02:56Z) - Prompt Engineering Guidelines for Using Large Language Models in Requirements Engineering [2.867517731896504]
大規模言語モデル(LLM)のようなジェネレーティブAIモデルは、要求工学(RE)を含むさまざまな活動において、その実用性を実証している。
LLM出力の品質と精度の確保は重要であり、迅速なエンジニアリングがモデル応答のガイドとなる。
既存の文献は、特にREアクティビティのために、迅速なエンジニアリングをどのように活用できるか、限定的なガイダンスを提供している。
論文 参考訳(メタデータ) (2025-07-04T09:13:50Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Large Language Models for Software Engineering: A Systematic Literature Review [34.12458948051519]
大規模言語モデル(LLM)は、ソフトウェア工学(SE)を含む多くの領域に大きな影響を与えている。
我々は、2017年1月から2024年1月までの395件の研究論文を選定、分析し、4つの重要な研究質問(RQ)に答える。
これらのRQに対する回答から、現在の最先端とトレンド、既存の研究のギャップの特定、今後の研究に向けた有望な領域のフラグ付けなどについて論じる。
論文 参考訳(メタデータ) (2023-08-21T10:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。