論文の概要: Enhancing Requirement Traceability through Data Augmentation Using Large Language Models
- arxiv url: http://arxiv.org/abs/2509.20149v1
- Date: Wed, 24 Sep 2025 14:14:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.842777
- Title: Enhancing Requirement Traceability through Data Augmentation Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたデータ拡張による要求トレーサビリティ向上
- Authors: Jianzhang Zhang, Jialong Zhou, Nan Niu, Chuang Liu,
- Abstract要約: 本研究では,データ拡張に大規模言語モデル(LLM)を用いることにより,要求トレーサビリティにおけるデータ不足問題に対処することを目的とする。
提案手法は,LLMを用いたプロンプトベースの手法を用いて,拡張された要求とコード間のトレースリンクを生成する手法である。
実験の結果,F1スコアは最大28.59%向上した。
- 参考スコア(独自算出の注目度): 5.343285889103424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Requirements traceability is crucial in software engineering to ensure consistency between requirements and code. However, existing automated traceability methods are constrained by the scarcity of training data and challenges in bridging the semantic gap between artifacts. This study aims to address the data scarcity problem in requirements traceability by employing large language models (LLMs) for data augmentation. We propose a novel approach that utilizes prompt-based techniques with LLMs to generate augmented requirement-to-code trace links, thereby enhancing the training dataset. Four LLMs (Gemini 1.5 Pro, Claude 3, GPT-3.5, and GPT-4) were used, employing both zero-shot and few-shot templates. Moreover, we optimized the encoder component of the tracing model to improve its efficiency and adaptability to augmented data. The key contributions of this paper are: (1) proposing and evaluating four prompt templates for data augmentation; (2) providing a comparative analysis of four LLMs for generating trace links; (3) enhancing the model's encoder for improved adaptability to augmented datasets. Experimental results show that our approach significantly enhances model performance, achieving an F1 score improvement of up to 28.59%, thus demonstrating its effectiveness and potential for practical application.
- Abstract(参考訳): 要件トレーサビリティは、要件とコード間の一貫性を確保するために、ソフトウェア工学において不可欠である。
しかし、既存の自動トレーサビリティ手法は、トレーニングデータの不足と、アーティファクト間のセマンティックギャップを埋めることの難しさによって制約されている。
本研究では,データ拡張に大規模言語モデル(LLM)を用いることにより,要求トレーサビリティにおけるデータ不足問題に対処することを目的とする。
提案手法は,LSMを用いたプロンプトベースの手法を用いて,拡張された要求とコード間のトレースリンクを生成することで,トレーニングデータセットの強化を実現する。
4基のLCM(Gemini 1.5 Pro、Claude 3、GPT-3.5、GPT-4)が用いられ、ゼロショットと少数ショットのテンプレートが使用された。
さらに、トレースモデルのエンコーダコンポーネントを最適化し、その効率性と拡張データへの適応性を向上させる。
本稿では,(1)データ拡張のための4つのプロンプトテンプレートの提案と評価,(2)トレースリンクを生成するための4つのLCMの比較分析,(3)拡張データセットへの適応性を向上させるためのモデルのエンコーダの強化について述べる。
実験結果から,本手法はモデル性能を大幅に向上し,F1スコアを最大28.59%向上させることができた。
関連論文リスト
- Evaluating Language Models as Synthetic Data Generators [99.16334775127875]
AgoraBenchは、LMのデータ生成能力を評価するための標準化された設定とメトリクスを提供するベンチマークである。
6つのLMを使って126万のトレーニングインスタンスを合成し、99の学生モデルをトレーニングすることで、LMのデータ生成能力に関する重要な洞察を明らかにする。
論文 参考訳(メタデータ) (2024-12-04T19:20:32Z) - Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - Rethinking Data Synthesis: A Teacher Model Training Recipe with Interpretation [12.736045604858738]
大規模言語モデル(LLM)訓練の最近の進歩は、多種多様な高品質な命令データの必要性を強調している。
データ生成のためのモデルを具体的に訓練する方法を検討することにより、 textbfNOMAD というパラダイムシフトを提案する。
論文 参考訳(メタデータ) (2024-10-27T07:38:39Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Improving Retrieval Augmented Language Model with Self-Reasoning [20.715106330314605]
本稿では,ALMの信頼性とトレーサビリティ向上を目的とした,新たな自己推論フレームワークを提案する。
このフレームワークは、関連性を認識したプロセス、エビデンスを認識した選択プロセス、軌跡解析プロセスの3つのプロセスで自己推論軌道を構築することを含む。
提案手法の優位性を示すため,4つの公開データセットにまたがるフレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-07-29T09:05:10Z) - ITERTL: An Iterative Framework for Fine-tuning LLMs for RTL Code Generation [9.409062607311528]
大規模言語モデル(LLM)は優れた性能を示しており、研究者はレジスタ転送レベル(RTL)コード生成の自動化に利用することを模索している。
RTL生成のためのファインチューンLSMへの既存のアプローチは、通常、固定データセット上で実行される。
ITERTLと呼ばれる反復的なトレーニングパラダイムを導入し、これらの問題を緩和する。
我々のモデルは GPT4 と State-of-the-art (SOTA) のオープンソースモデルより優れており、VerilogEval- Human ベンチマークでは 53.8% のパス@1 レートを達成した。
論文 参考訳(メタデータ) (2024-06-28T01:44:57Z) - Genixer: Empowering Multimodal Large Language Models as a Powerful Data Generator [63.762209407570715]
Genixerは4つの重要なステップからなる包括的なデータ生成パイプラインである。
LLaVA1.5でトレーニングされた合成VQAライクなデータセットは、12のマルチモーダルベンチマークのうち10のパフォーマンスを向上させる。
タスク固有のデータセットで訓練されたMLLMは、複雑な命令チューニングデータを生成する際に、GPT-4Vを超えることができる。
論文 参考訳(メタデータ) (2023-12-11T09:44:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。