論文の概要: LLMREI: Automating Requirements Elicitation Interviews with LLMs
- arxiv url: http://arxiv.org/abs/2507.02564v1
- Date: Thu, 03 Jul 2025 12:18:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.273525
- Title: LLMREI: Automating Requirements Elicitation Interviews with LLMs
- Title(参考訳): LLMREI: LLMによる要求緩和インタビューの自動化
- Authors: Alexander Korn, Samuel Gorsch, Andreas Vogelsang,
- Abstract要約: 本研究では,人間の介入を最小限に抑えながら,要求適応面接を行うチャットボット LLMREI を紹介する。
我々は33回のシミュレート・ステークホルダー・インタビューでその性能を評価した。
以上の結果から,LLMREIは人間のインタビュアーと同じような誤りを犯し,要求の大部分を抽出し,文脈に依存した質問を生成できることが示唆された。
- 参考スコア(独自算出の注目度): 47.032121951473435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Requirements elicitation interviews are crucial for gathering system requirements but heavily depend on skilled analysts, making them resource-intensive, susceptible to human biases, and prone to miscommunication. Recent advancements in Large Language Models present new opportunities for automating parts of this process. This study introduces LLMREI, a chat bot designed to conduct requirements elicitation interviews with minimal human intervention, aiming to reduce common interviewer errors and improve the scalability of requirements elicitation. We explored two main approaches, zero-shot prompting and least-to-most prompting, to optimize LLMREI for requirements elicitation and evaluated its performance in 33 simulated stakeholder interviews. A third approach, fine-tuning, was initially considered but abandoned due to poor performance in preliminary trials. Our study assesses the chat bot's effectiveness in three key areas: minimizing common interview errors, extracting relevant requirements, and adapting its questioning based on interview context and user responses. Our findings indicate that LLMREI makes a similar number of errors compared to human interviewers, is capable of extracting a large portion of requirements, and demonstrates a notable ability to generate highly context-dependent questions. We envision the greatest benefit of LLMREI in automating interviews with a large number of stakeholders.
- Abstract(参考訳): 要件採用面接は、システム要件の収集には不可欠だが、熟練したアナリストに大きく依存している。
大規模言語モデルの最近の進歩は、このプロセスの一部を自動化する新しい機会を提供する。
LLMREIは,人間による介入を最小限に抑えながら,要求の推論を行うチャットボットであり,一般的なインタビュアーのエラーを低減し,要求の推論のスケーラビリティを向上させることを目的としている。
我々は,ゼロショットプロンプトと最短プロンプトという2つの主要なアプローチを探索し,LLMREIを要件適用のために最適化し,33回のシミュレートされた利害関係者インタビューでその性能を評価した。
第3のアプローチである微調整は、当初は検討されたが、予備試験で性能が悪かったために放棄された。
本研究は,チャットボットの有効性を3つの重要な領域において評価する。一般的なインタビューエラーの最小化,関連する要件の抽出,インタビューコンテキストとユーザ応答に基づく質問への適応である。
以上の結果から,LLMREIは人間のインタビュアーと同じような誤りを犯し,要求の大部分を抽出し,文脈に依存した質問を生成できることが示唆された。
LLMREIの最大のメリットは、多数の利害関係者とのインタビューを自動化することだ。
関連論文リスト
- Requirements Elicitation Follow-Up Question Generation [0.5120567378386615]
大規模言語モデル(LLM)は、複数の自然言語処理タスクにおいて最先端のパフォーマンスを示す。
本研究は,GPT-4oを要件適用時のフォローアップインタビューに応用することを検討した。
論文 参考訳(メタデータ) (2025-07-03T17:59:04Z) - Using Large Language Models to Develop Requirements Elicitation Skills [1.1473376666000734]
チャットベースのインタビューにおいて,クライアントの役割を果たすために,大規模言語モデルを条件付けすることを提案する。
どちらの手法も、参加者が技術的に健全なソリューションを構築するのに十分な情報を提供する。
論文 参考訳(メタデータ) (2025-03-10T19:27:38Z) - RECOVER: Toward Requirements Generation from Stakeholders' Conversations [10.706772429994384]
本稿では,会話要求工学の新たなアプローチであるRECOVERを紹介する。
利害関係者のインタラクションからシステム要件を自動的に抽出する実践者を支援する。
経験的評価は、十分な正確性、完全性、実行可能性を示す要求が生成された、有望なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-11-29T08:52:40Z) - JudgeRank: Leveraging Large Language Models for Reasoning-Intensive Reranking [81.88787401178378]
本稿では,文書関連性を評価する際に,人間の認知過程をエミュレートする新しいエージェント・リランカであるJiceRankを紹介する。
我々は,推論集約型BRIGHTベンチマークを用いて判定Rankを評価し,第1段階の検索手法よりも性能が大幅に向上したことを示す。
さらに、JiceRankは、人気の高いBEIRベンチマークの細調整された最先端リランカと同等に動作し、ゼロショットの一般化能力を検証している。
論文 参考訳(メタデータ) (2024-10-31T18:43:12Z) - AI Conversational Interviewing: Transforming Surveys with LLMs as Adaptive Interviewers [40.80290002598963]
本研究では,人間のインタビュアーを大規模言語モデル (LLM) に置き換えて,スケーラブルな対話型インタビュアーを実現する可能性について検討する。
大学生を対象に,AIやヒューマンインタビュアーによる会話面接にランダムに割り当てられた,小規模かつ詳細な調査を行った。
様々な量的・質的な尺度は, インタビュアーのガイドライン, 応答品質, 参加者参加率, 総合的な面接効果に順応した。
論文 参考訳(メタデータ) (2024-09-16T16:03:08Z) - Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - Clarify When Necessary: Resolving Ambiguity Through Interaction with LMs [58.620269228776294]
そこで本稿では,ユーザに対して,あいまいさを解消するためのタスク非依存のフレームワークを提案する。
我々は3つのNLPアプリケーション(質問応答、機械翻訳、自然言語推論)にまたがるシステムを評価する。
インテントシムは堅牢であり、幅広いNLPタスクやLMの改善を実証している。
論文 参考訳(メタデータ) (2023-11-16T00:18:50Z) - Generative Judge for Evaluating Alignment [84.09815387884753]
本稿では,これらの課題に対処するために,13Bパラメータを持つ生成判断器Auto-Jを提案する。
我々のモデルは,大規模な実環境シナリオ下でのユーザクエリとLLM生成応答に基づいて訓練されている。
実験的に、Auto-Jはオープンソースモデルとクローズドソースモデルの両方を含む、強力なライバルのシリーズを上回っている。
論文 参考訳(メタデータ) (2023-10-09T07:27:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。