論文の概要: Requirements Elicitation Follow-Up Question Generation
- arxiv url: http://arxiv.org/abs/2507.02858v1
- Date: Thu, 03 Jul 2025 17:59:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:16.876535
- Title: Requirements Elicitation Follow-Up Question Generation
- Title(参考訳): 要求緩和のフォローアップ質問生成
- Authors: Yuchen Shen, Anmol Singhal, Travis Breaux,
- Abstract要約: 大規模言語モデル(LLM)は、複数の自然言語処理タスクにおいて最先端のパフォーマンスを示す。
本研究は,GPT-4oを要件適用時のフォローアップインタビューに応用することを検討した。
- 参考スコア(独自算出の注目度): 0.5120567378386615
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interviews are a widely used technique in eliciting requirements to gather stakeholder needs, preferences, and expectations for a software system. Effective interviewing requires skilled interviewers to formulate appropriate interview questions in real time while facing multiple challenges, including lack of familiarity with the domain, excessive cognitive load, and information overload that hinders how humans process stakeholders' speech. Recently, large language models (LLMs) have exhibited state-of-the-art performance in multiple natural language processing tasks, including text summarization and entailment. To support interviewers, we investigate the application of GPT-4o to generate follow-up interview questions during requirements elicitation by building on a framework of common interviewer mistake types. In addition, we describe methods to generate questions based on interviewee speech. We report a controlled experiment to evaluate LLM-generated and human-authored questions with minimal guidance, and a second controlled experiment to evaluate the LLM-generated questions when generation is guided by interviewer mistake types. Our findings demonstrate that, for both experiments, the LLM-generated questions are no worse than the human-authored questions with respect to clarity, relevancy, and informativeness. In addition, LLM-generated questions outperform human-authored questions when guided by common mistakes types. This highlights the potential of using LLMs to help interviewers improve the quality and ease of requirements elicitation interviews in real time.
- Abstract(参考訳): インタビューは、ステークホルダーのニーズ、好み、そしてソフトウェアシステムに対する期待を集めるための要件を導き出すのに広く使われているテクニックである。
効果的な面接には、ドメインへの親しみの欠如、過度な認知負荷、利害関係者のスピーチの処理方法を妨げる情報の過負荷など、複数の課題に直面しながら、適切な面接質問をリアルタイムに定式化する必要がある。
近年,大規模言語モデル (LLM) は,テキスト要約やエンタテインメントを含む複数の自然言語処理タスクにおいて,最先端の性能を示した。
インタビュアーを支援するために,一般的なインタビュアーのミスタイプに基づく枠組みを構築することにより,要求誘発時のフォローアップインタビュアー質問を生成するための GPT-4o の適用について検討する。
さらに,インタビュー音声に基づいて質問を生成する手法についても述べる。
本報告では,LLM生成質問を最小限のガイダンスで評価するための制御実験と,インタビュアーのミスタイプによって生成が誘導された場合にLLM生成質問を評価する第2の制御実験について報告する。
両実験とも, LLM生成質問は, 明快さ, 関連性, 情報性に関して, 人による質問ほど悪くはないことがわかった。
加えて、LLMが生成した質問は、一般的なミスタイプによってガイドされるときに、人間による質問よりも優れている。
このことは、LLMを使用して、インタビュアーが要求の質と容易さをリアルタイムで改善する可能性を強調している。
関連論文リスト
- Using Large Language Models to Develop Requirements Elicitation Skills [1.1473376666000734]
チャットベースのインタビューにおいて,クライアントの役割を果たすために,大規模言語モデルを条件付けすることを提案する。
どちらの手法も、参加者が技術的に健全なソリューションを構築するのに十分な情報を提供する。
論文 参考訳(メタデータ) (2025-03-10T19:27:38Z) - GuideLLM: Exploring LLM-Guided Conversation with Applications in Autobiography Interviewing [73.8469700907927]
大規模言語モデル(LLM)は、指示の追従や質問応答といった人間の指導による会話に成功している。
本研究では, LLM誘導会話を, ゴールナビゲーション, (ii) コンテキストマネジメント, (iii) 共感エンゲージメントの3つの基本要素に分類した。
GPT-4o や Llama-3-70b-Instruct のような6つの最先端 LLM と比較し, 面接品質, 自伝生成品質の観点から検討した。
論文 参考訳(メタデータ) (2025-02-10T14:11:32Z) - Can LLMs Ask Good Questions? [45.54763954234726]
大規模言語モデル(LLM)が生成する質問を文脈から評価する。
質問タイプ,質問長,コンテキストカバレッジ,回答可能性,不共通性,必要な回答長の6つの次元にわたる人間による質問と比較した。
論文 参考訳(メタデータ) (2025-01-07T03:21:17Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - ELOQ: Resources for Enhancing LLM Detection of Out-of-Scope Questions [52.33835101586687]
本研究では,検索した文書が意味的に類似しているように見えるスコープ外質問について検討するが,答えるために必要な情報がない。
本稿では,閉経後の文書から多様なスコープ外質問を自動的に生成するための,幻覚に基づくELOQを提案する。
論文 参考訳(メタデータ) (2024-10-18T16:11:29Z) - AI Conversational Interviewing: Transforming Surveys with LLMs as Adaptive Interviewers [40.80290002598963]
本研究では,人間のインタビュアーを大規模言語モデル (LLM) に置き換えて,スケーラブルな対話型インタビュアーを実現する可能性について検討する。
大学生を対象に,AIやヒューマンインタビュアーによる会話面接にランダムに割り当てられた,小規模かつ詳細な調査を行った。
様々な量的・質的な尺度は, インタビュアーのガイドライン, 応答品質, 参加者参加率, 総合的な面接効果に順応した。
論文 参考訳(メタデータ) (2024-09-16T16:03:08Z) - CaLMQA: Exploring culturally specific long-form question answering across 23 languages [58.18984409715615]
CaLMQAは、文化的に異なる23言語にわたる51.7Kの質問のデータセットである。
我々は,LLM生成長文回答の事実性,関連性,表面品質を評価する。
論文 参考訳(メタデータ) (2024-06-25T17:45:26Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。