論文の概要: GPT-Powered Elicitation Interview Script Generator for Requirements Engineering Training
- arxiv url: http://arxiv.org/abs/2406.11439v1
- Date: Mon, 17 Jun 2024 11:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-18 15:01:35.504310
- Title: GPT-Powered Elicitation Interview Script Generator for Requirements Engineering Training
- Title(参考訳): 要求工学教育のためのGPTを利用した省電力インタビュースクリプトジェネレータ
- Authors: Binnur Görer, Fatma Başak Aydemir,
- Abstract要約: インタビュースクリプトの自動生成のための特殊なGPTエージェントを開発する。
GPTエージェントは、要件付与面接手順のガイドラインとベストプラクティスに合わせた専門知識ベースを備えている。
我々は,GPTの出力長制約を緩和し,網羅的で詳細なインタビュースクリプトを生成するために,プロンプトチェイン方式を採用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Elicitation interviews are the most common requirements elicitation technique, and proficiency in conducting these interviews is crucial for requirements elicitation. Traditional training methods, typically limited to textbook learning, may not sufficiently address the practical complexities of interviewing techniques. Practical training with various interview scenarios is important for understanding how to apply theoretical knowledge in real-world contexts. However, there is a shortage of educational interview material, as creating interview scripts requires both technical expertise and creativity. To address this issue, we develop a specialized GPT agent for auto-generating interview scripts. The GPT agent is equipped with a dedicated knowledge base tailored to the guidelines and best practices of requirements elicitation interview procedures. We employ a prompt chaining approach to mitigate the output length constraint of GPT to be able to generate thorough and detailed interview scripts. This involves dividing the interview into sections and crafting distinct prompts for each, allowing for the generation of complete content for each section. The generated scripts are assessed through standard natural language generation evaluation metrics and an expert judgment study, confirming their applicability in requirements engineering training.
- Abstract(参考訳): 引用面接は最も一般的な要件付与手法であり,これらの面接の実施能力は要件付与に不可欠である。
通常教科書学習に限られる伝統的な訓練方法は、面接技法の実践的な複雑さに十分対応できない。
様々な面接シナリオを用いた実践的なトレーニングは,現実の文脈における理論的知識の適用方法を理解する上で重要である。
しかし、面接書の作成には技術知識と創造性の両方が必要であるため、教育的な面接資料が不足している。
この問題に対処するため,インタビュースクリプトの自動生成のための特殊なGPTエージェントを開発した。
GPTエージェントは、要件付与面接手順のガイドラインとベストプラクティスに合わせた専門知識ベースを備えている。
我々は,GPTの出力長制約を緩和し,網羅的で詳細なインタビュースクリプトを生成するために,プロンプトチェイン方式を採用する。
これにはインタビューをセクションに分割し、各セクションごとに異なるプロンプトを作成し、セクションごとに完全なコンテンツを生成することが含まれる。
生成したスクリプトは、標準自然言語生成評価指標と専門的判断試験を通じて評価され、要求工学トレーニングにおける適用性を確認する。
関連論文リスト
- Benchmarking Large Language Models for Conversational Question Answering in Multi-instructional Documents [61.41316121093604]
対話型質問応答(CQA)の文脈における大規模言語モデル(LLM)を評価するための新しいベンチマークであるInsCoQAを提案する。
InsCoQAは、百科事典スタイルの教育内容から派生したもので、複数の文書から手続き的ガイダンスを抽出し、解釈し、正確に要約する能力のモデルを評価する。
また,LLM支援型評価器であるInsEvalを提案する。
論文 参考訳(メタデータ) (2024-10-01T09:10:00Z) - Exploring Prompt Engineering Practices in the Enterprise [3.7882262667445734]
プロンプト(英: prompt)は、モデルから特定の振る舞いや出力を引き出すように設計された自然言語命令である。
特定の要求のある複雑なタスクやタスクに対して、迅速な設計は簡単ではない。
我々は、プロンプト編集行動のセッションを分析し、ユーザが反復したプロンプトの一部と、それらが行った変更の種類を分類する。
論文 参考訳(メタデータ) (2024-03-13T20:32:32Z) - Exploring Emerging Technologies for Requirements Elicitation Interview
Training: Empirical Assessment of Robotic and Virtual Tutors [0.0]
本稿では,新しい教育技術に基づく要求緩和面接訓練システムについて提案する。
物理ロボットエージェントのRoと仮想音声エージェントのVoの2つの実装によるREITの適用性を示す。
論文 参考訳(メタデータ) (2023-04-28T20:03:48Z) - EZInterviewer: To Improve Job Interview Performance with Mock Interview
Generator [60.2099886983184]
EZInterviewerは、オンライン面接データから学び、求職者に模擬面接サービスを提供する。
低リソースの課題に対処するため、EZInterviewerはインタビューダイアログのごく小さなセットで訓練されている。
論文 参考訳(メタデータ) (2023-01-03T07:00:30Z) - Prompting Language Models for Linguistic Structure [73.11488464916668]
本稿では,言語構造予測タスクに対する構造化プロンプト手法を提案する。
提案手法は, 音声タグ付け, 名前付きエンティティ認識, 文チャンキングについて評価する。
PLMはタスクラベルの事前知識を事前学習コーパスに漏えいすることで有意な事前知識を含むが、構造化プロンプトは任意のラベルで言語構造を復元することも可能である。
論文 参考訳(メタデータ) (2022-11-15T01:13:39Z) - Context-Tuning: Learning Contextualized Prompts for Natural Language
Generation [52.835877179365525]
自然言語生成のための微調整PLMに対して,Context-Tuningと呼ばれる新しい連続的プロンプト手法を提案する。
まず、入力テキストに基づいてプロンプトを導出し、PLMから有用な知識を抽出して生成する。
第二に、生成したテキストの入力に対する関連性をさらに高めるために、連続的な逆プロンプトを用いて自然言語生成のプロセスを洗練する。
論文 参考訳(メタデータ) (2022-01-21T12:35:28Z) - Deep Learning Interviews: Hundreds of fully solved job interview
questions from a wide range of key topics in AI [2.0305676256390934]
Deep Learning Interviewsは、インタビューをリハーサルしたり、特定のトピックをテストしたり、この分野の概要を十分に整理した形で提供するように設計されている。
本書の内容は、DLの面接や大学院レベルの試験に関連する多くのトピックの大規模な目録である。
すべての計算機科学者の訓練はMLの基本定理を含む必要があると広く受け入れられている。
論文 参考訳(メタデータ) (2021-12-30T13:28:27Z) - Dialogue-oriented Pre-training [70.03028879331339]
一般的なプレーンテキスト上での会話特徴をシミュレートする3つの手法を提案する。
Dialog-PrLMは3つの公開マルチターン対話データセットに基づいて微調整される。
論文 参考訳(メタデータ) (2021-06-01T12:02:46Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。