論文の概要: Exploring LLMs Impact on Student-Created User Stories and Acceptance Testing in Software Development
- arxiv url: http://arxiv.org/abs/2502.02675v1
- Date: Tue, 04 Feb 2025 19:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-06 14:28:27.830325
- Title: Exploring LLMs Impact on Student-Created User Stories and Acceptance Testing in Software Development
- Title(参考訳): 学生によるユーザストーリーとソフトウェア開発におけるアクセプタンステストへの影響を探る
- Authors: Allan Brockenbrough, Henry Feild, Dominic Salinas,
- Abstract要約: 本研究では,LLM(大規模言語モデル)が大学生のユーザフィードバックをユーザストーリーに変換する能力に与える影響について検討する。
個別に働く学生は、ユーザーからのフィードバックのコメントを分析し、関連項目を適切にグループ化し、ユーザーストーリーを作成するように求められた。
その結果,LLMは学生にとって価値あるストーリーを十分に定義された受理基準で開発するのに役立つことがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In Agile software development methodology, a user story describes a new feature or functionality from an end user's perspective. The user story details may also incorporate acceptance testing criteria, which can be developed through negotiation with users. When creating stories from user feedback, the software engineer may maximize their usefulness by considering story attributes, including scope, independence, negotiability, and testability. This study investigates how LLMs (large language models), with guided instructions, affect undergraduate software engineering students' ability to transform user feedback into user stories. Students, working individually, were asked to analyze user feedback comments, appropriately group related items, and create user stories following the principles of INVEST, a framework for assessing user stories. We found that LLMs help students develop valuable stories with well-defined acceptance criteria. However, students tend to perform better without LLMs when creating user stories with an appropriate scope.
- Abstract(参考訳): アジャイルソフトウェア開発方法論では、エンドユーザーの視点から、ユーザーストーリーは新しい機能や機能を記述します。
ユーザストーリーの詳細はまた、ユーザとの交渉を通じて開発できる受け入れテスト基準も含んでいる。
ユーザからのフィードバックからストーリを作成する場合、ソフトウェアエンジニアは、スコープ、独立性、ネゴシビリティ、テスト容易性といったストーリ属性を考慮することで、有用性を最大化することができる。
本研究では,LLM(大規模言語モデル)が大学生のユーザフィードバックをユーザストーリーに変換する能力にどのように影響するかを検討する。
個別に働く学生は、ユーザフィードバックのコメントを分析し、関連する項目を適切にグループ化し、ユーザーストーリーを評価するフレームワークであるINVESTの原則に従ってユーザーストーリーを作成するように求められた。
その結果,LLMは学生にとって価値あるストーリーを十分に定義された受理基準で開発するのに役立つことがわかった。
しかし、学生は適切なスコープでユーザーストーリーを作成する場合、LLMなしではより良いパフォーマンスを発揮する傾向にある。
関連論文リスト
- Optimizing Data Delivery: Insights from User Preferences on Visuals, Tables, and Text [59.68239795065175]
ユーザが質問を提示するユーザスタディを実施し、何を見たいのかを尋ねます。
ユーザの個人的特性が、彼らが好むデータ出力に影響を与えることを確認するために、このデータを使用します。
論文 参考訳(メタデータ) (2024-11-12T00:24:31Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues using LLMs [49.18567856499736]
本研究では,大規模言語モデル(LLM)が対話学習を支援することができるかどうかを検討する。
我々は,学習者の知識レベルを対話全体にわたって追跡するために,ラベル付きデータに知識追跡(KT)手法を適用した。
我々は,2つの学習対話データセットの実験を行い,従来のKT手法よりも学生の反応の正しさを予測できる新しいLCM-based method LLMKTが優れていることを示す。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Improving Ontology Requirements Engineering with OntoChat and Participatory Prompting [3.3241053483599563]
OREは主に、ドメインの専門家からユーザ要求を集めるために、インタビューや共同フォーラムのような手動の手法に依存しています。
Current OntoChatは,大規模な言語モデル(LLM)を使用してプロセスを合理化するための,ORE用のフレームワークを提供する。
本研究は,ユーザストーリのペルソナ,目標,シナリオ,サンプルデータ,データリソースの作成と精錬に重点を置いた,ユーザクエリに基づく事前定義されたプロンプトテンプレートを生成する。
論文 参考訳(メタデータ) (2024-08-09T19:21:14Z) - I Need Help! Evaluating LLM's Ability to Ask for Users' Support: A Case Study on Text-to-SQL Generation [60.00337758147594]
本研究では,LLMのユーザサポートを積極的に行う能力について検討する。
性能改善とユーザ負担のトレードオフを評価する指標を提案する。
我々の実験は、外部からのフィードバックがなければ、多くのLCMがユーザサポートの必要性を認識するのに苦労していることを示している。
論文 参考訳(メタデータ) (2024-07-20T06:12:29Z) - Large Language Model as an Assignment Evaluator: Insights, Feedback, and Challenges in a 1000+ Student Course [49.296957552006226]
大規模言語モデル(LLM)を自動評価に用いることは,NLP研究において重要な評価手法となっている。
本報告では,1028人の大学生を対象に,GPT-4を自動課題評価装置として利用する方法について述べる。
論文 参考訳(メタデータ) (2024-07-07T00:17:24Z) - User Story Tutor (UST) to Support Agile Software Developers [0.4077787659104315]
User Story Tutor (UST)と呼ばれるWebアプリケーションを設計、実装、適用、評価しました。
USTは、可読性のために与えられたユーザストーリーの記述をチェックし、必要に応じて、改善のための適切なプラクティスを推奨します。
USTは、ユーザストーリーを書いたりレビューしたりする際に、アジャイル開発チームの継続的な教育をサポートするかもしれない。
論文 参考訳(メタデータ) (2024-06-24T01:55:01Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - A User-Centric Benchmark for Evaluating Large Language Models [39.538411572029005]
大きな言語モデル(LLM)は、異なるタスクでユーザと協調するために必要なツールである。
実際のユーザによるLLMの利用を意図したベンチマークはほとんどない。
ユーザニーズを満たす上での有効性について10のLCMサービスをベンチマークする。
論文 参考訳(メタデータ) (2024-04-22T07:32:03Z) - How Reliable is Your Simulator? Analysis on the Limitations of Current LLM-based User Simulators for Conversational Recommendation [14.646529557978512]
本稿では,対話型レコメンダシステムのためのユーザシミュレータ構築におけるLarge Language Modelsの使用制限について分析する。
会話履歴やユーザシミュレータの応答で発生するデータ漏洩は,評価結果を膨らませる結果となる。
そこで我々はSimpleUserSimを提案する。
論文 参考訳(メタデータ) (2024-03-25T04:21:06Z) - User-LLM: Efficient LLM Contextualization with User Embeddings [23.226164112909643]
User-LLMは、ユーザ埋め込みを利用して、大きな言語モデルとユーザ履歴の相互作用を直接コンテキスト化する新しいフレームワークである。
提案手法では,ユーザタイムラインを直接埋め込みとして表現することで,最大78.1倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-02-21T08:03:27Z) - Eliciting Human Preferences with Language Models [56.68637202313052]
言語モデル(LM)は、ラベル付き例や自然言語のプロンプトを使用してターゲットタスクを実行するように指示することができる。
タスク仕様プロセスのガイドには*LM自身を使うことを提案します。
我々は、メール検証、コンテンツレコメンデーション、道徳的推論の3つの領域でGATEを研究している。
論文 参考訳(メタデータ) (2023-10-17T21:11:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。