論文の概要: USeR: A Web-based User Story eReviewer for Assisted Quality Optimizations
- arxiv url: http://arxiv.org/abs/2503.02049v1
- Date: Mon, 03 Mar 2025 21:02:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:22:32.688687
- Title: USeR: A Web-based User Story eReviewer for Assisted Quality Optimizations
- Title(参考訳): USeR: 品質最適化のためのWebベースのユーザストーリーeReviewer
- Authors: Daniel Hallmann, Kerstin Jacob, Gerald Lüttgen, Ute Schmid, Rüdiger von der Weth,
- Abstract要約: 複数のユーザストーリの品質ガイドラインが存在するが、業界プロジェクトにおけるプロダクトオーナーのような著者は、高品質なユーザストーリを書くのに失敗することが多い。
この状況は、ユーザストーリーの品質を評価するツールの欠如によって悪化します。
我々は,ユーザストーリーの品質を判断し,最適化する Web ベースのツールである User Story eReviewer (USeR) を提案する。
- 参考スコア(独自算出の注目度): 2.746265158172294
- License:
- Abstract: User stories are widely applied for conveying requirements within agile software development teams. Multiple user story quality guidelines exist, but authors like Product Owners in industry projects frequently fail to write high-quality user stories. This situation is exacerbated by the lack of tools for assessing user story quality. In this paper, we propose User Story eReviewer (USeR) a web-based tool that allows authors to determine and optimize user story quality. For developing USeR, we collected 77 potential quality metrics through literature review, practitioner sessions, and research group meetings and refined these to 34 applicable metrics through expert sessions. Finally, we derived algorithms for eight prioritized metrics using a literature review and research group meetings and implemented them with plain code and machine learning techniques. USeR offers a RESTful API and user interface for instant, consistent, and explainable user feedback supporting fast and easy quality optimizations. It has been empirically evaluated with an expert study using 100 user stories and four experts from two real-world agile software projects in the automotive and health sectors.
- Abstract(参考訳): ユーザストーリはアジャイルソフトウェア開発チーム内の要件伝達に広く適用されています。
複数のユーザストーリの品質ガイドラインが存在するが、業界プロジェクトにおけるプロダクトオーナーのような著者は、高品質なユーザストーリを書くのに失敗することが多い。
この状況は、ユーザストーリーの品質を評価するツールの欠如によって悪化します。
本稿では,ユーザストーリーの品質を判断し,最適化する Web ベースのツールである User Story eReviewer (USeR) を提案する。
USeRを開発するために、文献レビュー、実践者セッション、研究グループミーティングを通じて77の潜在的な品質指標を収集し、専門家セッションを通じて34のメトリクスに洗練しました。
最後に、文献レビューと研究グループミーティングを用いて、8つの優先順位付けされたメトリクスのアルゴリズムを抽出し、それらを平易なコードと機械学習技術で実装した。
USeRは、迅速で簡単な品質最適化をサポートする、インスタントで一貫性があり、説明可能なユーザーフィードバックのためのRESTfulなAPIとユーザーインターフェースを提供する。
100のユーザストーリーと、自動車と健康分野の2つの実世界のアジャイルソフトウェアプロジェクトの4人のエキスパートを使って、経験的に評価されている。
関連論文リスト
- Exploring LLMs Impact on Student-Created User Stories and Acceptance Testing in Software Development [0.0]
本研究では,LLM(大規模言語モデル)が大学生のユーザフィードバックをユーザストーリーに変換する能力に与える影響について検討する。
個別に働く学生は、ユーザーからのフィードバックのコメントを分析し、関連項目を適切にグループ化し、ユーザーストーリーを作成するように求められた。
その結果,LLMは学生にとって価値あるストーリーを十分に定義された受理基準で開発するのに役立つことがわかった。
論文 参考訳(メタデータ) (2025-02-04T19:35:44Z) - Towards Realistic Evaluation of Commit Message Generation by Matching Online and Offline Settings [77.20838441870151]
オンラインメトリック - VCSに生成されたメッセージをコミットする前にユーザが導入する編集回数 - を使用して、オフライン実験用のメトリクスを選択します。
我々は,GPT-4が生成したコミットメッセージと,人間の専門家が編集したコミットメッセージからなる57対のデータセットを収集した。
以上の結果から,編集距離が最も高い相関性を示すのに対し,BLEUやMETEORなどの類似度は低い相関性を示すことがわかった。
論文 参考訳(メタデータ) (2024-10-15T20:32:07Z) - What Makes a Good Story and How Can We Measure It? A Comprehensive Survey of Story Evaluation [57.550045763103334]
ストーリーを評価することは、他の世代の評価タスクよりも難しい場合があります。
まず、テキスト・トゥ・テキスト、ビジュアル・トゥ・テキスト、テキスト・トゥ・ビジュアルといった既存のストーリーテリングタスクを要約する。
本研究では,これまで開発されてきた,あるいはストーリー評価に応用可能な評価指標を整理する分類法を提案する。
論文 参考訳(メタデータ) (2024-08-26T20:35:42Z) - Improving Ontology Requirements Engineering with OntoChat and Participatory Prompting [3.3241053483599563]
OREは主に、ドメインの専門家からユーザ要求を集めるために、インタビューや共同フォーラムのような手動の手法に依存しています。
Current OntoChatは,大規模な言語モデル(LLM)を使用してプロセスを合理化するための,ORE用のフレームワークを提供する。
本研究は,ユーザストーリのペルソナ,目標,シナリオ,サンプルデータ,データリソースの作成と精錬に重点を置いた,ユーザクエリに基づく事前定義されたプロンプトテンプレートを生成する。
論文 参考訳(メタデータ) (2024-08-09T19:21:14Z) - User Story Tutor (UST) to Support Agile Software Developers [0.4077787659104315]
User Story Tutor (UST)と呼ばれるWebアプリケーションを設計、実装、適用、評価しました。
USTは、可読性のために与えられたユーザストーリーの記述をチェックし、必要に応じて、改善のための適切なプラクティスを推奨します。
USTは、ユーザストーリーを書いたりレビューしたりする際に、アジャイル開発チームの継続的な教育をサポートするかもしれない。
論文 参考訳(メタデータ) (2024-06-24T01:55:01Z) - LLM-based agents for automating the enhancement of user story quality: An early report [2.856781525749652]
本研究では,オーストリアのポストグループITアジャイルチームにおけるユーザストーリの品質向上を目的とした,大規模な言語モデルの利用について検討する。
我々は,自律型LLMエージェントシステムの参照モデルを開発し,企業で実装した。
調査におけるユーザストーリの品質と,これらのエージェントによるユーザストーリの品質改善の有効性は,6つのアジャイルチームの11人の参加者によって評価された。
論文 参考訳(メタデータ) (2024-03-14T14:35:53Z) - ChatGPT as a tool for User Story Quality Evaluation: Trustworthy Out of
the Box? [3.6526713965824515]
本研究では,ユーザストーリーの品質評価にChatGPTを用い,その性能を既存のベンチマークと比較する。
本研究は,ChatGPTの評価が人間の評価とよく一致していることを示し,出力安定性を向上させるための3'の戦略を提案する。
論文 参考訳(メタデータ) (2023-06-21T09:26:27Z) - Exploring the Use of Large Language Models for Reference-Free Text
Quality Evaluation: An Empirical Study [63.27346930921658]
ChatGPTは、参照なしで様々な視点からテキスト品質を効果的に評価することができる。
ChatGPTを用いてテキスト品質を測定するExplicit Scoreは、3つの手法の中で最も効果的で信頼性の高い方法である。
論文 参考訳(メタデータ) (2023-04-03T05:29:58Z) - FEBR: Expert-Based Recommendation Framework for beneficial and
personalized content [77.86290991564829]
推奨コンテンツの質を評価するための見習い学習フレームワークであるFEBR(Expert-Based Recommendation Framework)を提案する。
このフレームワークは、推奨評価環境において専門家(信頼できると仮定される)の実証された軌跡を利用して、未知のユーティリティ機能を回復する。
ユーザ関心シミュレーション環境(RecSim)によるソリューションの性能評価を行う。
論文 参考訳(メタデータ) (2021-07-17T18:21:31Z) - Online Learning Demands in Max-min Fairness [91.37280766977923]
本稿では,複数のユーザ間の希少リソースの割り当て機構について,効率的で公平で戦略に準拠した方法で記述する。
このメカニズムは複数のラウンドで繰り返され、各ラウンドでユーザの要求が変更される可能性がある。
各ラウンドの最後には、ユーザは受け取ったアロケーションに関するフィードバックを提供し、そのメカニズムが時間の経過とともにユーザの好みを学習することを可能にする。
論文 参考訳(メタデータ) (2020-12-15T22:15:20Z) - Mining Implicit Relevance Feedback from User Behavior for Web Question
Answering [92.45607094299181]
本研究は,ユーザ行動と通過関連性との関連性を検討するための最初の研究である。
提案手法は,追加のラベル付きデータを使わずにパスランキングの精度を大幅に向上させる。
実際にこの研究は、グローバルな商用検索エンジンにおけるQAサービスの人為的ラベリングコストを大幅に削減する効果が証明されている。
論文 参考訳(メタデータ) (2020-06-13T07:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。