論文の概要: Exploring LLMs for User Story Extraction from Mockups
- arxiv url: http://arxiv.org/abs/2602.16997v1
- Date: Thu, 19 Feb 2026 01:42:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.595618
- Title: Exploring LLMs for User Story Extraction from Mockups
- Title(参考訳): モックアップからユーザストーリー抽出のためのLCMの探索
- Authors: Diego Firmenich, Leandro Antonelli, Bruno Pazos, Fabricio Lozada, Leonardo Morales,
- Abstract要約: 高忠実度モックアップからユーザストーリーを抽出するLLMの能力を分析するケーススタディを提案する。
以上の結果から,LELの導入により,生成したユーザストーリーの精度と適合性が著しく向上することが示唆された。
このアプローチは、要件エンジニアリングへのAIの統合における一歩であり、ユーザと開発者間のコミュニケーションを改善する可能性がある。
- 参考スコア(独自算出の注目度): 0.6157382820537719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: User stories are one of the most widely used artifacts in the software industry to define functional requirements. In parallel, the use of high-fidelity mockups facilitates end-user participation in defining their needs. In this work, we explore how combining these techniques with large language models (LLMs) enables agile and automated generation of user stories from mockups. To this end, we present a case study that analyzes the ability of LLMs to extract user stories from high-fidelity mockups, both with and without the inclusion of a glossary of the Language Extended Lexicon (LEL) in the prompts. Our results demonstrate that incorporating the LEL significantly enhances the accuracy and suitability of the generated user stories. This approach represents a step forward in the integration of AI into requirements engineering, with the potential to improve communication between users and developers.
- Abstract(参考訳): ユーザストーリは,機能要件を定義する上で,ソフトウェア産業で最も広く使用されているアーティファクトのひとつです。
並行して、高忠実度モックアップの使用は、エンドユーザが自身のニーズを定義するのに役立ちます。
本研究では,これらの手法を大規模言語モデル(LLM)と組み合わせることで,モックアップからユーザストーリをアジャイルかつ自動生成する方法について検討する。
そこで本研究では,Language Extended Lexicon (LEL) の用語集をプロンプトに含めることなく,高忠実度モックアップからユーザストーリーを抽出するLLMの能力を分析するケーススタディを提案する。
以上の結果から,LELの導入により,生成したユーザストーリーの精度と適合性が著しく向上することが示唆された。
このアプローチは、要件エンジニアリングへのAIの統合における一歩であり、ユーザと開発者間のコミュニケーションを改善する可能性がある。
関連論文リスト
- Exploring LLMs Impact on Student-Created User Stories and Acceptance Testing in Software Development [0.0]
本研究では,LLM(大規模言語モデル)が大学生のユーザフィードバックをユーザストーリーに変換する能力に与える影響について検討する。
個別に働く学生は、ユーザーからのフィードバックのコメントを分析し、関連項目を適切にグループ化し、ユーザーストーリーを作成するように求められた。
その結果,LLMは学生にとって価値あるストーリーを十分に定義された受理基準で開発するのに役立つことがわかった。
論文 参考訳(メタデータ) (2025-02-04T19:35:44Z) - Large Action Models: From Inception to Implementation [51.81485642442344]
大規模アクションモデル(LAM)は動的環境内でのアクション生成と実行のために設計されている。
LAMは、AIを受動的言語理解からアクティブなタスク完了に変換する可能性を秘めている。
創発から展開まで,LAMを体系的に開発するための総合的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-13T11:19:56Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.266685603250416]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースの対話型フィードバック機能によって,LLMへのユーザ参加が期待できるかを検討する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Improving Ontology Requirements Engineering with OntoChat and Participatory Prompting [3.3241053483599563]
OREは主に、ドメインの専門家からユーザ要求を集めるために、インタビューや共同フォーラムのような手動の手法に依存しています。
Current OntoChatは,大規模な言語モデル(LLM)を使用してプロセスを合理化するための,ORE用のフレームワークを提供する。
本研究は,ユーザストーリのペルソナ,目標,シナリオ,サンプルデータ,データリソースの作成と精錬に重点を置いた,ユーザクエリに基づく事前定義されたプロンプトテンプレートを生成する。
論文 参考訳(メタデータ) (2024-08-09T19:21:14Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - User-LLM: Efficient LLM Contextualization with User Embeddings [23.226164112909643]
User-LLMは、ユーザ埋め込みを利用して、大きな言語モデルとユーザ履歴の相互作用を直接コンテキスト化する新しいフレームワークである。
提案手法では,ユーザタイムラインを直接埋め込みとして表現することで,最大78.1倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-02-21T08:03:27Z) - Large Language User Interfaces: Voice Interactive User Interfaces powered by LLMs [5.06113628525842]
ユーザとユーザインターフェース(UI)の仲介として機能するフレームワークを提案する。
アノテーションの形でUIコンポーネントのテキストセマンティックマッピングに立つシステムを採用している。
我々のエンジンは、最も適切なアプリケーションを分類し、関連するパラメータを抽出し、その後、ユーザの期待するアクションの正確な予測を実行することができる。
論文 参考訳(メタデータ) (2024-02-07T21:08:49Z) - Unlocking the Potential of User Feedback: Leveraging Large Language
Model as User Simulator to Enhance Dialogue System [65.93577256431125]
本稿では,ユーザガイド応答最適化 (UGRO) という代替手法を提案し,タスク指向の対話モデルと組み合わせる。
このアプローチでは、アノテーションのないユーザシミュレータとしてLLMを使用して対話応答を評価し、より小型のエンドツーエンドTODモデルと組み合わせる。
提案手法は従来のSOTA(State-of-the-art)よりも優れている。
論文 参考訳(メタデータ) (2023-06-16T13:04:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。