論文の概要: A Tool for Test Case Scenarios Generation Using Large Language Models
- arxiv url: http://arxiv.org/abs/2406.07021v1
- Date: Tue, 11 Jun 2024 07:26:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 17:04:09.927759
- Title: A Tool for Test Case Scenarios Generation Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたテストケースシナリオ生成ツール
- Authors: Abdul Malik Sami, Zeeshan Rasheed, Muhammad Waseem, Zheying Zhang, Herda Tomas, Pekka Abrahamsson,
- Abstract要約: この記事では、エピックやハイレベルなユーザストーリーとして、ユーザ要求を生成することに焦点を当てます。
LLMベースのエージェントを使用して、テストケースシナリオの自動生成をエンジニアリングに促す、Webベースのソフトウェアツールを導入している。
- 参考スコア(独自算出の注目度): 3.9422957660677476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are widely used in Software Engineering (SE) for various tasks, including generating code, designing and documenting software, adding code comments, reviewing code, and writing test scripts. However, creating test scripts or automating test cases demands test suite documentation that comprehensively covers functional requirements. Such documentation must enable thorough testing within a constrained scope and timeframe, particularly as requirements and user demands evolve. This article centers on generating user requirements as epics and high-level user stories and crafting test case scenarios based on these stories. It introduces a web-based software tool that employs an LLM-based agent and prompt engineering to automate the generation of test case scenarios against user requirements.
- Abstract(参考訳): 大規模言語モデル(LLM)は、コードの生成、ソフトウェアの設計と文書化、コードコメントの追加、コードレビュー、テストスクリプトの記述など、様々なタスクでソフトウェア工学(SE)で広く使われている。
しかし、テストスクリプトの作成やテストケースの自動化には、機能要件を包括的にカバーするテストスイートのドキュメントが必要である。
このようなドキュメントは、特に要求とユーザ要求が進化するにつれて、制約されたスコープとタイムフレーム内で徹底的なテストを可能にする必要があります。
この記事では、エピックやハイレベルなユーザストーリーとしてユーザ要求を生成し、これらのストーリーに基づいてテストケースシナリオを作成することに焦点を当てます。
LLMベースのエージェントを採用し、ユーザ要求に対するテストケースシナリオの自動生成をエンジニアリングに促す、Webベースのソフトウェアツールを紹介している。
関連論文リスト
- CRAFT Your Dataset: Task-Specific Synthetic Dataset Generation Through Corpus Retrieval and Augmentation [51.2289822267563]
合成データセットを生成するCRAFT(Corpus Retrieval and Augmentation for Fine-Tuning)を提案する。
我々は、大規模な公開ウェブクローラコーパスと類似性に基づく文書検索を用いて、他の関連する人文文書を検索する。
我々は,CRAFTが4つのタスクに対して,大規模タスク固有のトレーニングデータセットを効率的に生成できることを実証した。
論文 参考訳(メタデータ) (2024-09-03T17:54:40Z) - Automatic benchmarking of large multimodal models via iterative experiment programming [71.78089106671581]
本稿では,LMMの自動ベンチマークのための最初のフレームワークであるAPExを紹介する。
自然言語で表現された研究の質問に対して、APExは大きな言語モデル(LLM)と事前定義されたツールのライブラリを活用して、手元にあるモデルの一連の実験を生成する。
調査の現在の状況に基づいて、APExはどの実験を行うか、結果が結論を引き出すのに十分かどうかを選択する。
論文 参考訳(メタデータ) (2024-06-18T06:43:46Z) - Automated Control Logic Test Case Generation using Large Language Models [13.273872261029608]
大規模言語モデル(LLM)を問うPLCテストケースの自動生成のための新しい手法を提案する。
OSCAT自動化ライブラリから10のオープンソース関数ブロックを使用した実験では、このアプローチが高速で、使いやすく、かつ、ロー・トゥ・メジウムの複雑なプログラムに対して高いステートメントカバレッジを持つテストケースが得られることが示された。
論文 参考訳(メタデータ) (2024-05-03T06:09:21Z) - Generating Test Scenarios from NL Requirements using Retrieval-Augmented LLMs: An Industrial Study [5.179738379203527]
本稿では,Large Language Models (LLM) を用いたRAG(Retrieval-Augmented Generation) を用いたテストシナリオ生成のための自動アプローチ(RAGTAG)を提案する。
オーストリアポストの2つの産業プロジェクトにおけるRAGTAGの評価を行い,ドイツ語と英語のバイリンガル要件について検討した。
論文 参考訳(メタデータ) (2024-04-19T10:27:40Z) - Automated User Story Generation with Test Case Specification Using Large Language Model [0.0]
要件文書からユーザストーリーを自動生成するツール「GeneUS」を開発した。
アウトプットはフォーマットで提供され、ダウンストリーム統合の可能性は人気のあるプロジェクト管理ツールに開放されます。
論文 参考訳(メタデータ) (2024-04-02T01:45:57Z) - Are We Testing or Being Tested? Exploring the Practical Applications of
Large Language Models in Software Testing [0.0]
LLM(Large Language Model)は、コヒーレントなコンテンツを生成する最先端の人工知能モデルである。
LLMは、ソフトウェアテストを含むソフトウェア開発において重要な役割を担います。
本研究では,産業環境でのソフトウェアテストにおけるLCMの実用化について検討する。
論文 参考訳(メタデータ) (2023-12-08T06:30:37Z) - Eliciting Human Preferences with Language Models [56.68637202313052]
言語モデル(LM)は、ラベル付き例や自然言語のプロンプトを使用してターゲットタスクを実行するように指示することができる。
タスク仕様プロセスのガイドには*LM自身を使うことを提案します。
我々は、メール検証、コンテンツレコメンデーション、道徳的推論の3つの領域でGATEを研究している。
論文 参考訳(メタデータ) (2023-10-17T21:11:21Z) - LLM for Test Script Generation and Migration: Challenges, Capabilities,
and Opportunities [8.504639288314063]
テストスクリプト生成はソフトウェアテストの重要なコンポーネントであり、反復的なテストタスクの効率的かつ信頼性の高い自動化を可能にする。
既存の世代のアプローチは、さまざまなデバイス、プラットフォーム、アプリケーション間でテストスクリプトを正確にキャプチャし、再現することの難しさなど、しばしば制限に直面する。
本稿では,モバイルアプリケーションテストスクリプト生成分野における大規模言語モデル(LLM)の適用について検討する。
論文 参考訳(メタデータ) (2023-09-24T07:58:57Z) - FacTool: Factuality Detection in Generative AI -- A Tool Augmented
Framework for Multi-Task and Multi-Domain Scenarios [87.12753459582116]
より広い範囲のタスクは、生成モデルによって処理されると、事実エラーを含むリスクが増大する。
大規模言語モデルにより生成されたテキストの事実誤りを検出するためのタスクおよびドメインに依存しないフレームワークであるFacToolを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:51Z) - ADAPQUEST: A Software for Web-Based Adaptive Questionnaires based on
Bayesian Networks [70.79136608657296]
ADAPQUESTは、ベイジアンネットワークに基づく適応型アンケートの開発のためにJavaで書かれたソフトウェアツールである。
質問紙には、アンケートパラメータの引用を簡略化するために、専用の実施戦略が組み込まれている。
本ツールの精神疾患診断への応用についても論じる。
論文 参考訳(メタデータ) (2021-12-29T09:50:44Z) - Realistic simulation of users for IT systems in cyber ranges [63.20765930558542]
ユーザアクティビティを生成するために,外部エージェントを用いて各マシンを計測する。
このエージェントは、決定論的および深層学習に基づく手法を組み合わせて、異なる環境に適応する。
また,会話や文書の作成を容易にする条件付きテキスト生成モデルを提案する。
論文 参考訳(メタデータ) (2021-11-23T10:53:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。