論文の概要: Test2VA: Reusing GUI Test Cases for Voice Assistant Features Development in Mobile Applications
- arxiv url: http://arxiv.org/abs/2407.18155v1
- Date: Thu, 25 Jul 2024 16:07:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 13:29:21.014807
- Title: Test2VA: Reusing GUI Test Cases for Voice Assistant Features Development in Mobile Applications
- Title(参考訳): Test2VA: モバイルアプリケーションにおける音声アシスタント機能開発のためのGUIテストケースの再利用
- Authors: Garrett Weaver, Xue Qin,
- Abstract要約: 本稿では,Voice Assistantの開発を支援するために,アプリケーションのテストコードを再利用する新しいアプローチであるTest2VAを提案する。
特に、Test2VAはGUIテストコードからタスク完了パターンを抽出し、それから実行メソッドを生成して、一般的に同じタスクを実行する。
8つの実世界のアプリケーションから48のテストケースについて評価を行った。
- 参考スコア(独自算出の注目度): 1.688134675717698
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Voice Assistant (VA) in smartphones has become very popular with millions of users nowadays. A key trend is the rise of custom VA embedding, which enables users to perform the customized tasks of their favorite app through voice control. However, with such a great demand, little effort has been made to support app developers in VA development. Moreover, many user-oriented VA control approaches even increase the programming burden on developers. To reduce the workload and improve code efficiency, in this paper, we propose a novel approach, Test2VA, that reuses the test code of an application to support its VA development. Specifically, Test2VA extracts the task completion pattern from the GUI test code and then generates an execution method to perform the same task in general. To identify the pattern, Test2VA uses a mutation-based exploration to detect the mutable GUI event in the test case and later parameterize it in the VA method. We conducted an evaluation on 48 test cases from eight real-world applications. The results show that Test2VA correctly detects 75.68% of the mutable events from 48 original test cases and then generates 33 methods and have them successfully executed and manually examined.
- Abstract(参考訳): スマートフォンのVoice Assistant(VA)は、今や何百万人ものユーザーの間で非常に人気がある。
重要なトレンドは、ユーザがお気に入りのアプリのカスタマイズされたタスクを音声コントロールで実行できるようにする、カスタムVA埋め込みの台頭である。
しかし、そのような大きな需要により、VA開発におけるアプリ開発者をサポートする努力はほとんど行われていない。
さらに、多くのユーザ指向のVAコントロールアプローチは、開発者のプログラミング負担を増大させる。
本稿では,作業負荷の低減とコード効率の向上を目的として,アプリケーションのテストコードを再利用してVA開発を支援する新しいアプローチであるTest2VAを提案する。
特に、Test2VAはGUIテストコードからタスク完了パターンを抽出し、それから実行メソッドを生成して、一般的に同じタスクを実行する。
パターンを識別するために、Test2VAは突然変異に基づく探索を使用して、テストケースの可変GUIイベントを検出し、後にVAメソッドでパラメータ化する。
8つの実世界のアプリケーションから48のテストケースについて評価を行った。
結果は、Test2VAが48のオリジナルのテストケースから75.68%の修正可能なイベントを正しく検出し、33のメソッドを生成し、それらを正常に実行し、手動で検査することを示した。
関連論文リスト
- Leveraging Large Language Models for Enhancing the Understandability of Generated Unit Tests [4.574205608859157]
我々は,検索ベースのソフトウェアテストと大規模言語モデルを組み合わせたUTGenを導入し,自動生成テストケースの理解性を向上する。
UTGenテストケースで課題に取り組む参加者は、最大33%のバグを修正し、ベースラインテストケースと比較して最大20%の時間を使用できます。
論文 参考訳(メタデータ) (2024-08-21T15:35:34Z) - Observation-based unit test generation at Meta [52.4716552057909]
TestGenは、アプリケーション実行中に観察された複雑なオブジェクトのシリアライズされた観察から作られたユニットテストを自動的に生成する。
TestGenは518のテストを本番環境に投入し、継続的統合で9,617,349回実行され、5,702の障害が見つかった。
評価の結果,信頼性の高い4,361のエンドツーエンドテストから,少なくとも86%のクラスでテストを生成することができた。
論文 参考訳(メタデータ) (2024-02-09T00:34:39Z) - An Empirical Evaluation of Using Large Language Models for Automated
Unit Test Generation [3.9762912548964864]
本稿では,自動単体テスト生成における大規模言語モデルの有効性について,大規模な実証評価を行った。
これはJavaScript用のテスト生成ツールで、npmパッケージ内のすべてのAPI関数のユニットテストを自動的に生成します。
TestPilotの生成されたテストの92.8%は、既存のテストと50%以上の類似性を持っていない。
論文 参考訳(メタデータ) (2023-02-13T17:13:41Z) - Interactive and Visual Prompt Engineering for Ad-hoc Task Adaptation
with Large Language Models [116.25562358482962]
最先端のニューラルネットワークモデルは、教師付きトレーニングを必要とせずに、アドホックな言語タスクを解決するために使用することができる。
PromptIDEを使えば、ユーザはプロンプトのバリエーションを試すことができ、プロンプトのパフォーマンスを視覚化し、反復的にプロンプトを最適化できる。
論文 参考訳(メタデータ) (2022-08-16T17:17:53Z) - CodeT: Code Generation with Generated Tests [49.622590050797236]
テストケースを自動的に生成するための事前学習言語モデルについて検討する。
CodeTは生成されたテストケースを使ってコードソリューションを実行し、次に最良のソリューションを選択します。
我々は,HumanEvalとMBPPのベンチマークを用いて,5種類の事前学習モデル上でCodeTを評価する。
論文 参考訳(メタデータ) (2022-07-21T10:18:37Z) - SUPERNOVA: Automating Test Selection and Defect Prevention in AAA Video
Games Using Risk Based Testing and Machine Learning [62.997667081978825]
従来の手法では、成長するソフトウェアシステムではスケールできないため、ビデオゲームのテストはますます難しいタスクになります。
自動化ハブとして機能しながら,テスト選択と欠陥防止を行うシステム SUPERNOVA を提案する。
この直接的な影響は、未公表のスポーツゲームタイトルの55%以上のテスト時間を減らすことが観察されている。
論文 参考訳(メタデータ) (2022-03-10T00:47:46Z) - Nirikshak: A Clustering Based Autonomous API Testing Framework [0.0]
Nirikshakは、REST APIテストのための自立テストフレームワークである。
REST APIテスト手順の実行において、レベル2の自律性を達成する。
Nirikshakはコミュニティ向けのオープンソースソフトウェアとしてhttps://github.com/yashmahalwal/nirikshakで公開されている。
論文 参考訳(メタデータ) (2021-12-15T18:05:27Z) - Generating Accurate Assert Statements for Unit Test Cases using
Pretrained Transformers [10.846226514357866]
単体テストは、ソフトウェアテストピラミッドの基礎となる基礎である。
正確で有用なアサーション文を生成することによって、開発者が単体テストケースを書くのを支援するアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-11T19:35:09Z) - Unit Test Case Generation with Transformers and Focal Context [10.220204860586582]
AthenaTestは、現実世界の焦点メソッドと開発者が記述したテストケースから学習することで、単体テストケースを生成することを目的としている。
我々は,Javaにおける単体テストケースメソッドとそれに対応する焦点メソッドの並列コーパスとして最大規模で公開されているMethods2Testを紹介する。
AthenaTestを5つの欠陥4jプロジェクトで評価し、30回の試行で焦点メソッドの43.7%をカバーする25Kパステストケースを生成した。
論文 参考訳(メタデータ) (2020-09-11T18:57:36Z) - Beyond Accuracy: Behavioral Testing of NLP models with CheckList [66.42971817954806]
CheckList は NLP モデルをテストするためのタスクに依存しない方法論である。
CheckListには、包括的なテストのアイデアを促進する一般的な言語機能とテストタイプのマトリックスが含まれている。
ユーザスタディでは、CheckListのNLP実践者が2倍の数のテストを作成し、それのないユーザの約3倍のバグを発見しました。
論文 参考訳(メタデータ) (2020-05-08T15:48:31Z) - AVA: an Automatic eValuation Approach to Question Answering Systems [123.36351076384479]
AVAはTransformerベースの言語モデルを使用して、質問、回答、参照テキストをエンコードする。
我々の解は、F1の74.7%のスコアを達成し、一つの答えに対する人間の判断を予測する。
論文 参考訳(メタデータ) (2020-05-02T05:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。