論文の概要: Testing Updated Apps by Adapting Learned Models
- arxiv url: http://arxiv.org/abs/2308.05549v1
- Date: Thu, 10 Aug 2023 12:59:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 14:41:25.585112
- Title: Testing Updated Apps by Adapting Learned Models
- Title(参考訳): 学習モデルの適用によるアプリの更新テスト
- Authors: Chanh-Duc Ngo, Fabrizio Pastore, Lionel Briand
- Abstract要約: 学習したモデルの継続的適応(CALM)は、アプリの更新を効率的にテストする自動テストアプローチである。
機能的正確性は、主にAppスクリーンの視覚的検査によって検証できるため、CALMは、ソフトウェアテスタによって視覚化されるAppスクリーンの数を最小化する。
実験により,CALMは6つの最先端手法よりも,更新手法と命令の比率が有意に高いことが示された。
- 参考スコア(独自算出の注目度): 2.580765958706854
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Although App updates are frequent and software engineers would like to verify
updated features only, automated testing techniques verify entire Apps and are
thus wasting resources. We present Continuous Adaptation of Learned Models
(CALM), an automated App testing approach that efficiently tests App updates by
adapting App models learned when automatically testing previous App versions.
CALM focuses on functional testing. Since functional correctness can be mainly
verified through the visual inspection of App screens, CALM minimizes the
number of App screens to be visualized by software testers while maximizing the
percentage of updated methods and instructions exercised. Our empirical
evaluation shows that CALM exercises a significantly higher proportion of
updated methods and instructions than six state-of-the-art approaches, for the
same maximum number of App screens to be visually inspected. Further, in common
update scenarios, where only a small fraction of methods are updated, CALM is
even quicker to outperform all competing approaches in a more significant way.
- Abstract(参考訳): アプリの更新は頻繁に行われ、ソフトウェアエンジニアは更新された機能のみを検証したいと考えているが、自動テスト技術はアプリ全体を検証し、リソースを浪費している。
学習されたモデルの継続的適応(CALM:Continuous Adaptation of Learned Models)は、アプリの更新を効率よくテストする自動テスト手法である。
CALMは機能テストに重点を置いている。
機能的正確性は、主にアプリ画面の視覚的検査によって検証できるので、calmは、ソフトウェアテスターが視覚化するアプリ画面の数を最小化し、更新されたメソッドと命令の割合を最大化する。
経験的評価の結果,CALMは6つの最先端アプローチよりも更新手法と命令の比率が有意に高く,同じ数のAppスクリーンを視覚的に検査できることがわかった。
さらに、ごく少数のメソッドが更新される一般的なアップデートシナリオでは、CALMは競合するすべてのアプローチよりも、より重要な方法でパフォーマンスを向上する。
関連論文リスト
- Historical Test-time Prompt Tuning for Vision Foundation Models [99.96912440427192]
HisTPTは、学習したテストサンプルの有用な知識を記憶する、履歴的テストタイムプロンプトチューニング技術である。
HisTPTは、異なる視覚認識タスクを処理しながら、一貫した優れたプロンプトチューニング性能を達成する。
論文 参考訳(メタデータ) (2024-10-27T06:03:15Z) - Enabling Cost-Effective UI Automation Testing with Retrieval-Based LLMs: A Case Study in WeChat [8.80569452545511]
機械学習と大規模言語モデルを組み合わせることで、業界アプリケーションのためのコスト効率の良いUI自動化テストを作成するために、CATを導入します。
次にCATは機械学習技術を採用し、LLMを補完として、ターゲット要素をUI画面にマップする。
WeChatテストデータセットの評価では、CATのパフォーマンスとコスト効率が示され、90%のUI自動化と0.34ドルのコストが達成されました。
論文 参考訳(メタデータ) (2024-09-12T08:25:33Z) - Adapting Vision-Language Models to Open Classes via Test-Time Prompt Tuning [50.26965628047682]
学習済みのモデルをオープンクラスに適応させることは、機械学習において難しい問題である。
本稿では,両者の利点を組み合わせたテスト時プロンプトチューニング手法を提案する。
提案手法は,基本クラスと新クラスの両方を考慮し,すべての比較手法を平均的に上回る結果を得た。
論文 参考訳(メタデータ) (2024-08-29T12:34:01Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - On the test-time zero-shot generalization of vision-language models: Do we really need prompt learning? [13.803180972839213]
テスト時間拡張(MTA)のための堅牢な平均シフトを導入する。
MTAは、この集中的なトレーニング手順を必要とせずに、プロンプトベースの手法を超える。
提案手法を15のデータセット上で広範囲にベンチマークし,MTAの優位性と計算効率を実証する。
論文 参考訳(メタデータ) (2024-05-03T17:34:02Z) - What, How, and When Should Object Detectors Update in Continually
Changing Test Domains? [34.13756022890991]
テストデータを推測しながらモデルをオンラインに適応させるテスト時適応アルゴリズムが提案されている。
連続的に変化するテスト領域におけるオブジェクト検出のための新しいオンライン適応手法を提案する。
提案手法は,広く使用されているベンチマークのベースラインを超え,最大4.9%,mAP7.9%の改善を実現している。
論文 参考訳(メタデータ) (2023-12-12T07:13:08Z) - Point-TTA: Test-Time Adaptation for Point Cloud Registration Using
Multitask Meta-Auxiliary Learning [17.980649681325406]
我々は、ポイントクラウド登録(PCR)のための新しいテスト時間適応フレームワークであるPoint-TTAを提案する。
我々のモデルは、テストデータの事前の知識を必要とせずに、テスト時に目に見えない分布に適応することができる。
訓練中は, 補助タスクによる適応モデルにより主タスクの精度が向上するように, メタ補助学習アプローチを用いて訓練を行う。
論文 参考訳(メタデータ) (2023-08-31T06:32:11Z) - Neural Embeddings for Web Testing [49.66745368789056]
既存のクローラは、状態等価性を評価するために、アプリ固有のしきい値ベースのアルゴリズムに依存している。
ニューラルネットワークの埋め込みとしきい値のない分類器に基づく新しい抽象関数WEBEMBEDを提案する。
WEBEMBEDは,9つのWebアプリケーションに対する評価の結果,近距離検出により最先端技術よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2023-06-12T19:59:36Z) - Test-Time Prompt Tuning for Zero-Shot Generalization in Vision-Language
Models [107.05966685291067]
テスト時間プロンプトチューニング (TPT) を提案し, 適応的なプロンプトを1つのテストサンプルで学習する。
TPTはCLIPのゼロショットトップ1の精度を平均3.6%改善する。
クロスデータセットの一般化を目に見えないカテゴリで評価する際、PTは追加のトレーニングデータを使用する最先端のアプローチと同等に機能する。
論文 参考訳(メタデータ) (2022-09-15T17:55:11Z) - Evaluating Pre-Trained Models for User Feedback Analysis in Software
Engineering: A Study on Classification of App-Reviews [2.66512000865131]
アプリレビュー分類のための事前学習型ニューラルネットワークモデル(PTM)の精度と時間効率について検討した。
複数の設定でPTMを評価するために,異なる研究をセットアップした。
いずれの場合も、MicroとMacro Precision、Recall、F1スコアが使用されます。
論文 参考訳(メタデータ) (2021-04-12T23:23:45Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。