論文の概要: From Feedback to Failure: Automated Android Performance Issue Reproduction
- arxiv url: http://arxiv.org/abs/2508.11147v1
- Date: Fri, 15 Aug 2025 01:38:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.708462
- Title: From Feedback to Failure: Automated Android Performance Issue Reproduction
- Title(参考訳): フィードバックから失敗へ: Androidのパフォーマンス問題の自動再現
- Authors: Zhengquan Li, Zhenhao Li, Zishuo Ding,
- Abstract要約: RevPerfは、Google Playのアプリレビューを利用して関連する情報を取得する、高度なパフォーマンス問題再現ツールである。
RevPerfは関連するレビューを採用し、エンジニアリングを促すことで、オリジナルのレビューをパフォーマンス問題の詳細で強化する。
このシステムは,Androidログ,GUI変更,システムリソース利用の監視によって,パフォーマンス問題を特定するための多面的検出手法を組み込んでいる。
- 参考スコア(独自算出の注目度): 12.784522007950459
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mobile application performance is a vital factor for user experience. Yet, performance issues are notoriously difficult to detect within development environments, where their manifestations are often less conspicuous and diagnosis proves more challenging. To address this limitation, we propose RevPerf, an advanced performance issue reproduction tool that leverages app reviews from Google Play to acquire pertinent information. RevPerf employs relevant reviews and prompt engineering to enrich the original review with performance issue details. An execution agent is then employed to generate and execute commands to reproduce the issue. After executing all necessary steps, the system incorporates multifaceted detection methods to identify performance issues by monitoring Android logs, GUI changes, and system resource utilization during the reproduction process. Experimental results demonstrate that our proposed framework achieves a 70\% success rate in reproducing performance issues on the dataset we constructed and manually validated.
- Abstract(参考訳): モバイルアプリケーションのパフォーマンスは、ユーザエクスペリエンスにとって重要な要素です。
しかし、パフォーマンスの問題は開発環境内での発見が難しいことで知られています。
この制限に対処するために,Google Playのアプリレビューを活用して関連する情報を取得する,高度なパフォーマンス問題再現ツールであるRevPerfを提案する。
RevPerfは関連するレビューを採用し、エンジニアリングを促すことで、オリジナルのレビューをパフォーマンス問題の詳細で強化する。
次に、実行エージェントを使用して、問題を再現するコマンドを生成し、実行します。
必要なすべてのステップを実行した後、システムは、Androidログ、GUI変更、および再生プロセス中のシステムリソース利用を監視することで、パフォーマンス上の問題を特定するために、多面的検出手法を組み込んだ。
実験の結果,提案フレームワークは,構築し手作業で検証したデータセット上での性能問題を再現する上で,70%の成功率を達成した。
関連論文リスト
- Screencast-Based Analysis of User-Perceived GUI Responsiveness [53.53923672866705]
Toolsはモバイルのスクリーンキャストから直接GUIの応答性を測定するテクニックである。
コンピュータービジョンを使ってユーザーインタラクションを検出し、フレームレベルの視覚変化を分析し、2つの重要なメトリクスを計算する。
ツールはインダストリアルテストパイプラインにデプロイされ、毎日数千のスクリーンキャストを分析している。
論文 参考訳(メタデータ) (2025-08-02T12:13:50Z) - gigiProfiler: Diagnosing Performance Issues by Uncovering Application Resource Bottlenecks [4.75226870530575]
現代のソフトウェアにおけるパフォーマンスボトルネックの診断は不可欠だが、難しい。
従来のプロファイラは、システムレベルのメトリクスをトレースすることで、実行ボトルネックを効果的に識別する。
OmniResource Profilingは、システムレベルとアプリケーションレベルのリソーストレースを統合したパフォーマンス分析手法である。
論文 参考訳(メタデータ) (2025-07-08T23:31:58Z) - AutoReproduce: Automatic AI Experiment Reproduction with Paper Lineage [62.049868205196425]
AutoReproduceは、研究論文に記載された実験をエンドツーエンドで自動再生できるフレームワークである。
結果は、AutoReproduceが平均的なパフォーマンスギャップを22.1%$で達成していることを示している。
論文 参考訳(メタデータ) (2025-05-27T03:15:21Z) - BacktrackAgent: Enhancing GUI Agent with Error Detection and Backtracking Mechanism [11.786947907397131]
BacktrackAgentは、タスク完了効率を改善するバックトラック機構を組み込んだフレームワークである。
BacktrackAgentはMobile3MとAuto-UIベンチマークでタスク成功率とステップ精度の両方でパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2025-05-27T03:09:06Z) - Early Detection of Performance Regressions by Bridging Local Performance Data and Architectural Models [12.581051275141537]
ソフトウェア開発では、開発者は既存の問題に対処したり、新機能を実装したりするために、ソフトウェアに多くの修正を加えることが多い。
新しいソフトウェアリリースのパフォーマンスが低下しないことを保証するため、既存のプラクティスはシステムレベルのパフォーマンステストに依存している。
本稿では,コンポーネントレベルのテストとシステムレベルのアーキテクチャモデルによって生成された局所的な性能データをブリッジすることで,性能の劣化を早期に検出する手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:33:20Z) - Automatically Analyzing Performance Issues in Android Apps: How Far Are We? [15.614257662319863]
実世界のアプリケーションや文献におけるAndroidのパフォーマンス問題に関する大規模な比較研究を行っている。
以上の結果から,研究者,開発者,ユーザの主なパフォーマンス上の問題に,大きな違いがあることが判明した。
コミュニティにとって、これらのギャップを埋め、パフォーマンス問題の包括的な検出と解決を達成するための努力を強化することが重要です。
論文 参考訳(メタデータ) (2024-07-06T14:43:40Z) - On the Worst Prompt Performance of Large Language Models [93.13542053835542]
大規模言語モデル(LLM)の性能は,プロンプトの表現に非常に敏感である。
セマンティックに等価なケースレベルのクエリで構成される新しいベンチマークであるRobustAlpacaEvalを紹介する。
RobustAlpacaEvalとChatGPT、およびLlama、Mistral、Gemmaファミリーの6つのオープンソースLLMによる実験により、モデル性能のかなりのばらつきが明らかになった。
論文 参考訳(メタデータ) (2024-06-08T13:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。