論文の概要: Automatically Analyzing Performance Issues in Android Apps: How Far Are We?
- arxiv url: http://arxiv.org/abs/2407.05090v2
- Date: Sat, 2 Nov 2024 12:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 23:35:45.148152
- Title: Automatically Analyzing Performance Issues in Android Apps: How Far Are We?
- Title(参考訳): Androidアプリのパフォーマンス問題を自動的に分析する: どこまであるのか?
- Authors: Dianshu Liao, Shidong Pan, Siyuan Yang, Yanjie Zhao, Zhenchang Xing, Xiaoyu Sun,
- Abstract要約: 実世界のアプリケーションや文献におけるAndroidのパフォーマンス問題に関する大規模な比較研究を行っている。
以上の結果から,研究者,開発者,ユーザの主なパフォーマンス上の問題に,大きな違いがあることが判明した。
コミュニティにとって、これらのギャップを埋め、パフォーマンス問題の包括的な検出と解決を達成するための努力を強化することが重要です。
- 参考スコア(独自算出の注目度): 15.614257662319863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Performance issues in Android applications significantly undermine users' experience, engagement, and retention, which is a long-lasting research topic in academia. Unlike functionality issues, performance issues are more difficult to diagnose and resolve due to their complex root causes, which often emerge only under specific conditions or payloads. Although many efforts haven attempt to mitigate the impact of performance issues by developing methods to automatically identify and resolve them, it remains unclear if this objective has been fulfilled, and the existing approaches indeed targeted on the most critical performance issues encountered in real-world settings. To this end, we conducted a large-scale comparative study of Android performance issues in real-world applications and literature. Specifically, we started by investigating real-world performance issues, their underlying root causes (i.e., contributing factors), and common code patterns. We then took an additional step to empirically summarize existing approaches and datasets through a literature review, assessing how well academic research reflects the real-world challenges faced by developers and users. Our comparison results show a substantial divergence exists in the primary performance concerns of researchers, developers, and users. Among all the identified factors, 57.14% have not been examined in academic research, while a substantial 76.39% remain unaddressed by existing tools, and 66.67% lack corresponding datasets. This stark contrast underscores a substantial gap in our understanding and management of performance issues. Consequently, it is crucial for our community to intensify efforts to bridge these gaps and achieve comprehensive detection and resolution of performance issues.
- Abstract(参考訳): Androidアプリケーションのパフォーマンス問題は、学界で長く続く研究トピックであるユーザエクスペリエンス、エンゲージメント、保持を著しく損なう。
機能の問題とは異なり、複雑な根本原因のため、パフォーマンスの問題の診断と解決がより困難であり、しばしば特定の条件やペイロードの下でのみ発生する。
自動識別・解決する手法を開発することで、多くの取り組みがパフォーマンス問題の影響を緩和しようとしているが、この目的が達成されたかどうかは不明であり、既存のアプローチは実際に現実の環境で遭遇した最も重要なパフォーマンス問題をターゲットにしている。
そこで本研究では,実世界のアプリケーションや文献におけるAndroidのパフォーマンス問題について,大規模な比較研究を行った。
具体的には、実世界のパフォーマンス問題、根本原因(コントリビューション要因)、共通コードパターンの調査から始めました。
その後、文献レビューを通じて既存のアプローチとデータセットを実証的に要約し、学術的な研究が開発者やユーザが直面している現実の課題をいかに反映しているかを評価しました。
比較の結果,研究者,開発者,ユーザの主なパフォーマンス上の問題には,大きな違いがあることが判明した。
これらの要因のうち57.14%は学術研究では調査されていないが、76.39%は既存のツールに未適応であり、66.67%は対応するデータセットを欠いている。
この対照的な意見は、パフォーマンス問題に対する理解と管理において、大きなギャップを浮き彫りにしています。
その結果、コミュニティはこれらのギャップを埋め、パフォーマンス問題の包括的発見と解決を達成する努力を強化することが不可欠である。
関連論文リスト
- Does the Order of Fine-tuning Matter and Why? [11.975836356680855]
本研究では,複数の中間タスクの微調整とその順序がタスク性能に及ぼす影響について検討する。
実験の結果,タスクオーダリングが目標タスクのパフォーマンスに与える影響は,パフォーマンスの最大6%,パフォーマンスの最大4%であることがわかった。
論文 参考訳(メタデータ) (2024-10-03T19:07:14Z) - SUPER: Evaluating Agents on Setting Up and Executing Tasks from Research Repositories [55.161075901665946]
Superは、機械学習(ML)と自然言語処理(NLP)の研究リポジトリを扱う研究者が直面する現実的な課題を捉えることを目的としている。
本ベンチマークでは,注釈付きエキスパートソリューションを用いたエンドツーエンド問題45,特定の課題に焦点をあてたエキスパートソリューションから導いた152,大規模開発のための602の問題を自動生成する。
我々は、最先端のアプローチが、最良のモデル(GPT-4o)でこれらの問題を解決するのに苦労していることを示し、エンド・ツー・エンドの16.3%と46.1%のシナリオを解決した。
論文 参考訳(メタデータ) (2024-09-11T17:37:48Z) - On the Worst Prompt Performance of Large Language Models [93.13542053835542]
大規模言語モデル(LLM)の性能は,プロンプトの表現に非常に敏感である。
セマンティックに等価なケースレベルのクエリで構成される新しいベンチマークであるRobustAlpacaEvalを紹介する。
RobustAlpacaEvalとChatGPT、およびLlama、Mistral、Gemmaファミリーの6つのオープンソースLLMによる実験により、モデル性能のかなりのばらつきが明らかになった。
論文 参考訳(メタデータ) (2024-06-08T13:40:38Z) - An Empirical Study of Challenges in Machine Learning Asset Management [15.07444988262748]
既存の研究にもかかわらず、モデルバージョニングやデータトレーサビリティ、コラボレーションといった運用上の課題には、大きな知識ギャップが残っている。
本研究の目的は,開発者フォーラムやプラットフォームから15,065件の投稿を分析し,このギャップに対処することである。
ソフトウェア依存性、モデルデプロイメント、モデルトレーニングが最も議論されている16のマクロトピックにグループ化された、資産管理の課題に関連する133のトピックを明らかにしました。
論文 参考訳(メタデータ) (2024-02-25T05:05:52Z) - Competition-Level Problems are Effective LLM Evaluators [121.15880285283116]
本稿では,Codeforcesにおける最近のプログラミング問題の解決において,大規模言語モデル(LLM)の推論能力を評価することを目的とする。
まず,問題の発生時間,難易度,遭遇したエラーの種類など,様々な側面を考慮して,GPT-4の望ましくないゼロショット性能を総合的に評価する。
驚くべきことに、GPT-4のTheThoughtivedのパフォーマンスは、2021年9月以降、あらゆる困難と種類の問題に対して一貫して問題が減少するような崖を経験している。
論文 参考訳(メタデータ) (2023-12-04T18:58:57Z) - Towards leveraging LLMs for Conditional QA [1.9649272351760063]
本研究では,条件付き質問応答の挑戦領域におけるLarge Language Models(LLM)の機能と限界について考察する。
これらの結果から,全ての入力コンテキストを完全にエンコードすることなく,微調整LDMがSOTA(State-of-the-art (SOTA))性能を上回ることが判明した。
これらのモデルは、抽出された質問応答において、SOTAを10ポイント以上遅れる問題に遭遇し、偽情報を注入するリスクを軽減する。
論文 参考訳(メタデータ) (2023-12-02T14:02:52Z) - rWISDM: Repaired WISDM, a Public Dataset for Human Activity Recognition [0.0]
HAR(Human Activity Recognition)は、医療、運動競技、スマートシティ、スマートホームといった様々な分野に応用されているため、近年の科学的研究において注目されている。
本稿では,他の研究者が公開データセットに類似した問題を同定し,修正する手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T13:55:50Z) - A Comprehensive Review of Trends, Applications and Challenges In
Out-of-Distribution Detection [0.76146285961466]
アウト・オブ・ディストリビューション・データ・サブセットの検出とより包括的な一般化の実現に焦点をあてた研究分野が誕生した。
多くのディープラーニングベースのモデルは、ベンチマークデータセットでほぼ完璧な結果を得たため、これらのモデルの信頼性と信頼性を評価する必要性は、これまで以上に強く感じられる。
本稿では,本分野における70以上の論文のレビューに加えて,今後の研究の課題と方向性を提示するとともに,データシフトの多種多様さを統一的に把握し,より一般化するためのソリューションを提案する。
論文 参考訳(メタデータ) (2022-09-26T18:13:14Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - Affect Analysis in-the-wild: Valence-Arousal, Expressions, Action Units
and a Unified Framework [83.21732533130846]
Aff-Wild と Aff-Wild2 の2つである。
これは、これらのデータベースで訓練された深層ニューラルネットワークの2つのクラスの設計を示す。
インパクト認識を共同で学び、効果的に一般化し、実行することができる新しいマルチタスクおよび全体主義のフレームワークが提示されます。
論文 参考訳(メタデータ) (2021-03-29T17:36:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。