論文の概要: Can Internal Software Metrics Predict App Popularity at Launch? Yeas! and Nays!
- arxiv url: http://arxiv.org/abs/2507.02110v1
- Date: Wed, 02 Jul 2025 19:47:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.169778
- Title: Can Internal Software Metrics Predict App Popularity at Launch? Yeas! and Nays!
- Title(参考訳): 社内ソフトウェアメトリクスは、ローンチ時にアプリの人気を予測できるか?
- Authors: Md Nahidul Islam Opu, Fatima Islam Mouri, Rick Kazman, Yuanfang Cai, Shaiful Chowdhury,
- Abstract要約: デプロイメント前のソースコードから測定可能な内部ソフトウェアメトリクスは、アプリの人気を予測することができる。
この研究は、F-Droidから446のオープンソースAndroidアプリのデータセットを使用する。
- 参考スコア(独自算出の注目度): 10.416999845729054
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting mobile app popularity before release can provide developers with a strategic advantage in a competitive marketplace, yet it remains a challenging problem. This study explores whether internal software metrics, measurable from source code before deployment, can predict an app's popularity, defined by user ratings (calculated from user reviews) and DownloadsPerYear (yearly downloads). Using a dataset of 446 open-source Android apps from F-Droid, we extract a wide array of features, including system-, class-, and method-level code metrics, code smells, and app metadata. Additional information, such as user reviews, download counts, and uses-permission, was collected from the Google Play Store. We evaluate regression and classification models across three feature sets: a minimal Size-only baseline, a domain-informed Handpicked set, and a Voting set derived via feature selection algorithms. Regression models perform poorly due to skewed data, with low $R^2$ scores. However, when reframed as binary classification (Popular vs. Unpopular), results improve significantly. The best model, a Multilayer Perceptron using the Voting set, achieves F1-scores of 0.72. These results suggest that internal code metrics, although limited in their explanatory power, can serve as useful indicators of app popularity. This challenges earlier findings that dismissed internal metrics as predictors of software quality.
- Abstract(参考訳): リリース前にモバイルアプリの人気を予測すれば、競合するマーケットプレースで戦略的優位性が得られるが、それでも難しい問題だ。
本研究では,デプロイ前のソースコードから測定可能な内部ソフトウェアメトリクスが,ユーザ評価(ユーザレビューから算出した)とDownloadsPerYear(ダウンロード数)によって定義されたアプリの人気を予測できるかどうかを検討する。
F-Droidから446のオープンソースAndroidアプリのデータセットを使用して、システム、クラス、メソッドレベルのコードメトリクス、コードの臭い、アプリのメタデータなど、幅広い機能を抽出します。
ユーザーレビュー、ダウンロード数、利用許可などの追加情報は、Google Play Storeから収集された。
我々は,最小限のサイズのみのベースライン,ドメイン情報付きハンドピックセット,特徴選択アルゴリズムによる投票セットの3つの特徴集合の回帰モデルと分類モデルを評価する。
回帰モデルは歪んだデータのために性能が悪く、R^2$スコアが低い。
しかし、リフレームされたバイナリ分類(Popular vs. Unpopular)では、結果は大幅に改善される。
最良のモデルは、Voting集合を用いた多層パーセプトロンであり、F1スコアは0.72である。
これらの結果は,説明力に制限のある内部コードメトリクスが,アプリの人気を示す有用な指標となることを示唆している。
このことは、ソフトウェア品質の予測因子として内部メトリクスを除外した初期の発見に挑戦する。
関連論文リスト
- MICE for CATs: Model-Internal Confidence Estimation for Calibrating Agents with Tools [54.63478102768333]
十分に校正されたモデル信頼度は、潜在的な行動の報酬に対するリスクを測るために使用することができる。
本稿では,ツール呼び出し時の信頼度を評価するために,モデル内信頼度推定器(MICE)の新たなクラスを提案する。
論文 参考訳(メタデータ) (2025-04-28T18:06:38Z) - Prioritizing App Reviews for Developer Responses on Google Play [1.5771347525430772]
2013年以降、Google Playは開発者がユーザーレビューに応答できるようにしてきた。
13%から18%の開発者がこのプラクティスに従事しています。
応答優先度に基づいてレビューを優先順位付けする手法を提案する。
論文 参考訳(メタデータ) (2025-02-03T16:56:08Z) - What should an AI assessor optimise for? [57.96463917842822]
AIアセスタ(AI Assessmentor)は、他のAIシステムの指標(損失値など)を予測する、外的、理想的には不適切なシステムである。
ここでは、問題に対処する: 常にターゲットメトリックのアセスメントをトレーニングするのが最適か?
本研究では, モノトニック写像と非モノトニック写像を用いた回帰損失と分類スコアについて実験的に検討した。
論文 参考訳(メタデータ) (2025-02-01T08:41:57Z) - Robust Collaborative Filtering to Popularity Distribution Shift [56.78171423428719]
本稿では,テストデータに仮定することなく,インタラクションワイドな人気ショートカットを定量化し,削減する,シンプルで効果的なデバイアス対策であるPopGoを提案する。
IDとOODの両方のテストセットにおいて、PopGoは最先端のデバイアス戦略よりも大幅に向上している。
論文 参考訳(メタデータ) (2023-10-16T04:20:52Z) - Revisiting Android App Categorization [5.805764439228492]
そこで本研究では,既存のAndroidアプリのカテゴリ化アプローチを,新たな基盤構造データセットを用いて包括的に評価する。
本稿では,記述に基づく手法とAPKに基づく手法の両方において,既存の手法の性能を効果的に上回る2つの革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T08:25:34Z) - Proactive Prioritization of App Issues via Contrastive Learning [2.6763498831034043]
本稿では,アプリの問題を積極的に優先順位付けする新しいフレームワークPPriorを提案する。
PPriorはトレーニング済みのT5モデルを採用し、3段階で動作する。
フェーズ1は、事前訓練されたT5モデルを、セルフ教師された方法でユーザレビューデータに適用する。
第2フェーズでは、コントラストトレーニングを活用して、ユーザレビューの汎用的かつタスクに依存しない表現を学習する。
論文 参考訳(メタデータ) (2023-03-12T06:23:10Z) - Integrating Rankings into Quantized Scores in Peer Review [61.27794774537103]
ピアレビューでは、レビュアーは通常、論文のスコアを提供するように求められます。
この問題を軽減するため、カンファレンスはレビュアーにレビューした論文のランキングを付加するように求め始めている。
このランキング情報を使用するための標準的な手順はなく、エリアチェアは異なる方法でそれを使用することができる。
我々は、ランキング情報をスコアに組み込むために、原則化されたアプローチを取る。
論文 参考訳(メタデータ) (2022-04-05T19:39:13Z) - AppQ: Warm-starting App Recommendation Based on View Graphs [37.37177133951606]
新しいアプリには、昔ながらのコールドスタート問題に悩まされているユーザーからのフィードバックがほとんど(あるいは全くない)ないことが多い。
ここで、基本的な要件は、ユーザ生成機能ではなく、生来のフィーチャに基づいてアプリの品質を正確に測定する能力である。
そこで本研究では,アプリソースコードに基づいて,アプリ固有の特徴を抽出するアプリケーション品質評価とレコメンデーションシステムであるAppQを提案する。
論文 参考訳(メタデータ) (2021-09-08T17:40:48Z) - PiRank: Learning To Rank via Differentiable Sorting [85.28916333414145]
ランク付けのための新しい分類可能なサロゲートであるPiRankを提案する。
ピランクは所望の指標をゼロ温度の限界で正確に回収する。
論文 参考訳(メタデータ) (2020-12-12T05:07:36Z) - Emerging App Issue Identification via Online Joint Sentiment-Topic
Tracing [66.57888248681303]
本稿では,MERITという新しい問題検出手法を提案する。
AOBSTモデルに基づいて、1つのアプリバージョンに対するユーザレビューに否定的に反映されたトピックを推測する。
Google PlayやAppleのApp Storeで人気のアプリに対する実験は、MERITの有効性を実証している。
論文 参考訳(メタデータ) (2020-08-23T06:34:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。