論文の概要: An Empirical Study on Method-Level Performance Evolution in Open-Source Java Projects
- arxiv url: http://arxiv.org/abs/2508.07084v1
- Date: Sat, 09 Aug 2025 19:39:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.690087
- Title: An Empirical Study on Method-Level Performance Evolution in Open-Source Java Projects
- Title(参考訳): オープンソースJavaプロジェクトにおけるメソッドレベルパフォーマンスの進化に関する実証的研究
- Authors: Kaveh Shahedi, Nana Gyambrah, Heng Li, Maxime Lamothe, Foutse Khomh,
- Abstract要約: 我々は15の成熟したオープンソースのJavaプロジェクトで、パフォーマンスの進化を分析する大規模な実証的研究を行った。
その結果,メソッドレベルの変化の32.7%が測定可能なパフォーマンスに影響を及ぼすことが判明した。
アルゴリズムの変更は、最高の改善可能性を示すが、かなりのレグレッションリスクを持つ。
- 参考スコア(独自算出の注目度): 14.908341749591594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Performance is a critical quality attribute in software development, yet the impact of method-level code changes on performance evolution remains poorly understood. While developers often make intuitive assumptions about which types of modifications are likely to cause performance regressions or improvements, these beliefs lack empirical validation at a fine-grained level. We conducted a large-scale empirical study analyzing performance evolution in 15 mature open-source Java projects hosted on GitHub. Our analysis encompassed 739 commits containing 1,499 method-level code changes, using Java Microbenchmark Harness (JMH) for precise performance measurement and rigorous statistical analysis to quantify both the significance and magnitude of performance variations. We employed bytecode instrumentation to capture method-specific execution metrics and systematically analyzed four key aspects: temporal performance patterns, code change type correlations, developer and complexity factors, and domain-size interactions. Our findings reveal that 32.7% of method-level changes result in measurable performance impacts, with regressions occurring 1.3 times more frequently than improvements. Contrary to conventional wisdom, we found no significant differences in performance impact distributions across code change categories, challenging risk-stratified development strategies. Algorithmic changes demonstrate the highest improvement potential but carry substantial regression risk. Senior developers produce more stable changes with fewer extreme variations, while code complexity correlates with increased regression likelihood. Domain-size interactions reveal significant patterns, with web server + small projects exhibiting the highest performance instability. Our study provides empirical evidence for integrating automated performance testing into continuous integration pipelines.
- Abstract(参考訳): パフォーマンスはソフトウェア開発において重要な品質特性であるが、パフォーマンスの進化に対するメソッドレベルのコード変更の影響はいまだよく分かっていない。
開発者は、どのタイプの修正がパフォーマンスのレグレッションや改善を引き起こす可能性があるかについて直感的に仮定することが多いが、これらの信念は、きめ細かいレベルで実証的な検証を欠いている。
GitHubにホストされている15の成熟したオープンソースのJavaプロジェクトで、パフォーマンスの進化を分析する大規模な実証的研究を行った。
分析では,Java Microbenchmark Harness (JMH) を用いて,1,499のメソッドレベルのコード変更を含む739のコミットを,高精度な性能測定と厳密な統計解析により,性能変動の意義と大きさを定量化した。
バイトコードインスツルメンテーションを用いて、メソッド固有の実行メトリクスをキャプチャし、時間的パフォーマンスパターン、コード変更タイプ相関、開発者と複雑性要因、ドメインサイズの相互作用の4つの重要な側面を体系的に分析した。
その結果,メソッドレベルの変化の32.7%が測定可能なパフォーマンスへの影響を示し,回帰は改善の1.3倍の頻度で発生することがわかった。
従来の知恵とは対照的に、コード変更カテゴリ間のパフォーマンス影響の分布に顕著な違いはなく、リスク階層化開発戦略に挑戦しています。
アルゴリズムの変更は、最高の改善可能性を示すが、かなりのレグレッションリスクを持つ。
上級開発者は、極端なバリエーションを少なくしてより安定した変更を生成する一方、コードの複雑さは回帰率の増加と相関する。
ドメインサイズの相互作用は重要なパターンを示し、Webサーバ+小さなプロジェクトは最高のパフォーマンスの不安定さを示す。
私たちの研究は、自動パフォーマンステストを継続的インテグレーションパイプラインに統合するための実証的な証拠を提供します。
関連論文リスト
- Refactoring $\neq$ Bug-Inducing: Improving Defect Prediction with Code Change Tactics Analysis [54.361900378970134]
Just-in-time defect prediction (JIT-DP) は、早期にソフトウェア欠陥を引き起こすコード変更の可能性を予測することを目的としている。
これまでの研究は、その頻度にもかかわらず、評価フェーズと方法論フェーズの両方でコードを無視してきた。
JIT-Defects4Jデータセットのラベリング精度を13.7%向上させるコードと伝播を分類するためのCode chAnge Tactics (CAT)解析を提案する。
論文 参考訳(メタデータ) (2025-07-25T23:29:25Z) - Scaling Test-time Compute for LLM Agents [51.790752085445384]
テスト時間計算のスケールアップは、大規模言語モデル(LLM)の推論能力の向上に顕著な成功を収めた。
本研究では,テスト時間スケーリング手法を言語エージェントに適用する最初の体系的な検討を行う。
論文 参考訳(メタデータ) (2025-06-15T17:59:47Z) - Towards Understanding Bugs in Distributed Training and Inference Frameworks for Large Language Models [7.486731499255164]
本稿では,DeepSpeed,Megatron-LM,Colossal-AIの3つの分散トレーニング/推論フレームワークを対象に,308の固定バグの大規模解析を行った。
本研究は, バグ症状, 根本原因, バグの特定と修正の取り組み, および, 一般的な低ストレス修正戦略について検討する。
論文 参考訳(メタデータ) (2025-06-12T07:24:59Z) - The Impact of Feature Scaling In Machine Learning: Effects on Regression and Classification Tasks [0.8388858079753069]
本研究は、14の機械学習アルゴリズムと16のデータセットにまたがる12のスケーリングテクニックを体系的に評価することで、機能スケーリングに関する包括的な研究が欠如していることに対処する。
我々は、予測性能(精度、MAE、MSE、R2$など)と計算コスト(トレーニング時間、推論時間、メモリ使用量)への影響を慎重に分析した。
論文 参考訳(メタデータ) (2025-06-09T22:32:51Z) - Identifying and Replicating Code Patterns Driving Performance Regressions in Software Systems [7.030339427131108]
パフォーマンス変異テストは、意図的な欠陥を導入し、障害検出能力を測定し、強化する。
重要な課題は、生成されたミュータントが現実世界のパフォーマンス問題を正確に反映しているかどうかを理解することである。
本研究は、性能試験のための突然変異演算子を評価し、拡張する。
論文 参考訳(メタデータ) (2025-04-08T09:28:46Z) - On the Mistaken Assumption of Interchangeable Deep Reinforcement Learning Implementations [53.0667196725616]
ディープ・強化学習(Deep Reinforcement Learning, DRL)とは、エージェントがニューラルネットワークを使って特定の環境でどのアクションをとるかを学ぶ人工知能のパラダイムである。
DRLは最近、ドライビングシミュレーター、3Dロボット制御、マルチプレイヤー・オンライン・バトル・アリーナ・ビデオゲームといった複雑な環境を解くことで注目を集めている。
現在、Deep Q-Network (DQN) や Proximal Policy Optimization (PPO) アルゴリズムのような、これらのエージェントを訓練する最先端のアルゴリズムの実装が数多く存在する。
論文 参考訳(メタデータ) (2025-03-28T16:25:06Z) - Towards Understanding the Impact of Code Modifications on Software Quality Metrics [1.2277343096128712]
本研究の目的は、コード修正がソフトウェアの品質指標に与える影響を評価し、解釈することである。
基礎となる仮説は、ソフトウェア品質のメトリクスに類似した変更を誘発するコード修正は、異なるクラスタにグループ化できる、というものである。
結果は、コード修正の異なるクラスタを明らかにし、それぞれに簡潔な記述が伴い、ソフトウェアの品質指標に対する全体的な影響を明らかにした。
論文 参考訳(メタデータ) (2024-04-05T08:41:18Z) - Large Language Models are Miscalibrated In-Context Learners [22.30783674111999]
本研究では,学習方法の異なる選択にまたがる行動の詳細な分析を行う。
低リソース環境における全ての学習手法に誤校正問題が存在することを観察する。
最大確率で自己認識を行うことで,ロバストかつ校正された予測が得られることがわかった。
論文 参考訳(メタデータ) (2023-12-21T11:55:10Z) - Evolving Pareto-Optimal Actor-Critic Algorithms for Generalizability and
Stability [67.8426046908398]
汎用性と安定性は,実世界における強化学習(RL)エージェントの運用において重要な2つの目的である。
本稿では,アクター・クリティック・ロス関数の自動設計法であるMetaPGを提案する。
論文 参考訳(メタデータ) (2022-04-08T20:46:16Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。