論文の概要: Source Code Hotspots: A Diagnostic Method for Quality Issues
- arxiv url: http://arxiv.org/abs/2602.13170v1
- Date: Fri, 13 Feb 2026 18:29:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:54.07714
- Title: Source Code Hotspots: A Diagnostic Method for Quality Issues
- Title(参考訳): ソースコードホットスポット:品質問題の診断方法
- Authors: Saleha Muzammil, Mughees Ur Rehman, Zoe Kotti, Diomidis Spinellis,
- Abstract要約: ホットスポット(Hotspots)は、プロジェクトの他の部分よりも頻繁に変更され、メンテナンス活動に集中するコードの一部です。
91のGitHubリポジトリの完全なバージョン履歴をマイニングし、15の繰り返しラインレベルのホットスポットパターンを特定します。
最も一般的な3つのパターンはVersion Bump (26%)、脆いリリースプラクティス、Long Line Change (17%)、シグナリングの不十分なレイアウト、Ping-Pong (9%)、欠落または一貫性のないスタイルの自動化である。
- 参考スコア(独自算出の注目度): 2.5164068128857093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Software source code often harbours "hotspots": small portions of the code that change far more often than the rest of the project and thus concentrate maintenance activity. We mine the complete version histories of 91 evolving, actively developed GitHub repositories and identify 15 recurring line-level hotspot patterns that explain why these hotspots emerge. The three most prevalent patterns are Pinned Version Bump (26%), revealing brittle release practices; Long Line Change (17%), signalling deficient layout; and Formatting Ping-Pong (9%), indicating missing or inconsistent style automation. Surprisingly, automated accounts generate 74% of all hotspot edits, suggesting that bot activity is a dominant but largely avoidable source of noise in change histories. By mapping each pattern to concrete refactoring guidelines and continuous integration checks, our taxonomy equips practitioners with actionable steps to curb hotspots and systematically improve software quality in terms of configurability, stability, and changeability.
- Abstract(参考訳): ソフトウェアソースコードは、しばしば"ホットスポット"を持つ: プロジェクトの他の部分よりもはるかに頻繁に変化するコードの一部で、メンテナンス活動に集中する。
91の進化、活発に開発されているGitHubリポジトリの完全なバージョン履歴を発掘し、これらのホットスポットの出現理由を説明する15の繰り返しラインレベルのホットスポットパターンを特定しました。
最も一般的な3つのパターンは、Pinned Version Bump(26%)、不安定なリリースプラクティス、Long Line Change (17%)、シグナリングの不十分なレイアウト、 Formatting Ping-Pong (9%)、欠落または一貫性のないスタイルの自動化である。
驚くべきことに、自動化されたアカウントは、すべてのホットスポット編集の74%を生成する。
それぞれのパターンを具体的なリファクタリングガイドラインと継続的インテグレーションチェックにマッピングすることで、私たちの分類学は実践者に、ホットスポットの抑制と、構成性、安定性、変更性の観点からソフトウェア品質を体系的に改善するための実行可能なステップを与えます。
関連論文リスト
- Probing Pre-trained Language Models on Code Changes: Insights from ReDef, a High-Confidence Just-in-Time Defect Prediction Dataset [0.0]
本稿では,22の大規模C/C++プロジェクトから得られた関数レベル修正の信頼性の高いベンチマークであるReDefを紹介する。
欠陥ケースはコミットの反転によって固定され、クリーンケースはポストホック履歴チェックによって検証される。
このパイプラインは3,164の欠陥と10,268のクリーンな修正をもたらし、既存のリソースよりも信頼性の高いラベルを提供する。
論文 参考訳(メタデータ) (2025-09-11T07:07:11Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - Cracks in The Stack: Hidden Vulnerabilities and Licensing Risks in LLM Pre-Training Datasets [5.0091559832205155]
トレーニングデータの質を向上させるために,自動ソースコード自動計算手法を提案する。
Stack v2データセットを用いてこの手法を評価し,データセットのコードバージョンのうち17%に新しいバージョンがあることを確認した。
私たちは、AIツールが生成する出力の信頼性を高める可能性があり、自動データキュレーションのプロセス改善に刺激を与えることを期待しています。
論文 参考訳(メタデータ) (2025-01-05T18:54:25Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z) - Multi-Granularity Detector for Vulnerability Fixes [13.653249890867222]
脆弱性修正のためのMiDa(Multi-Granularity Detector for Vulnerability Fixes)を提案する。
MiDasはコミットレベル、ファイルレベル、ハンクレベル、ラインレベルに対応して、コード変更の粒度ごとに異なるニューラルネットワークを構築する。
MiDasは、現在の最先端のベースラインをAUCで4.9%、JavaとPythonベースのデータセットで13.7%上回っている。
論文 参考訳(メタデータ) (2023-05-23T10:06:28Z) - Continual Test-Time Domain Adaptation [94.51284735268597]
テスト時ドメイン適応は、ソースデータを使用しずに、ソース事前訓練されたモデルをターゲットドメインに適応することを目的としている。
CoTTAは実装が容易で、市販の事前訓練モデルに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-03-25T11:42:02Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Using Source Code Density to Improve the Accuracy of Automatic Commit
Classification into Maintenance Activities [7.53201324244815]
コミットのネットサイズを測るソースコード密度を導入し、自動コミット分類の精度を向上させる方法を示す。
1つのプロジェクトでモデルをトレーニングし、他のプロジェクトに適用するクロスプロジェクトコミット分類では、最大89%の精度と0.82のKappaを達成します。
論文 参考訳(メタデータ) (2020-05-28T11:05:39Z) - Detecting and Characterizing Bots that Commit Code [16.10540443996897]
著者名,コミットメッセージ,コミットによって修正されたファイル,オムミットに関連するプロジェクトを用いて,ボットを検出するための体系的なアプローチを提案する。
私たちは、発見した461のボット(全員が1000以上のコミットを持っている)と13,762,430のコミットに関する詳細な情報を含む、共有可能なデータセットをコンパイルしました。
論文 参考訳(メタデータ) (2020-03-02T21:54:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。