論文の概要: Detecting Multiple Semantic Concerns in Tangled Code Commits
- arxiv url: http://arxiv.org/abs/2601.21298v1
- Date: Thu, 29 Jan 2026 05:50:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.605133
- Title: Detecting Multiple Semantic Concerns in Tangled Code Commits
- Title(参考訳): タングルコードコミットにおける複数の意味的関心事の検出
- Authors: Beomsu Koh, Neil Walkinshaw, Donghwan Shin,
- Abstract要約: 開発者はしばしば、絡まったコミットに複数の関心事をバンドルし、意図を隠蔽し、メンテナンスを複雑にする。
近年の研究では、コミット意図を捉えるために、CCS(Conventional Commits Specification)とLM(Language Models)が使われている。
本研究では,SLMを用いて,絡み合ったコミットにおける複数の意味的関心事を検出する実験的検討を行った。
- 参考スコア(独自算出の注目度): 1.2578844450585998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code commits in a version control system (e.g., Git) should be atomic, i.e., focused on a single goal, such as adding a feature or fixing a bug. In practice, however, developers often bundle multiple concerns into tangled commits, obscuring intent and complicating maintenance. Recent studies have used Conventional Commits Specification (CCS) and Language Models (LMs) to capture commit intent, demonstrating that Small Language Models (SLMs) can approach the performance of Large Language Models (LLMs) while maintaining efficiency and privacy. However, they do not address tangled commits involving multiple concerns, leaving the feasibility of using LMs for multi-concern detection unresolved. In this paper, we frame multi-concern detection in tangled commits as a multi-label classification problem and construct a controlled dataset of artificially tangled commits based on real-world data. We then present an empirical study using SLMs to detect multiple semantic concerns in tangled commits, examining the effects of fine-tuning, concern count, commit-message inclusion, and header-preserving truncation under practical token-budget limits. Our results show that a fine-tuned 14B-parameter SLM is competitive with a state-of-the-art LLM for single-concern commits and remains usable for up to three concerns. In particular, including commit messages improves detection accuracy by up to 44% (in terms of Hamming Loss) with negligible latency overhead, establishing them as important semantic cues.
- Abstract(参考訳): バージョン管理システム(Gitなど)のコードコミットはアトミックでなければならない。
しかし実際には、開発者は複数の懸念事項を絡み合ったコミットにまとめ、意図を隠蔽し、メンテナンスを複雑にすることが多い。
近年の研究では、コミット意図を捉えるために、CCS(Conventional Commits Specification)とLanguage Models(LM)を使用しており、Small Language Models(SLM)が、効率とプライバシを維持しながら、LLM(Large Language Models)のパフォーマンスにアプローチできることを実証している。
しかし、複数の関心事を含む絡み合ったコミットには対処せず、マルチコンテナ検出にLMを使用することの可能性は未解決のままである。
本稿では,マルチラベル分類問題として,絡み合ったコミットのマルチコンサーン検出を行い,実世界のデータに基づく人工絡み合ったコミットの制御データセットを構築する。
次に、SLMを用いて、絡み合ったコミットにおける複数の意味的関心を検知し、ファインチューニング、関心数、コミットメッセージの包含、および実際のトークン予算制限下でのヘッダ保存トランケーションの効果を調べる。
以上の結果から,高精細度14BパラメータのSLMは,一括コミットに対して最先端のLLMと競合し,最大3つの関心事に有効であることが示唆された。
特にコミットメッセージを含むと検出精度が最大44%向上する(ハミングロスに関しては)。
関連論文リスト
- CodeFuse-CommitEval: Towards Benchmarking LLM's Power on Commit Message and Code Change Inconsistency Detection [8.631593963090985]
バージョン管理は、コード変更の合理性を伝えるためにコミットメッセージに依存するが、これらのメッセージは、しばしば低品質で、メッセージコード不整合(MCI)として知られる差分と矛盾する。
大規模言語モデル(LLM)を用いたMCI検出のための最初のベンチマークであるCODEFUSE-COMMITEVALを紹介する。
我々は、元々一貫したコミットのルール誘導突然変異を通じて、7種類の一貫性のないメッセージを生成し、正と負の両方のサンプルを検証するために2倍の検証を適用した。
論文 参考訳(メタデータ) (2025-11-25T03:33:57Z) - LLMBisect: Breaking Barriers in Bug Bisection with A Comparative Analysis Pipeline [35.18683484280968]
大規模言語モデル(LLM)は、既存のソリューションの障壁を断ち切るために適切に配置されている。
LLMはテキストデータとコードの両方をパッチやコミットで理解している。
提案手法は最先端のソリューションよりも38%以上精度が向上する。
論文 参考訳(メタデータ) (2025-10-30T02:47:25Z) - Probing Pre-trained Language Models on Code Changes: Insights from ReDef, a High-Confidence Just-in-Time Defect Prediction Dataset [0.0]
本稿では,22の大規模C/C++プロジェクトから得られた関数レベル修正の信頼性の高いベンチマークであるReDefを紹介する。
欠陥ケースはコミットの反転によって固定され、クリーンケースはポストホック履歴チェックによって検証される。
このパイプラインは3,164の欠陥と10,268のクリーンな修正をもたらし、既存のリソースよりも信頼性の高いラベルを提供する。
論文 参考訳(メタデータ) (2025-09-11T07:07:11Z) - Fast Controlled Generation from Language Models with Adaptive Weighted Rejection Sampling [90.86991492288487]
トークンの制約を評価するのは 違法にコストがかかる
LCDは文字列上のグローバル分布を歪め、ローカル情報のみに基づいてトークンをサンプリングすることができる。
我々のアプローチは最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-04-07T18:30:18Z) - Beyond Next Token Probabilities: Learnable, Fast Detection of Hallucinations and Data Contamination on LLM Output Distributions [60.43398881149664]
LLM出力シグナチャの効率的な符号化を訓練した軽量アテンションベースアーキテクチャであるLOS-Netを紹介する。
非常に低い検出レイテンシを維持しながら、さまざまなベンチマークやLLMで優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-03-18T09:04:37Z) - Not all tokens are created equal: Perplexity Attention Weighted Networks for AI generated text detection [49.15148871877941]
大規模言語モデル(LLM)の検出に理論的に魅力的なアプローチを提供する次点分布出力
本稿では,LLMの最後の隠蔽状態を用いて,列長の次トーケン分布のメトリクスに基づく一連の特徴量の重み付けを行うパープレキシティ注意重み付けネットワーク(PAWN)を提案する。
PAWNは、トレーニング可能なパラメータのごく一部を持つ最強のベースラインよりも、競争力があり、より優れた分散性能を示している。
論文 参考訳(メタデータ) (2025-01-07T17:00:49Z) - Using Large Language Models for Commit Message Generation: A Preliminary
Study [5.5784148764236114]
大規模言語モデル(LLM)はコミットメッセージを自動かつ効果的に生成するために使用することができる。
366サンプルの78%では, LLMが生成したコミットメッセージが人間によって最高のものと評価された。
論文 参考訳(メタデータ) (2024-01-11T14:06:39Z) - Delving into Commit-Issue Correlation to Enhance Commit Message
Generation Models [13.605167159285374]
コミットメッセージ生成は、自動化されたソフトウェアエンジニアリングにおいて難しいタスクである。
ツールとは,コミットとイシューの相関関係をモデルのトレーニングフェーズに導入する,新たなパラダイムだ。
その結果,元モデルと比較して,ツール強化モデルの性能は大幅に向上した。
論文 参考訳(メタデータ) (2023-07-31T20:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。