論文の概要: Larger Is Not Always Better: Leveraging Structured Code Diffs for Comment Inconsistency Detection
- arxiv url: http://arxiv.org/abs/2512.19883v2
- Date: Wed, 24 Dec 2025 07:58:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 13:34:31.95193
- Title: Larger Is Not Always Better: Leveraging Structured Code Diffs for Comment Inconsistency Detection
- Title(参考訳): コメントの不整合検出のための構造化コードディフの活用
- Authors: Phong Nguyen, Anh M. T. Bui, Phuong T. Nguyen,
- Abstract要約: 開発者がコードを変更するが、対応するコメントを更新することを無視する場合に、コメントの不整合が発生する。
大規模言語モデル(LLM)を利用したCCI(Code-comment Inconsistency)検出への最近のアプローチ
CodeT5+のバックボーン上に構築したJust-In-Time CCI検出手法を提案する。
- 参考スコア(独自算出の注目度): 3.0208923532626444
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Ensuring semantic consistency between source code and its accompanying comments is crucial for program comprehension, effective debugging, and long-term maintainability. Comment inconsistency arises when developers modify code but neglect to update the corresponding comments, potentially misleading future maintainers and introducing errors. Recent approaches to code-comment inconsistency (CCI) detection leverage Large Language Models (LLMs) and rely on capturing the semantic relationship between code changes and outdated comments. However, they often ignore the structural complexity of code evolution, including historical change activities, and introduce privacy and resource challenges. In this paper, we propose a Just-In-Time CCI detection approach built upon the CodeT5+ backbone. Our method decomposes code changes into ordered sequences of modification activities such as replacing, deleting, and adding to more effectively capture the correlation between these changes and the corresponding outdated comments. Extensive experiments conducted on publicly available benchmark datasets-JITDATA and CCIBENCH--demonstrate that our proposed approach outperforms recent state-of-the-art models by up to 13.54% in F1-Score and achieves an improvement ranging from 4.18% to 10.94% over fine-tuned LLMs including DeepSeek-Coder, CodeLlama and Qwen2.5-Coder.
- Abstract(参考訳): ソースコードとそのコメント間のセマンティックな一貫性を保証することは、プログラムの理解、効果的なデバッグ、長期の保守性に不可欠である。
コメントの不整合は、開発者がコードを変更するが、対応するコメントを更新することを無視し、将来のメンテナを誤解させ、エラーを発生させる。
Code-comment Inconsistency(CCI)検出への最近のアプローチは、Large Language Models(LLM)を活用し、コード変更と古いコメントの間のセマンティックな関係をキャプチャすることに依存している。
しかし、彼らはしばしば、歴史的な変更活動を含むコード進化の構造的な複雑さを無視し、プライバシとリソースの課題を導入します。
本稿では,CodeT5+のバックボーン上に構築したJust-In-Time CCI検出手法を提案する。
本手法では, コード変更を置換, 削除, 追加などの修正活動の順序列に分解し, これらの変更とそれに対応する古いコメントとの相関関係をより効果的に把握する。
公開ベンチマークデータセット-JITDATAとCCIBENCH-demonstrateで実施された大規模な実験では、提案手法が最新の最先端モデルを最大13.54%F1-Scoreで上回り、DeepSeek-Coder、CodeLlama、Qwen2.5-Coderなどの微調整LLMに対して4.18%から10.94%の改善を実現している。
関連論文リスト
- BRIDGE: Building Representations In Domain Guided Program Verification [67.36686119518441]
BRIDGEは、検証をコード、仕様、証明の3つの相互接続ドメインに分解する。
提案手法は, 標準誤差フィードバック法よりも精度と効率を著しく向上することを示す。
論文 参考訳(メタデータ) (2025-11-26T06:39:19Z) - Probing Pre-trained Language Models on Code Changes: Insights from ReDef, a High-Confidence Just-in-Time Defect Prediction Dataset [0.0]
本稿では,22の大規模C/C++プロジェクトから得られた関数レベル修正の信頼性の高いベンチマークであるReDefを紹介する。
欠陥ケースはコミットの反転によって固定され、クリーンケースはポストホック履歴チェックによって検証される。
このパイプラインは3,164の欠陥と10,268のクリーンな修正をもたらし、既存のリソースよりも信頼性の高いラベルを提供する。
論文 参考訳(メタデータ) (2025-09-11T07:07:11Z) - Turning the Tide: Repository-based Code Reflection [52.13709676656648]
マルチファイルリポジトリコンテキストにおけるコード理解と生成を評価するベンチマークであるLiveRepoReflectionを紹介する。
多様性、正確性、難易度を確保するため、6ドル(約6,800円)のプログラミング言語で厳格にテストケースをフィルタリングしました。
RepoReflection-Instructは、さまざまなソースから派生した大規模で品質の高い命令チューニングデータセットである。
論文 参考訳(メタデータ) (2025-07-14T02:36:27Z) - LLMCup: Ranking-Enhanced Comment Updating with LLMs [8.12420131928042]
大きな言語モデル(LLM)は、コメント生成、コード合成、プログラムの修復といったソフトウェア工学のタスクにおいて素晴らしいパフォーマンスを示している。
LLMCupという新しいコメント更新フレームワークを提案する。このフレームワークはまず複数のプロンプト戦略を用いて,LSMを介して多種多様な候補更新コメントを提供する。
論文 参考訳(メタデータ) (2025-07-11T15:11:27Z) - LLM-Based Detection of Tangled Code Changes for Higher-Quality Method-Level Bug Datasets [8.166584296080805]
本稿では,コミットメッセージとメソッドレベルのコード差分の両方を活用することで,絡み合ったコード変化を検出するための大規模言語モデルの有用性について検討する。
その結果,コミットメッセージとコード差分を組み合わせることで,モデルの性能が著しく向上することがわかった。
49のオープンソースプロジェクトにアプローチを適用することで、バグギーと非バグギーメソッド間のコードのメトリクスの分散分離性が向上します。
論文 参考訳(メタデータ) (2025-05-13T06:26:13Z) - ObscuraCoder: Powering Efficient Code LM Pre-Training Via Obfuscation Grounding [60.37988508851391]
言語モデル(LM)は、コード記述ツールボックスのベースとなっている。
Code-LMの事前学習目標の変更を探求する研究は、データ効率の向上と構文とセマンティクスの相互接続性の向上を目的としており、顕著に不十分である。
本研究では,Code-LMが表面的な構文を超越し,事前学習したサンプルの効率を高めるために,難読化コードの基盤について検討する。
論文 参考訳(メタデータ) (2025-03-27T23:08:53Z) - Investigating the Impact of Code Comment Inconsistency on Bug Introducing [4.027975836739619]
本研究では,大規模な言語モデルを用いたバグ導入におけるコード圧縮の不整合の影響について検討する。
我々はまず,GPT-3.5モデルの性能を,これらの不整合を検出する他の最先端手法と比較する。
また,コード圧縮の不整合の時間的変化と,様々な時間枠上でのバグ発生への影響も分析した。
論文 参考訳(メタデータ) (2024-09-16T23:24:29Z) - VersiCode: Towards Version-controllable Code Generation [58.82709231906735]
大規模言語モデル(LLM)は、コード生成において大きな進歩を遂げていますが、既存の研究は、ソフトウェア開発の動的な性質を説明できません。
バージョン別コード補完(VSCC)とバージョン別コードマイグレーション(VACM)の2つの新しいタスクを提案する。
VersiCodeについて広範な評価を行い、バージョン管理可能なコード生成が確かに重要な課題であることを示した。
論文 参考訳(メタデータ) (2024-06-11T16:15:06Z) - Comments as Natural Logic Pivots: Improve Code Generation via Comment Perspective [85.48043537327258]
本稿では, MANGO (comMents As Natural loGic pivOts) を提案する。
その結果、MANGOは強いベースラインに基づいてコードパス率を大幅に改善することがわかった。
論理的なコメントの復号化戦略の堅牢性は、考えの連鎖よりも顕著に高い。
論文 参考訳(メタデータ) (2024-04-11T08:30:46Z) - Deep Just-In-Time Inconsistency Detection Between Comments and Source
Code [51.00904399653609]
本稿では,コード本体の変更によりコメントが矛盾するかどうかを検出することを目的とする。
私たちは、コメントとコードの変更を関連付けるディープラーニングアプローチを開発しています。
より包括的な自動コメント更新システムを構築するために,コメント更新モデルと組み合わせて提案手法の有用性を示す。
論文 参考訳(メタデータ) (2020-10-04T16:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。