論文の概要: Issue Retrieval and Verification Enhanced Supplementary Code Comment Generation
- arxiv url: http://arxiv.org/abs/2506.14649v1
- Date: Tue, 17 Jun 2025 15:42:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.554294
- Title: Issue Retrieval and Verification Enhanced Supplementary Code Comment Generation
- Title(参考訳): 補足型コードコメント生成における検索と検証の課題
- Authors: Yanzhen Zou, Xianlin Zhao, Xinglu Pan, Bing Xie,
- Abstract要約: 我々はIsCommentを提案する。IsCommentは、補足的なコードコメントを生成するための問題ベースのLCM検索と検証手法である。
まず、コード-記事-課題分析を通じて、レポートが提供できる5つの主要なコード補完情報を同定する。
幻覚を減らすために、コードに関係のない候補コメントや、問題レポートで検証できないコメントをフィルタリングする。
- 参考スコア(独自算出の注目度): 1.434589731679756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Issue reports have been recognized to contain rich information for retrieval-augmented code comment generation. However, how to minimize hallucinations in the generated comments remains significant challenges. In this paper, we propose IsComment, an issue-based LLM retrieval and verification approach for generating method's design rationale, usage directives, and so on as supplementary code comments. We first identify five main types of code supplementary information that issue reports can provide through code-comment-issue analysis. Next, we retrieve issue sentences containing these types of supplementary information and generate candidate code comments. To reduce hallucinations, we filter out those candidate comments that are irrelevant to the code or unverifiable by the issue report, making the code comment generation results more reliable. Our experiments indicate that compared with LLMs, IsComment increases the coverage of manual supplementary comments from 33.6% to 72.2% for ChatGPT, from 35.8% to 88.4% for GPT-4o, and from 35.0% to 86.2% for DeepSeek-V3. Compared with existing work, IsComment can generate richer and more useful supplementary code comments for programming understanding, which is quantitatively evaluated through the MESIA metric on both methods with and without manual code comments.
- Abstract(参考訳): 問題報告には、検索強化コードコメント生成のための豊富な情報が含まれていることが認識されている。
しかし、生成したコメントの幻覚を最小限にする方法は、依然として大きな課題である。
本稿では,IsCommentを提案する。IsCommentは,メソッドの設計の合理性や使用指示などを生成するための問題ベースのLCM検索・検証手法であり,補足的なコードコメントである。
まず、コード-記事-課題分析を通じて、レポートが提供できる5つの主要なコード補完情報を同定する。
次に、これらの種類の補足情報を含む課題文を検索し、候補コードコメントを生成する。
幻覚を減らすために、コードに関係のない、あるいは問題報告で検証できないような候補コメントをフィルタリングし、コードコメント生成結果をより信頼性の高いものにする。
実験の結果,IsComment は LLM と比較して,手動補足コメントのカバレッジが 33.6% から 72.2% に増加し,ChatGPT が 35.8% から 88.4% に,DeepSeek-V3 が 35.0% から 86.2% に増加した。
既存の作業と比較すると、IsCommentはよりリッチでより有用なコードコメントを生成することができる。
関連論文リスト
- Prompting and Fine-tuning Large Language Models for Automated Code Review Comment Generation [5.6001617185032595]
プログラムデータと自然言語データの両方で事前訓練された大きな言語モデルは、コード指向のタスクでうまく機能する傾向にある。
我々は,パラメータ効率,量子化低ランクのオープンソースLarge Language Model (LLM) をコンシューマグレードハードウェア上で微調整し,レビューコメント生成を改善する。
論文 参考訳(メタデータ) (2024-11-15T12:01:38Z) - Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - AUTOGENICS: Automated Generation of Context-Aware Inline Comments for Code Snippets on Programming Q&A Sites Using LLM [1.971759811837406]
ソースコードのインラインコメントは、理解しやすく、再利用しやすく、可読性も向上している。
Stack Overflow (SO)のようなQ&Aサイトでの回答のコードスニペットにはコメントがないことが多い。
これらの課題を踏まえ、我々は、大規模な言語モデルを利用して、SOのコードスニペットに対する効果的なインラインコメントを生成するために、SOと統合するために設計されたツールであるAUTOGENICSを紹介した。
論文 参考訳(メタデータ) (2024-08-27T21:21:13Z) - COMCAT: Leveraging Human Judgment to Improve Automatic Documentation and Summarization [4.1491806566512235]
COMCATは、専門知識のあるコンテキストで大規模言語モデルを拡張することで、コメント生成を自動化するアプローチである。
C/C++ファイルにコメントを付けるためのCOMCATパイプラインを開発し、(1)コメントを配置する適切な場所を自動的に識別し、(2)各場所について最も有用なタイプのコメントを予測し、(3)選択した場所とコメントタイプに基づいてコメントを生成する。
被験者の87%に対して,COMCATが生成したコメントは,3つの指示的ソフトウェアエンジニアリングタスクにおける開発者のコード理解を最大12%向上させることを示した。
論文 参考訳(メタデータ) (2024-07-18T16:26:31Z) - CodeHalu: Investigating Code Hallucinations in LLMs via Execution-based Verification [73.66920648926161]
本稿では,コード幻覚の概念を導入し,実行検証に基づくコード幻覚の分類法を提案する。
本稿では,コード幻覚の検出と定量化を目的とした,CodeHaluと呼ばれる動的検出アルゴリズムを提案する。
また、699のタスクから8,883のサンプルを含むCodeHaluEvalベンチマークを導入し、コードの幻覚を体系的に定量的に評価する。
論文 参考訳(メタデータ) (2024-04-30T23:56:38Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。