論文の概要: Optimizing Knowledge Utilization for Multi-Intent Comment Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2510.25195v1
- Date: Wed, 29 Oct 2025 06:02:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.178582
- Title: Optimizing Knowledge Utilization for Multi-Intent Comment Generation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた多文コメント生成のための知識活用の最適化
- Authors: Shuochuan Li, Zan Wang, Xiaoning Du, Zhuo Wu, Jiuqiao Yu, Junjie Chen,
- Abstract要約: コードコメント生成は、開発者がコードを理解し維持するのに役立つコードスニペットの一般的な概要を作成することを目的としている。
これは多言語コメント生成の必要性を強調している。
マルチインテントコメント生成のためのフレームワークKUMICを提案する。
- 参考スコア(独自算出の注目度): 12.546021344852305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code comment generation aims to produce a generic overview of a code snippet, helping developers understand and maintain code. However, generic summaries alone are insufficient to meet the diverse needs of practitioners; for example, developers expect the implementation insights to be presented in an untangled manner, while users seek clear usage instructions. This highlights the necessity of multi-intent comment generation. With the widespread adoption of Large Language Models (LLMs) for code-related tasks, these models have been leveraged to tackle the challenge of multi-intent comment generation. Despite their successes, state-of-the-art LLM-based approaches often struggle to construct correct relationships among intents, code, and comments within a smaller number of demonstration examples. To mitigate this issue, we propose a framework named KUMIC for multi-intent comment generation. Built upon in-context learning, KUMIC leverages Chain-of-Thought (CoT) to optimize knowledge utilization for LLMs to generate intent-specific comments. Specifically, KUMIC first designs a retrieval mechanism to obtain similar demonstration examples, which exhibit high code-comment consistency. Then, KUMIC leverages CoT to guide LLMs to focus on statements facilitating the derivation of code comments aligned with specific intents. In this context, KUMIC constructs a mapping knowledge chain, linking code to intent-specific statements to comments, which enables LLMs to follow similar reasoning steps when generating the desired comments. We conduct extensive experiments to evaluate KUMIC, and the results demonstrate that KUMIC outperforms state-of-the-art baselines by 14.49\%, 22.41\%, 20.72\%, and 12.94\% in terms of BLEU, METEOR, ROUGE-L, and SBERT, respectively.
- Abstract(参考訳): コードコメント生成は、開発者がコードを理解し維持するのに役立つコードスニペットの一般的な概要を作成することを目的としている。
しかし、一般的な要約だけでは、実践者の多様なニーズを満たすには不十分である。例えば、開発者は実装の洞察をアンハングルな方法で提示し、ユーザーは明確な使用指示を求める。
これは多言語コメント生成の必要性を強調している。
コード関連タスクにLarge Language Models(LLM)が広く採用されているため、これらのモデルは多言語コメント生成の課題に取り組むために利用されてきた。
彼らの成功にもかかわらず、最先端のLLMベースのアプローチは、少数のデモ例において、インテント、コード、コメント間の正確な関係を構築するのに苦労することが多い。
この問題を軽減するために,多言語コメント生成のためのフレームワークKUMICを提案する。
コンテキスト内学習に基づいて構築されたKUMICは、Chain-of-Thought(CoT)を活用してLLMの知識利用を最適化し、インテント固有のコメントを生成する。
特に、KUMICは、コード・コンポジションの整合性を示す同様の実例を得るための検索機構を最初に設計した。
そして、KUMICはCoTを活用してLLMをガイドし、特定の意図に沿ったコードコメントの導出を促進するステートメントにフォーカスする。
このコンテキストにおいて、KUMICは、コードと意図固有のステートメントをコメントにリンクするマッピングナレッジチェーンを構築し、所望のコメントを生成する際に、LLMも同様の推論ステップに従うことができる。
我々は, KUMICを評価するための広範な実験を行い, KUMICは, BLEU, METEOR, ROUGE-L, SBERTでそれぞれ14.49 %, 22.41 %, 20.72 %, 12.94 %を上回り, 最先端のベースラインよりも優れていることを示した。
関連論文リスト
- Operationalizing Large Language Models with Design-Aware Contexts for Code Comment Generation [6.19791892410626]
本研究は,LLMがより有用なコメントを生成するためのコンテキストとして,設計文書の実現性に焦点を当てる。
設計文書は、しばしばメンテナがコメントが十分でないときにコードを理解するために使われる。
論文 参考訳(メタデータ) (2025-10-25T15:44:22Z) - IFEvalCode: Controlled Code Generation [69.28317223249358]
本稿では,Code LLMの命令追従能力を改善するために,前方および後方制約生成を提案する。
IFEvalCodeは、7つのプログラミング言語の1.6Kテストサンプルからなる多言語ベンチマークである。
論文 参考訳(メタデータ) (2025-07-30T08:08:48Z) - Is Compression Really Linear with Code Intelligence? [60.123628177110206]
textitFormat Annealingは、事前訓練されたモデルの本質的な能力を同等に評価するために設計された、軽量で透明なトレーニング手法である。
我々の経験的結果は、測定されたコードインテリジェンスとビット・パー・キャラクタ(BPC)の基本的な対数関係を明らかにする。
私たちの研究は、コードインテリジェンスの開発における圧縮の役割をより微妙に理解し、コードドメインにおける堅牢な評価フレームワークに貢献します。
論文 参考訳(メタデータ) (2025-05-16T16:59:14Z) - Type-Constrained Code Generation with Language Models [51.03439021895432]
本稿では,型システムを利用してコード生成を誘導する型制約デコード手法を提案する。
そこで本研究では,新しい接頭辞オートマトンと,在来型を探索する手法を開発し,LLM生成コードに適切な型付けを強制するための健全なアプローチを構築した。
提案手法は,コード合成,翻訳,修復作業において,コンパイルエラーを半分以上削減し,機能的正しさを著しく向上させる。
論文 参考訳(メタデータ) (2025-04-12T15:03:00Z) - Pragmatic Reasoning improves LLM Code Generation [35.78260347663757]
我々は,Rational Speech Act (RSA) フレームワーク上に構築された新しいコード候補付け機構であるCodeRSAを提案する。
我々は、人気のあるコード生成データセット上で、最新のLarge Language Modelの1つを用いてCodeRSAを評価する。
論文 参考訳(メタデータ) (2025-02-20T12:44:26Z) - Comments as Natural Logic Pivots: Improve Code Generation via Comment Perspective [85.48043537327258]
本稿では, MANGO (comMents As Natural loGic pivOts) を提案する。
その結果、MANGOは強いベースラインに基づいてコードパス率を大幅に改善することがわかった。
論理的なコメントの復号化戦略の堅牢性は、考えの連鎖よりも顕著に高い。
論文 参考訳(メタデータ) (2024-04-11T08:30:46Z) - InfiBench: Evaluating the Question-Answering Capabilities of Code Large Language Models [56.723509505549536]
InfiBenchは、私たちの知識に合ったコードのための、最初の大規模フリーフォーム質問回答(QA)ベンチマークです。
慎重に選択された234の高品質なStack Overflow質問で構成されており、15のプログラミング言語にまたがっている。
InfiBench上で100以上の最新のコードLLMに対して,系統的評価を行い,新しい知見と洞察に富んだ結果を得た。
論文 参考訳(メタデータ) (2024-03-11T02:06:30Z) - Large Language Models are Few-Shot Summarizers: Multi-Intent Comment
Generation via In-Context Learning [34.006227676170504]
本研究では,大規模言語モデル(LLM)を用いて,開発者の多様な意図を満たすコメントを生成することの実現可能性について検討する。
2つの大規模なデータセットの実験は、私たちの洞察の理論的根拠を示しています。
論文 参考訳(メタデータ) (2023-04-22T12:26:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。