論文の概要: R2ComSync: Improving Code-Comment Synchronization with In-Context Learning and Reranking
- arxiv url: http://arxiv.org/abs/2510.21106v1
- Date: Fri, 24 Oct 2025 02:48:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.363224
- Title: R2ComSync: Improving Code-Comment Synchronization with In-Context Learning and Reranking
- Title(参考訳): R2ComSync: インコンテキスト学習によるコードコミュニティ同期の改善とリグレード
- Authors: Zhen Yang, Hongyi Lin, Xiao Yu, Jacky Wai Keung, Shuo Liu, Pak Yuen Patrick Chan, Yicheng Sun, Fengji Zhang,
- Abstract要約: ICLベースのコード・コンメント同期手法であるR2ComSyncをRetrievalとRe-levelで拡張した。
大規模な実験は、R2ComSyncの他のアプローチに対する優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 14.480581715739975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code-Comment Synchronization (CCS) aims to synchronize the comments with code changes in an automated fashion, thereby significantly reducing the workload of developers during software maintenance and evolution. While previous studies have proposed various solutions that have shown success, they often exhibit limitations, such as a lack of generalization ability or the need for extensive task-specific learning resources. This motivates us to investigate the potential of Large Language Models (LLMs) in this area. However, a pilot analysis proves that LLMs fall short of State-Of-The-Art (SOTA) CCS approaches because (1) they lack instructive demonstrations for In-Context Learning (ICL) and (2) many correct-prone candidates are not prioritized.To tackle the above challenges, we propose R2ComSync, an ICL-based code-Comment Synchronization approach enhanced with Retrieval and Re-ranking. Specifically, R2ComSync carries corresponding two novelties: (1) Ensemble hybrid retrieval. It equally considers the similarity in both code-comment semantics and change patterns when retrieval, thereby creating ICL prompts with effective examples. (2) Multi-turn re-ranking strategy. We derived three significant rules through large-scale CCS sample analysis. Given the inference results of LLMs, it progressively exploits three re-ranking rules to prioritize relatively correct-prone candidates. We evaluate R2ComSync using five recent LLMs on three CCS datasets covering both Java and Python programming languages, and make comparisons with five SOTA approaches. Extensive experiments demonstrate the superior performance of R2ComSync against other approaches. Moreover, both quantitative and qualitative analyses provide compelling evidence that the comments synchronized by our proposal exhibit significantly higher quality.}
- Abstract(参考訳): Code-Comment Synchronization (CCS)は、コメントとコードの変更を自動で同期させることを目的としている。
これまでの研究では、成功を示す様々なソリューションが提案されているが、一般化能力の欠如やタスク固有の学習リソースの必要性といった制限がしばしば現れている。
このことは、この分野におけるLarge Language Models(LLM)の可能性を探る動機となっている。
しかし、パイロット分析では、(1)インコンテキスト学習(ICL)の指導的実証が欠けていること、(2)多くの正しい候補が優先されないことなどから、LCMがステートオフ・ザ・アーツ(SOTA)のアプローチに不足していることが証明され、上記の課題に対処するために、リトリーバルとリグレードによって強化されたICLベースのコードコム同期アプローチであるR2ComSyncを提案する。
具体的には、R2ComSyncは、(1)エンサンブルハイブリッド検索という2つの新しい特徴を持つ。
コード記述のセマンティクスと検索時の変更パターンの両方の類似性を同様に考慮し、効果的な例でICLプロンプトを作成する。
2) マルチターン・リグレード戦略。
我々は大規模CCSサンプル分析により3つの重要なルールを導出した。
LLMの推測結果を考えると、相対的に正しい候補を優先順位付けするために3つの規則を段階的に活用する。
我々は、JavaとPythonのプログラミング言語をカバーする3つのCSデータセット上で、5つの最近のLCMを用いてR2ComSyncを評価し、5つのSOTAアプローチと比較した。
大規模な実験は、R2ComSyncの他のアプローチに対する優れたパフォーマンスを示している。
さらに,定量分析と定性解析の両方が,提案手法によって同期されたコメントが著しく高い品質を示すことを示す説得力のある証拠を提供する。
※
関連論文リスト
- Eliciting In-context Retrieval and Reasoning for Long-context Large Language Models [27.217391392240113]
長文言語モデル(LCLM)は知識ベース全体を処理し、直接検索と推論を行うことができる。
LOFTのような既存のベンチマークは、過度に単純化されたコンテキストを提供することでLCLMのパフォーマンスを過大評価することが多い。
ICR2はLCLMをより現実的なシナリオで評価するベンチマークである。
次に, LCLMの性能向上のための3つの手法を提案する。(1) 検索-then-generate fine-tuning, (2) 注意頭を用いてデコード中の長いコンテキストをフィルタリング・復調する検索-attention-probing, (3) 生成ヘッドと併用した共同検索ヘッドトレーニング。
論文 参考訳(メタデータ) (2025-01-14T16:38:33Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - IRSC: A Zero-shot Evaluation Benchmark for Information Retrieval through Semantic Comprehension in Retrieval-Augmented Generation Scenarios [14.336896748878921]
本稿では,多言語RAGタスクにおける埋め込みモデルの性能評価のためのIRSCベンチマークを提案する。
このベンチマークには、クエリ検索、タイトル検索、パラグラフ検索、キーワード検索、要約検索の5つのタスクが含まれている。
1)IRSCベンチマーク,2)SSCIとRCCIメトリクス,3)埋め込みモデルの言語間制限に関する洞察などです。
論文 参考訳(メタデータ) (2024-09-24T05:39:53Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [92.62952504133926]
本研究は,3つの一般的なベンチマーク上で,3つの主要なクローズドソースLLMと6つの人気のあるオープンソースLLMの性能評価を行った。
間違ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析した。
本稿では,自己批判を導入し,LLMが生成したコードに対する批判と修正を可能にする,新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。