論文の概要: R2ComSync: Improving Code-Comment Synchronization with In-Context Learning and Reranking
- arxiv url: http://arxiv.org/abs/2510.21106v1
- Date: Fri, 24 Oct 2025 02:48:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.363224
- Title: R2ComSync: Improving Code-Comment Synchronization with In-Context Learning and Reranking
- Title(参考訳): R2ComSync: インコンテキスト学習によるコードコミュニティ同期の改善とリグレード
- Authors: Zhen Yang, Hongyi Lin, Xiao Yu, Jacky Wai Keung, Shuo Liu, Pak Yuen Patrick Chan, Yicheng Sun, Fengji Zhang,
- Abstract要約: ICLベースのコード・コンメント同期手法であるR2ComSyncをRetrievalとRe-levelで拡張した。
大規模な実験は、R2ComSyncの他のアプローチに対する優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 14.480581715739975
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code-Comment Synchronization (CCS) aims to synchronize the comments with code changes in an automated fashion, thereby significantly reducing the workload of developers during software maintenance and evolution. While previous studies have proposed various solutions that have shown success, they often exhibit limitations, such as a lack of generalization ability or the need for extensive task-specific learning resources. This motivates us to investigate the potential of Large Language Models (LLMs) in this area. However, a pilot analysis proves that LLMs fall short of State-Of-The-Art (SOTA) CCS approaches because (1) they lack instructive demonstrations for In-Context Learning (ICL) and (2) many correct-prone candidates are not prioritized.To tackle the above challenges, we propose R2ComSync, an ICL-based code-Comment Synchronization approach enhanced with Retrieval and Re-ranking. Specifically, R2ComSync carries corresponding two novelties: (1) Ensemble hybrid retrieval. It equally considers the similarity in both code-comment semantics and change patterns when retrieval, thereby creating ICL prompts with effective examples. (2) Multi-turn re-ranking strategy. We derived three significant rules through large-scale CCS sample analysis. Given the inference results of LLMs, it progressively exploits three re-ranking rules to prioritize relatively correct-prone candidates. We evaluate R2ComSync using five recent LLMs on three CCS datasets covering both Java and Python programming languages, and make comparisons with five SOTA approaches. Extensive experiments demonstrate the superior performance of R2ComSync against other approaches. Moreover, both quantitative and qualitative analyses provide compelling evidence that the comments synchronized by our proposal exhibit significantly higher quality.}
- Abstract(参考訳): Code-Comment Synchronization (CCS)は、コメントとコードの変更を自動で同期させることを目的としている。
これまでの研究では、成功を示す様々なソリューションが提案されているが、一般化能力の欠如やタスク固有の学習リソースの必要性といった制限がしばしば現れている。
このことは、この分野におけるLarge Language Models(LLM)の可能性を探る動機となっている。
しかし、パイロット分析では、(1)インコンテキスト学習(ICL)の指導的実証が欠けていること、(2)多くの正しい候補が優先されないことなどから、LCMがステートオフ・ザ・アーツ(SOTA)のアプローチに不足していることが証明され、上記の課題に対処するために、リトリーバルとリグレードによって強化されたICLベースのコードコム同期アプローチであるR2ComSyncを提案する。
具体的には、R2ComSyncは、(1)エンサンブルハイブリッド検索という2つの新しい特徴を持つ。
コード記述のセマンティクスと検索時の変更パターンの両方の類似性を同様に考慮し、効果的な例でICLプロンプトを作成する。
2) マルチターン・リグレード戦略。
我々は大規模CCSサンプル分析により3つの重要なルールを導出した。
LLMの推測結果を考えると、相対的に正しい候補を優先順位付けするために3つの規則を段階的に活用する。
我々は、JavaとPythonのプログラミング言語をカバーする3つのCSデータセット上で、5つの最近のLCMを用いてR2ComSyncを評価し、5つのSOTAアプローチと比較した。
大規模な実験は、R2ComSyncの他のアプローチに対する優れたパフォーマンスを示している。
さらに,定量分析と定性解析の両方が,提案手法によって同期されたコメントが著しく高い品質を示すことを示す説得力のある証拠を提供する。
※
関連論文リスト
- LibContinual: A Comprehensive Library towards Realistic Continual Learning [62.34449396069085]
継続的学習(CL)における根本的な課題は破滅的な忘れ込みであり、新しいタスクに適応することで、以前のタスクのパフォーマンスが低下する。
現実的なCLの基礎となるプラットフォームとして設計された,包括的で再現可能なライブラリであるLibContinualを提案する。
論文 参考訳(メタデータ) (2025-12-26T13:59:13Z) - LORE: A Large Generative Model for Search Relevance [23.808303249081117]
本稿では,eコマース検索における大規模生成モデルに基づく関連性の体系的枠組みであるLOREを紹介する。
LOREは3年にわたってデプロイされ、反復され、オンラインGoodRateメトリクスの累積+27%の改善を実現した。
論文 参考訳(メタデータ) (2025-12-02T18:50:42Z) - PoLi-RL: A Point-to-List Reinforcement Learning Framework for Conditional Semantic Textual Similarity [22.289473489488955]
本稿では,新しいポイントツーリスト強化学習フレームワークPoLi-RLを紹介する。
PoLi-RLは、基本的なスコアリング能力を確立するために、単純なポイントワイズでモデルを訓練する。
その後、ポイントワイド、ペアワイド、リストワイドの目的を組み合わせたハイブリッド報酬に移行し、微妙なセマンティックな区別を識別するモデルの能力を洗練させる。
公式のC-STSベンチマークでは、PoLi-RLは48.18のスピアマン相関係数を達成し、クロスエンコーダアーキテクチャのための新しいSOTAを確立した。
論文 参考訳(メタデータ) (2025-10-05T07:57:26Z) - SweRank: Software Issue Localization with Code Ranking [109.3289316191729]
SweRankは、ソフトウェア問題ローカライゼーションのための効率的な検索と参照のためのフレームワークである。
パブリックなGitHubリポジトリからキュレートされた大規模なデータセットであるSweLocを構築します。
SweRankは最先端の性能を達成し、従来のランキングモデルとコストの高いエージェントベースシステムの両方より優れていることを示す。
論文 参考訳(メタデータ) (2025-05-07T19:44:09Z) - Reinforcing Compositional Retrieval: Retrieving Step-by-Step for Composing Informative Contexts [67.67746334493302]
大規模言語モデル(LLM)は、多くのタスクにまたがる顕著な機能を示してきたが、複雑なタスクを扱うために外部のコンテキストに依存していることが多い。
我々は、このプロセスをマルコフ決定プロセス(MDP)としてモデル化するトリエンコーダシーケンシャルレトリバーを提案する。
提案手法は,サンプル間の依存関係を明示的にモデル化することの重要性を強調し,ベースラインを一貫して大幅に上回ることを示す。
論文 参考訳(メタデータ) (2025-04-15T17:35:56Z) - ConvCodeWorld: Benchmarking Conversational Code Generation in Reproducible Feedback Environments [37.203500949798766]
大規模言語モデル(LLM)は、特に対話的な設定において、コード生成に有用であることが証明されている。
既存のコード生成ベンチマークでは、マルチターンインタラクションで発生するさまざまなフィードバックをキャプチャできない。
コード生成LLMに提供されるフィードバックの質を明示的にモデル化する新しいベンチマークのセットを提示する。
論文 参考訳(メタデータ) (2025-02-27T07:54:32Z) - Eliciting In-context Retrieval and Reasoning for Long-context Large Language Models [27.217391392240113]
長文言語モデル(LCLM)は知識ベース全体を処理し、直接検索と推論を行うことができる。
LOFTのような既存のベンチマークは、過度に単純化されたコンテキストを提供することでLCLMのパフォーマンスを過大評価することが多い。
ICR2はLCLMをより現実的なシナリオで評価するベンチマークである。
次に, LCLMの性能向上のための3つの手法を提案する。(1) 検索-then-generate fine-tuning, (2) 注意頭を用いてデコード中の長いコンテキストをフィルタリング・復調する検索-attention-probing, (3) 生成ヘッドと併用した共同検索ヘッドトレーニング。
論文 参考訳(メタデータ) (2025-01-14T16:38:33Z) - A Systematic Examination of Preference Learning through the Lens of Instruction-Following [83.71180850955679]
新たな合成データ生成パイプラインを用いて48,000の命令追従プロンプトを生成する。
合成プロンプトでは、リジェクションサンプリング(RS)とモンテカルロ木探索(MCTS)の2つの選好データセットキュレーション手法を用いる。
実験により、MCTSが生成した選好ペアにおける共有プレフィックスは、限界はあるが一貫した改善をもたらすことが明らかになった。
高コントラストの選好ペアは一般的に低コントラストのペアよりも優れているが、両者を組み合わせることで最高のパフォーマンスが得られることが多い。
論文 参考訳(メタデータ) (2024-12-18T15:38:39Z) - IRSC: A Zero-shot Evaluation Benchmark for Information Retrieval through Semantic Comprehension in Retrieval-Augmented Generation Scenarios [14.336896748878921]
本稿では,多言語RAGタスクにおける埋め込みモデルの性能評価のためのIRSCベンチマークを提案する。
このベンチマークには、クエリ検索、タイトル検索、パラグラフ検索、キーワード検索、要約検索の5つのタスクが含まれている。
1)IRSCベンチマーク,2)SSCIとRCCIメトリクス,3)埋め込みモデルの言語間制限に関する洞察などです。
論文 参考訳(メタデータ) (2024-09-24T05:39:53Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [92.62952504133926]
本研究は,3つの一般的なベンチマーク上で,3つの主要なクローズドソースLLMと6つの人気のあるオープンソースLLMの性能評価を行った。
間違ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析した。
本稿では,自己批判を導入し,LLMが生成したコードに対する批判と修正を可能にする,新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - RecDCL: Dual Contrastive Learning for Recommendation [65.6236784430981]
本稿では、RecDCLという2つのコントラスト学習推薦フレームワークを提案する。
RecDCLでは、FCLの目的は、ユーザとイテムの正のペアに対する冗長なソリューションを排除することである。
BCLの目的は、表現の堅牢性を高めるために出力ベクトルにコントラスト埋め込みを生成するために利用される。
論文 参考訳(メタデータ) (2024-01-28T11:51:09Z) - Re-Reading Improves Reasoning in Large Language Models [87.46256176508376]
既成のLarge Language Models (LLM) の推論能力を高めるため, 単純で汎用的で効果的なプロンプト手法であるRe2を導入する。
CoT (Chain-of-Thought) など、ほとんどの思考を刺激する手法とは異なり、Re2 は質問を2回処理することで入力に焦点を移し、理解プロセスを強化する。
提案手法の有効性と汎用性を検証するため,14のデータセットにまたがる広範囲な推論ベンチマークでRe2を評価した。
論文 参考訳(メタデータ) (2023-09-12T14:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。