論文の概要: EXPEREPAIR: Dual-Memory Enhanced LLM-based Repository-Level Program Repair
- arxiv url: http://arxiv.org/abs/2506.10484v1
- Date: Thu, 12 Jun 2025 08:39:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.652494
- Title: EXPEREPAIR: Dual-Memory Enhanced LLM-based Repository-Level Program Repair
- Title(参考訳): ExPEREPAIR:デュアルメモリ強化LDMベースのレポジトリ・レベル・プログラムの修復
- Authors: Fangwen Mu, Junjie Wang, Lin Shi, Song Wang, Shoubin Li, Qing Wang,
- Abstract要約: ソフトウェア問題を自動的に修復する新しい手法であるExpeRepairを提案する。
2チャンネルの知識蓄積を通じて、歴史的な修復経験から学習する。
Claude 3.7 Sonnetのパス@1スコアは49.3%で、最先端のオープンソースメソッドよりも優れている。
- 参考スコア(独自算出の注目度): 13.512456346600477
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatically repairing software issues remains a fundamental challenge at the intersection of software engineering and AI. Although recent advancements in Large Language Models (LLMs) have demonstrated potential for repository-level repair tasks, current methodologies exhibit two notable limitations: (1) they often address issues in isolation, neglecting to incorporate insights from previously resolved issues, and (2) they rely on static and rigid prompting strategies, which constrain their ability to generalize across diverse and evolving issue scenarios. Inspired by the dual memory systems of human cognition, where episodic and semantic memories work synergistically to support human reasoning and decision-making, we propose ExpeRepair, a novel LLM-based approach that continuously learns from historical repair experiences through dual-channel knowledge accumulation. ExpeRepair organizes historical repair experiences into two complementary memories: an episodic memory that stores concrete repair demonstrations, and a semantic memory that encodes abstract reflective insights. At inference time, ExpeRepair activates both memory systems by retrieving relevant demonstrations from episodic memory and recalling high-level repair insights from semantic memory. It further enhances adaptability through dynamic prompt composition, synergistically integrating both memory types to replace static prompts with context-aware, experience-driven prompts. Experiments on the SWE-bench Lite benchmark demonstrate that ExpeRepair achieves a pass@1 score of 49.3% with Claude 3.7 Sonnet, outperforming all state-of-the-art open-source methods.
- Abstract(参考訳): ソフトウェアエンジニアリングとAIの交差点では、ソフトウェア問題の自動修復が依然として根本的な課題である。
最近のLLM(Large Language Models)の進歩はリポジトリレベルの修復タスクの可能性を示しているが、現在の方法論には2つの注目すべき制限がある。
認識と意味の記憶が相乗的に人間の推論と意思決定を支援するという,人間の認知の二重記憶システムに着想を得て,両チャンネルの知識蓄積を通じて歴史的修復経験から継続的に学習する,新たなLLMベースのアプローチであるExpeRepairを提案する。
ExpeRepairは、歴史的修復経験を2つの補完記憶にまとめている。
推論時にExpeRepairは、エピソードメモリから関連するデモを取得し、セマンティックメモリから高レベルの修復インサイトをリコールすることで、両方のメモリシステムを起動する。
動的プロンプト合成による適応性をさらに強化し、両方のメモリタイプを相乗的に統合し、静的プロンプトをコンテキスト対応のエクスペリエンス駆動プロンプトに置き換える。
SWE-bench Liteベンチマークの実験では、ExpeRepairがClaude 3.7 Sonnetで49.3%のパス@1スコアを達成した。
関連論文リスト
- In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - Disentangling Memory and Reasoning Ability in Large Language Models [97.26827060106581]
本稿では、複雑な推論プロセスを2つの異なる明確なアクションに分解する新しい推論パラダイムを提案する。
実験の結果, この分解によりモデル性能が向上し, 推論プロセスの解釈可能性も向上することがわかった。
論文 参考訳(メタデータ) (2024-11-20T17:55:38Z) - Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - Adversarially Diversified Rehearsal Memory (ADRM): Mitigating Memory Overfitting Challenge in Continual Learning [0.0]
継続的な学習は、それまでの知識を忘れずに、静止しないデータ分布を学習することに焦点を当てる。
リハーサルベースのアプローチは、破滅的な忘れに対処するために一般的に使用される。
本稿では、メモリ過度に適合する課題に対処するために、Adversarially Diversified Rehearsal Memoryを導入する。
論文 参考訳(メタデータ) (2024-05-20T06:56:43Z) - RAM: Towards an Ever-Improving Memory System by Learning from Communications [32.904507659027516]
本稿では,RAMと呼ばれるメモリを改良した革新的なRAGベースのフレームワークを提案する。
シミュレーションと実ユーザの両方による実験は、従来のRAG法や自己知識法よりも大幅に改善されている。
RAMは、様々なフィードバックと検索方法への有望な適応性を示し、動的知識獲得と生涯学習におけるAI能力の進歩の可能性を示している。
論文 参考訳(メタデータ) (2024-04-18T09:58:51Z) - Saliency-Guided Hidden Associative Replay for Continual Learning [13.551181595881326]
継続学習(Continuous Learning)は、人間の学習に似た一連のタスクを通じてニューラルネットワークをトレーニングすることに焦点を当てた、次世代AIの急成長する領域である。
本稿では,継続的学習のためのSaliency Guided Hidden Associative Replayを提案する。
この新しいフレームワークは、アソシエイトメモリをリプレイベースの戦略でシナジする。SHARCは主にスパースメモリエンコーディングを通じて、有能なデータセグメントをアーカイブする。
論文 参考訳(メタデータ) (2023-10-06T15:54:12Z) - Do Compressed LLMs Forget Knowledge? An Experimental Study with
Practical Implications [63.29358103217275]
大規模言語モデル(LLM)は、特に知識集約的なタスクにおいて、パフォーマンスを低下させることが多い。
損傷の性質に関する2つの予想を提案する。1つは、圧縮後に忘れられた(または消された)知識である。
Inference-time Dynamic Prompting (IDP)と呼ばれる変種を導入し、推論オーバーヘッドを発生させることなく、迅速な多様性を効果的に向上させることができる。
論文 参考訳(メタデータ) (2023-10-02T03:12:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。