論文の概要: CodeMEM: AST-Guided Adaptive Memory for Repository-Level Iterative Code Generation
- arxiv url: http://arxiv.org/abs/2601.02868v1
- Date: Tue, 06 Jan 2026 09:57:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.87752
- Title: CodeMEM: AST-Guided Adaptive Memory for Repository-Level Iterative Code Generation
- Title(参考訳): CodeMEM: リポジトリレベルの反復コード生成のためのAST-Guided Adaptive Memory
- Authors: Peiding Wang, Li Zhang, Fang Liu, Chongyang Tao, Yinghao Zhu,
- Abstract要約: インタラクションが進むにつれて、リポジトリのコンテキストを保存し、更新して、新たに検証された情報を統合する必要があります。
既存のメモリ管理アプローチは、将来性を示すが、自然言語中心の表現によって制限される。
本稿では,リポジトリレベルの反復コード生成に適したAST誘導動的メモリ管理システムであるCodeMEMを提案する。
- 参考スコア(独自算出の注目度): 26.369972097308906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) substantially enhance developer productivity in repository-level code generation through interactive collaboration. However, as interactions progress, repository context must be continuously preserved and updated to integrate newly validated information. Meanwhile, the expanding session history increases cognitive burden, often leading to forgetting and the reintroduction of previously resolved errors. Existing memory management approaches show promise but remain limited by natural language-centric representations. To overcome these limitations, we propose CodeMEM, an AST-guided dynamic memory management system tailored for repository-level iterative code generation. Specifically, CodeMEM introduces the Code Context Memory component that dynamically maintains and updates repository context through AST-guided LLM operations, along with the Code Session Memory that constructs a code-centric representation of interaction history and explicitly detects and mitigates forgetting through AST-based analysis. Experimental results on the instruction-following benchmark CodeIF-Bench and the code generation benchmark CoderEval demonstrate that CodeMEM achieves state-of-the-art performance, improving instruction following by 12.2% for the current turn and 11.5% for the session level, and reducing interaction rounds by 2-3, while maintaining competitive inference latency and token efficiency.
- Abstract(参考訳): 大規模言語モデル(LLM)は、対話的なコラボレーションを通じてリポジトリレベルのコード生成において、開発者の生産性を大幅に向上させる。
しかし、インタラクションが進むにつれて、リポジトリのコンテキストを継続的に保存し、更新して、新たに検証された情報を統合する必要があります。
一方、セッション履歴が拡大すると認知的負担が増加し、しばしば忘れられ、以前に解決されたエラーが再導入される。
既存のメモリ管理アプローチは、将来性を示すが、自然言語中心の表現によって制限される。
これらの制約を克服するために,リポジトリレベルの反復コード生成に適したAST誘導動的メモリ管理システムであるCodeMEMを提案する。
特に CodeMEM では,AST による LLM 操作を通じてリポジトリコンテキストを動的にメンテナンスおよび更新する Code Context Memory コンポーネントを導入している。
命令追従ベンチマークのCodeIF-Benchとコード生成ベンチマークのCoderEvalの実験結果は、CodeMEMが最先端のパフォーマンスを達成し、現在のターンで12.2%、セッションレベルで11.5%の命令を改善し、競合する推論遅延とトークン効率を維持しながら、インタラクションラウンドを2-3倍に減らしたことを示している。
関連論文リスト
- Agentic Memory: Learning Unified Long-Term and Short-Term Memory Management for Large Language Model Agents [57.38404718635204]
大規模言語モデル (LLM) エージェントは、有限コンテキストウィンドウによる長距離推論において基本的な制限に直面している。
既存のメソッドは通常、長期記憶(LTM)と短期記憶(STM)を独立したコンポーネントとして扱う。
本稿では,エージェントのポリシーに LTM と STM 管理を直接統合する統合フレームワークである Agentic Memory (AgeMem) を提案する。
論文 参考訳(メタデータ) (2026-01-05T08:24:16Z) - Evo-Memory: Benchmarking LLM Agent Test-time Learning with Self-Evolving Memory [89.65731902036669]
Evo-Memoryは、大規模言語モデル(LLM)エージェントで自己進化型メモリを評価するための、ストリーミングベンチマークとフレームワークである。
10以上の代表的なメモリモジュールを評価し、10種類の多ターンゴール指向およびシングルターン推論およびQAデータセットで評価した。
論文 参考訳(メタデータ) (2025-11-25T21:08:07Z) - Turning the Tide: Repository-based Code Reflection [52.13709676656648]
マルチファイルリポジトリコンテキストにおけるコード理解と生成を評価するベンチマークであるLiveRepoReflectionを紹介する。
多様性、正確性、難易度を確保するため、6ドル(約6,800円)のプログラミング言語で厳格にテストケースをフィルタリングしました。
RepoReflection-Instructは、さまざまなソースから派生した大規模で品質の高い命令チューニングデータセットである。
論文 参考訳(メタデータ) (2025-07-14T02:36:27Z) - Codetations: Intelligent, Persistent Notes and UIs for Programs and Other Documents [0.85830154886823]
Codetationsは、開発者がリッチなノートやツールで文書をコンテキスト化するのを助けるシステムです。
以前のアプローチとは異なり、Codetationsのノートはドキュメントの外に留まり、コードの乱雑さを防ぎ、ハイブリッドな編集追跡/LLMベースのメソッドを使用してドキュメント内のスパンにアタッチする。
彼らのコンテンツは動的でインタラクティブで、コードの変更と同期しています。
論文 参考訳(メタデータ) (2025-04-25T21:33:25Z) - What to Retrieve for Effective Retrieval-Augmented Code Generation? An Empirical Study and Beyond [32.467437657603604]
リポジトリレベルのコード生成は、複雑なコード依存と長いコンテキストの処理における大きな言語モデル(LLM)の制限のため、依然として困難である。
ユーザクエリを実装ステップに分解し,セマンティックな記述マッチングを通じてAPIを検索する,チェーン・オブ・シントを利用した新しいコンテキスト統合手法であるAllianceCoderを提案する。
CoderEvalとRepoExecに関する広範な実験を通じて、AllianceCoderは最先端のパフォーマンスを実現し、Pass@1を既存のアプローチよりも最大20%改善した。
論文 参考訳(メタデータ) (2025-03-26T14:41:38Z) - In Prospect and Retrospect: Reflective Memory Management for Long-term Personalized Dialogue Agents [70.12342024019044]
大規模言語モデル(LLM)は、オープンエンド対話において大きな進歩を遂げているが、関連する情報の保持と取得ができないため、その有効性は制限されている。
本稿では,長期対話エージェントのための新しいメカニズムであるリフレクティブメモリ管理(RMM)を提案する。
RMMは、LongMemEvalデータセットのメモリ管理なしでベースラインよりも10%以上精度が向上している。
論文 参考訳(メタデータ) (2025-03-11T04:15:52Z) - FastCoder: Accelerating Repository-level Code Generation via Efficient Retrieval and Verification [10.286072352686874]
我々は、コード生成用に特別に設計された推論アクセラレーションアプローチであるFastCoderを提案する。
FastCoderはマルチソースのデータストアを構築し、一般的な知識とプロジェクト固有の知識の両方へのアクセスを提供する。
リポジトリレベルとスタンドアロンのコード生成タスクにおける自動回帰デコードと比較して、最大2.53倍と2.54倍のスピードアップに達する。
論文 参考訳(メタデータ) (2025-02-24T13:30:30Z) - ContextModule: Improving Code Completion via Repository-level Contextual Information [11.459065573651348]
ContextModuleは生成されたコードの関連性と精度を改善する。
我々は,実世界のコーディング環境における遅延制約を満たすために,インデックスキャッシングなどの性能最適化を実装した。
論文 参考訳(メタデータ) (2024-12-11T03:15:49Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - Continual Referring Expression Comprehension via Dual Modular
Memorization [133.46886428655426]
Referring Expression (REC) は、自然言語で記述された対象のイメージ領域をローカライズすることを目的としている。
既存のRECアルゴリズムは、モデルへのデータ供給のトレーニングを前もって行うと強く仮定する。
本稿では、入ってくるタスクのストリーム上でモデルが学習するRECの新しい設定である連続参照表現(CREC)を提案する。
学習済みの知識を忘れずに,スクラッチから繰り返し再学習することなく,逐次的タスクのモデルを継続的に改善するために,デュアルモジュール記憶法という効果的なベースライン手法を提案する。
論文 参考訳(メタデータ) (2023-11-25T02:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。