論文の概要: SpecAgent: A Speculative Retrieval and Forecasting Agent for Code Completion
- arxiv url: http://arxiv.org/abs/2510.17925v1
- Date: Mon, 20 Oct 2025 08:04:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.355361
- Title: SpecAgent: A Speculative Retrieval and Forecasting Agent for Code Completion
- Title(参考訳): SpecAgent: コード補完のための投機的検索および予測エージェント
- Authors: George Ma, Anurag Koul, Qi Chen, Yawen Wu, Sachit Kuhar, Yu Yu, Aritra Sengupta, Varun Kumar, Murali Krishna Ramanathan,
- Abstract要約: 大規模言語モデル(LLM)は、コード関連のタスクでは優れているが、現実的なソフトウェアリポジトリでは苦労することが多い。
Retrieval-augmentedメソッドは、推論時にリポジトリコンテキストを注入することでこれを緩和する。
私たちは、レイテンシとコード生成品質の両方を改善するエージェントであるSpecAgentで、この制限に対処します。
- 参考スコア(独自算出の注目度): 15.81040125836873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) excel at code-related tasks but often struggle in realistic software repositories, where project-specific APIs and cross-file dependencies are crucial. Retrieval-augmented methods mitigate this by injecting repository context at inference time. The low inference-time latency budget affects either retrieval quality or the added latency adversely impacts user experience. We address this limitation with SpecAgent, an agent that improves both latency and code-generation quality by proactively exploring repository files during indexing and constructing speculative context that anticipates future edits in each file. This indexing-time asynchrony allows thorough context computation, masking latency, and the speculative nature of the context improves code-generation quality. Additionally, we identify the problem of future context leakage in existing benchmarks, which can inflate reported performance. To address this, we construct a synthetic, leakage-free benchmark that enables a more realistic evaluation of our agent against baselines. Experiments show that SpecAgent consistently achieves absolute gains of 9-11% (48-58% relative) compared to the best-performing baselines, while significantly reducing inference latency.
- Abstract(参考訳): 大きな言語モデル(LLM)は、コード関連のタスクに優れていますが、プロジェクト固有のAPIやファイル間の依存関係が不可欠である現実的なソフトウェアリポジトリでは、しばしば苦労します。
Retrieval-augmentedメソッドは、推論時にリポジトリコンテキストを注入することでこれを緩和する。
低推論時間のレイテンシ予算は、検索品質に影響するか、追加のレイテンシがユーザエクスペリエンスに悪影響を及ぼす。
この制限に対処するため、SpecAgentは、インデックス作成中にリポジトリファイルを積極的に探索し、各ファイルの将来の編集を予想する投機的コンテキストを構築することで、レイテンシとコード生成品質の両方を改善するエージェントである。
このインデクシング時間非同期は、徹底的なコンテキスト計算、マスキング遅延を可能にし、コンテキストの投機的性質によってコード生成の品質が向上する。
さらに,既存ベンチマークにおける将来的なコンテキストリークの問題も確認した。
これを解決するために,我々は,エージェントのベースラインに対するより現実的な評価を可能にする,シンセサイザー付きリークフリーベンチマークを構築した。
実験により、SpecAgentは、最高のパフォーマンスのベースラインと比較して、絶対的な9-11%(48-58%)のゲインを一貫して達成し、推論遅延を著しく低減することが示された。
関連論文リスト
- REFRAG: Rethinking RAG based Decoding [67.4862300145604]
REFRAGは効率的なデコードフレームワークで、RAGアプリケーションの遅延を圧縮し、感知し、拡張し、改善する。
本稿では,RAG,マルチターン会話,長期文書要約など,多種多様な長文タスクを対象としたREFRAGの厳密な検証を行う。
論文 参考訳(メタデータ) (2025-09-01T03:31:44Z) - Automated Benchmark Generation for Repository-Level Coding Tasks [7.305342793164905]
SetUpAgentは、歴史的に正確な依存性の設定、テスト実行、結果解析が可能な完全に自動化されたシステムである。
i)SWEE-Benchは数百のリポジトリを含むSWE-Benchの拡張バージョンで、ii)SWA-Benchはライブラリではなくアプリケーションに焦点を当てたベンチマークです。
論文 参考訳(メタデータ) (2025-03-10T17:42:49Z) - Leveraging Approximate Caching for Faster Retrieval-Augmented Generation [3.0111172730438565]
本稿では,ユーザクエリの類似性を活用してRAGワークフローを最適化する,近似キー値キャッシュであるProximityを紹介する。
Proximityは、それぞれのクエリを独立して扱う代わりに、類似したクエリが現れると、以前検索されたドキュメントを再利用する。
我々の実験は、LSH方式と現実的にスキューされたMedRAGのワークロードとの近さにより、データベースのリコールとテスト精度を維持しながら、データベース呼び出しを78.9%削減することを示した。
論文 参考訳(メタデータ) (2025-03-07T15:54:04Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - On the Impacts of Contexts on Repository-Level Code Generation [5.641402231731082]
本稿ではレポジトリレベルのコード生成を評価するために設計された新しいベンチマークであるRepoExecを紹介する。
実行可能性、包括的なテストケース生成による機能的正当性、ファイル間のコンテキストの正確な利用という3つの重要な側面に注目します。
論文 参考訳(メタデータ) (2024-06-17T10:45:22Z) - Keep Your Friends Close: Leveraging Affinity Groups to Accelerate AI Inference Workflows [0.1874930567916036]
本稿では,アプリケーション固有のデータアクセス相関を簡単に表現できるアフィニティグルーピング機構を提案する。
実験では標準手法の限界を確認するとともに,作業負荷の増加とスケールアウトの増加に伴い,提案機構が大幅に低レイテンシを維持可能であることを示す。
論文 参考訳(メタデータ) (2023-11-30T16:02:04Z) - Streaming Motion Forecasting for Autonomous Driving [71.7468645504988]
ストリーミングデータにおける将来の軌跡を問うベンチマークを導入し,これを「ストリーミング予測」と呼ぶ。
我々のベンチマークは本質的に、スナップショットベースのベンチマークでは見過ごされていない安全上の問題であるエージェントの消失と再出現を捉えている。
我々は,任意のスナップショットベースの予測器をストリーミング予測器に適応させることのできる,"Predictive Streamer"と呼ばれるプラグアンドプレイメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-02T17:13:16Z) - Towards Streaming Perception [70.68520310095155]
本稿では、リアルタイムオンライン知覚のための単一のメトリクスにレイテンシと精度を協調的に統合するアプローチを提案する。
この指標の背後にある重要な洞察は、瞬間ごとに認識スタック全体の出力を共同で評価することである。
本稿では,都市ビデオストリームにおけるオブジェクト検出とインスタンスセグメンテーションの具体的タスクに注目し,高品質で時間依存的なアノテーションを備えた新しいデータセットを寄贈する。
論文 参考訳(メタデータ) (2020-05-21T01:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。