論文の概要: Next Edit Prediction: Learning to Predict Code Edits from Context and Interaction History
- arxiv url: http://arxiv.org/abs/2508.10074v1
- Date: Wed, 13 Aug 2025 15:52:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.069327
- Title: Next Edit Prediction: Learning to Predict Code Edits from Context and Interaction History
- Title(参考訳): 次の編集予測: コンテキストとインタラクション履歴からコード編集を予測する学習
- Authors: Ruofan Lu, Yintong Huo, Meng Zhang, Yichen Li, Michael R. Lyu,
- Abstract要約: Next Edit Predictionは、開発者の意図を最近のインタラクション履歴から推測し、その後の編集の場所と内容の両方を予測するために設計された新しいタスクである。
この研究は、単に明示的な指示に反応するのではなく、次のアクションを期待することで、開発者と積極的に協力する新しいインタラクションパラダイムの基礎を築いた。
- 参考スコア(独自算出の注目度): 33.451220334213204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid advancement of large language models (LLMs) has led to the widespread adoption of AI-powered coding assistants integrated into a development environment. On one hand, low-latency code completion offers completion suggestions but is fundamentally constrained to the cursor's current position. On the other hand, chat-based editing can perform complex modifications, yet forces developers to stop their work, describe the intent in natural language, which causes a context-switch away from the code. This creates a suboptimal user experience, as neither paradigm proactively predicts the developer's next edit in a sequence of related edits. To bridge this gap and provide the seamless code edit suggestion, we introduce the task of Next Edit Prediction, a novel task designed to infer developer intent from recent interaction history to predict both the location and content of the subsequent edit. Specifically, we curate a high-quality supervised fine-tuning dataset and an evaluation benchmark for the Next Edit Prediction task. Then, we conduct supervised fine-tuning on a series of models and performed a comprehensive evaluation of both the fine-tuned models and other baseline models, yielding several novel findings. This work lays the foundation for a new interaction paradigm that proactively collaborate with developers by anticipating their following action, rather than merely reacting to explicit instructions.
- Abstract(参考訳): 大規模言語モデル(LLM)の急速な進歩は、開発環境に統合されたAI駆動のコーディングアシスタントの普及につながった。
一方、低レイテンシのコード補完は補完提案を提供するが、基本的にカーソルの現在の位置に拘束されている。
一方、チャットベースの編集は複雑な修正を行うことができるが、開発者は作業を止め、自然言語の意図を記述せざるを得ない。
これは、どちらのパラダイムも、関連する編集のシーケンスで開発者の次の編集を積極的に予測しないため、最適なユーザエクスペリエンスを生み出す。
このギャップを埋め、シームレスなコード編集提案を提供するために、最近のインタラクション履歴から開発者の意図を推測し、その後の編集の場所と内容の両方を予測する新しいタスクであるNext Edit Predictionを導入する。
具体的には、高品質な教師付き微調整データセットとNext Edit Predictionタスクの評価ベンチマークをキュレートする。
そこで我々は,一連のモデルに対して教師付き微調整を行い,細調整モデルと他のベースラインモデルの両方を包括的に評価し,いくつかの新しい知見を得た。
この研究は、単に明示的な指示に反応するのではなく、次のアクションを期待することで、開発者と積極的に協力する新しいインタラクションパラダイムの基礎を築いた。
関連論文リスト
- Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - GrACE: Generation using Associated Code Edits [23.643567386291988]
プリトレーニング済みの大規模言語モデル(LLM)に,事前の関連編集の知識を付与する。
LLMの生成能力は、コード変更の多様性と、事前編集時のコード生成の条件付けに役立ちます。
Codex と CodeT5 の2つの有名な LLM を,ゼロショット設定と微調整設定でそれぞれ評価した。
論文 参考訳(メタデータ) (2023-05-23T14:55:44Z) - NeuroCounterfactuals: Beyond Minimal-Edit Counterfactuals for Richer
Data Augmentation [55.17069935305069]
本稿では,緩やかな反ファクトとして設計されたNeuroCounterfactualsを紹介する。
我々の新しい生成的アプローチは、言語モデル適応による感情制御による制約付き復号化の利点を橋渡しする。
論文 参考訳(メタデータ) (2022-10-22T06:29:21Z) - EditEval: An Instruction-Based Benchmark for Text Improvements [73.5918084416016]
編集機能の自動評価のためのインストラクションベース、ベンチマーク、評価スイートであるEditEvalを提示する。
InstructGPTとPEERが最良であることを示す事前学習モデルをいくつか評価するが,ほとんどのベースラインは教師付きSOTA以下である。
我々の分析は、タスクの編集によく使われるメトリクスが必ずしも相関しているとは限らないことを示し、最高の性能を持つプロンプトに対する最適化は、必ずしも異なるモデルに対して強い堅牢性を持つとは限らないことを示唆している。
論文 参考訳(メタデータ) (2022-09-27T12:26:05Z) - CoditT5: Pretraining for Source Code and Natural Language Editing [34.77621217370665]
CoditT5は、大量のソースコードと自然言語コメントで事前訓練された、ソフトウェア関連の編集タスクのための大規模な言語モデルである。
コメント更新、バグ修正、自動コードレビューなど、さまざまなダウンストリーム編集タスクを微調整します。
論文 参考訳(メタデータ) (2022-08-10T16:59:40Z) - Memory-Based Model Editing at Scale [102.28475739907498]
既存のモデルエディタは、編集対象のスコープを正確にモデル化するのに苦労する。
SERAC(Retrieval-Augmented Counterfactal Model)を用いた半パラメトリック編集を提案する。
SERACは、編集を明示的なメモリに格納し、必要に応じてベースモデルの予測を変更できるように、それらを推論することを学ぶ。
論文 参考訳(メタデータ) (2022-06-13T23:40:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。