論文の概要: CoEdPilot: Recommending Code Edits with Learned Prior Edit Relevance, Project-wise Awareness, and Interactive Nature
- arxiv url: http://arxiv.org/abs/2408.01733v1
- Date: Sat, 3 Aug 2024 10:23:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 18:40:53.525496
- Title: CoEdPilot: Recommending Code Edits with Learned Prior Edit Relevance, Project-wise Awareness, and Interactive Nature
- Title(参考訳): CoEdPilot: 事前編集の関連性、プロジェクトワイドの意識、インタラクティブな性質を学習したコード編集を推奨する
- Authors: Chenyan Liu, Yufan Cai, Yun Lin, Yuhuan Huang, Yunrui Pei, Bo Jiang, Ping Yang, Jin Song Dong, Hong Mei,
- Abstract要約: 我々は、関連する編集を識別してコード編集を推奨するLLM駆動のソリューションであるCoEdPilotを提案する。
CoEdPilotは、複数のニューラルトランスフォーマーをオーケストレーションして、ロケーションの編集とコンテントの編集の両方に関して、プロジェクトの中で何とどのように編集するかを特定する。
実験の結果、CoEdPilotは編集位置を70.8%-85.3%の精度で予測でき、正確なマッチングレートは41.8%、BLEU4スコアは60.7である。
- 参考スコア(独自算出の注目度): 15.209899925736751
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent years have seen the development of LLM-based code generation. Compared to generating code in a software project, incremental code edits are empirically observed to be more frequent. The emerging code editing approaches usually formulate the problem as generating an edit based on known relevant prior edits and context. However, practical code edits can be more complicated. First, an editing session can include multiple (ir)relevant edits to the code under edit. Second, the inference of the subsequent edits is non-trivial as the scope of its ripple effect can be the whole project. In this work, we propose CoEdPilot, an LLM-driven solution to recommend code edits by discriminating the relevant edits, exploring their interactive natures, and estimating its ripple effect in the project. Specifically, CoEdPilot orchestrates multiple neural transformers to identify what and how to edit in the project regarding both edit location and edit content. When a user accomplishes an edit with an optional editing description, a Subsequent Edit Analysis first reports the most relevant files in the project with what types of edits (e.g., keep, insert, and replace) can happen for each line of their code. Next, an Edit-content Generator generates concrete edit options for the lines of code, regarding its relevant prior changes reported by an Edit-dependency Analyzer. Lastly, both the Subsequent Edit Analysis and the Edit-content Generator capture relevant prior edits as feedback to readjust their recommendations. We train our models by collecting over 180K commits from 471 open-source projects in 5 programming languages. Our extensive experiments show that CoEdPilot can well predict the edits (i.e., predicting edit location with an accuracy of 70.8%-85.3%, and the edit content with an exact match rate of 41.8% and BLEU4 score of 60.7)...
- Abstract(参考訳): 近年、LLMベースのコード生成が開発されている。
ソフトウェアプロジェクトでコードを生成するのと比べて、インクリメンタルなコード編集は経験的により頻繁に行われることが観察される。
新たなコード編集アプローチは通常、既知の関連する事前編集とコンテキストに基づいて編集を生成するものとして問題を定式化する。
しかし、実際のコード編集はより複雑になる可能性がある。
まず、編集セッションは、編集中のコードに複数の(関連のある)編集を含むことができる。
第二に、後続の編集の推測は、その波及効果のスコープがプロジェクト全体である可能性があるため、非自明である。
本研究では,関連編集を識別し,そのインタラクティブな性質を探索し,プロジェクトにおけるリップル効果を推定することにより,コード編集を推奨するLLM駆動のソリューションであるCoEdPilotを提案する。
具体的には、CoEdPilotは複数のニューラルトランスフォーマーを編成して、ロケーションの編集とコンテントの編集の両方に関して、プロジェクトの中で何とどのように編集するかを特定する。
ユーザが任意の編集記述で編集を完了すると、Subsequent Edit Analysisは、まずプロジェクトの最も関連性の高いファイルを報告し、コードの行毎にどの種類の編集(例えば、保持、挿入、置換)を行うことができるかを示す。
次に、Edit-content Generatorは、Edit-dependency Analyzerによって報告された関連する事前変更に関して、コードの行に対して具体的な編集オプションを生成する。
最後に、Subsequent Edit AnalysisとEdit-Content Generatorの両方が、関連する事前編集をリコメンデーションの修正のためのフィードバックとしてキャプチャする。
5つのプログラミング言語で471のオープンソースプロジェクトから180万以上のコミットを集め、モデルをトレーニングします。
我々の広範な実験によると、CoEdPilotは編集位置を70.8%-85.3%の精度で予測でき、正確なマッチングレートは41.8%、BLEU4スコアは60.7である。
関連論文リスト
- Bridging the Editing Gap in LLMs: FineEdit for Precise and Targeted Text Modifications [9.795246551841586]
大規模言語モデル(LLM)は自然言語処理に変化をもたらしたが、直接テキスト編集タスクに苦戦している。
本研究では,LLM編集性能を向上させるための2つのアプローチを提案する。
まず、20,000以上の構造化編集タスクからなる高品質なベンチマークデータセットであるInstrEditBenchを紹介する。
第2に、このキュレートされたベンチマークで訓練された特殊なモデルであるFineEditを提案する。
論文 参考訳(メタデータ) (2025-02-19T01:41:44Z) - AnyEdit: Edit Any Knowledge Encoded in Language Models [69.30638272162267]
大規模言語モデル(LLM)のための新しい自動回帰編集パラダイムであるAnyEditを提案する。
長い形式の知識を逐次チャンクに分解し、各チャンク内のキートークンを反復的に編集し、一貫性と正確な出力を保証する。
UnKEBench、AKEW、そして我々の長文の多様な知識のための新しいEditEverythingデータセットを含むベンチマークでは、強いベースラインを21.5%上回っている。
論文 参考訳(メタデータ) (2025-02-08T16:18:37Z) - WilKE: Wise-Layer Knowledge Editor for Lifelong Knowledge Editing [19.357663224043534]
本研究は,生涯編集における知識編集による性能劣化を明らかにする。
Wise-Layer Knowledge Editor (WilKE) という知識編集手法を導入する。
WilKEは、言語モデルにおいて、異なるレイヤにわたる編集知識のパターンマッチング度に基づいて、編集層を選択する。
論文 参考訳(メタデータ) (2024-02-16T05:29:59Z) - Object-aware Inversion and Reassembly for Image Editing [61.19822563737121]
オブジェクトレベルのきめ細かい編集を可能にするために,オブジェクト認識型インバージョンと再アセンブリ(OIR)を提案する。
画像の編集時に各編集ペアに対して最適な反転ステップを見つけるために,検索基準を用いる。
本手法は,オブジェクトの形状,色,材料,カテゴリなどの編集において,特に多目的編集シナリオにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-18T17:59:02Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - GrACE: Generation using Associated Code Edits [23.643567386291988]
プリトレーニング済みの大規模言語モデル(LLM)に,事前の関連編集の知識を付与する。
LLMの生成能力は、コード変更の多様性と、事前編集時のコード生成の条件付けに役立ちます。
Codex と CodeT5 の2つの有名な LLM を,ゼロショット設定と微調整設定でそれぞれ評価した。
論文 参考訳(メタデータ) (2023-05-23T14:55:44Z) - CodeEditor: Learning to Edit Source Code with Pre-trained Models [47.736781998792]
本稿では,CodeEditorというコード編集モデルを提案する。
私たちは、多くの現実世界のコードスニペットを基礎として収集し、強力なジェネレータを使って変更したバージョンに書き直します。
我々は,4つのコード編集データセットの実験を行い,事前学習したCodeEditorを3つの設定で評価する。
論文 参考訳(メタデータ) (2022-10-31T03:26:33Z) - EditGAN: High-Precision Semantic Image Editing [120.49401527771067]
EditGANは高品質で高精度なセマンティック画像編集のための新しい手法である。
EditGANは前例のない細部と自由度で画像を操作可能であることを示す。
また、複数の編集を組み合わせることも簡単で、EditGANのトレーニングデータ以外の編集も可能になります。
論文 参考訳(メタデータ) (2021-11-04T22:36:33Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。