論文の概要: Fix Bugs with Transformer through a Neural-Symbolic Edit Grammar
- arxiv url: http://arxiv.org/abs/2204.06643v1
- Date: Wed, 13 Apr 2022 21:39:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-16 05:03:01.289224
- Title: Fix Bugs with Transformer through a Neural-Symbolic Edit Grammar
- Title(参考訳): ニューラルシンボリック編集文法によるトランスフォーマーによるバグの修正
- Authors: Yaojie Hu, Xingjian Shi, Qiang Zhou, Lee Pike
- Abstract要約: バグを含むソースコードのみを考えると、NSEditはバグを修正することができる編集シーケンスを予測する。
Transformerを修正し、ポインターネットワークを追加して、編集場所を選択します。
ビームサーチによって生成された編集シーケンスを再ランクするために、再ランカのアンサンブルを訓練する。
- 参考スコア(独自算出の注目度): 10.138222731506277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce NSEdit (neural-symbolic edit), a novel Transformer-based code
repair method. Given only the source code that contains bugs, NSEdit predicts
an editing sequence that can fix the bugs. The edit grammar is formulated as a
regular language, and the Transformer uses it as a neural-symbolic scripting
interface to generate editing programs. We modify the Transformer and add a
pointer network to select the edit locations. An ensemble of rerankers are
trained to re-rank the editing sequences generated by beam search. We fine-tune
the rerankers on the validation set to reduce over-fitting. NSEdit is evaluated
on various code repair datasets and achieved a new state-of-the-art accuracy
($24.04\%$) on the Tufano small dataset of the CodeXGLUE benchmark. NSEdit
performs robustly when programs vary from packages to packages and when buggy
programs are concrete. We conduct detailed analysis on our methods and
demonstrate the effectiveness of each component.
- Abstract(参考訳): 本稿では,トランスフォーマーを用いた新しいコード修復手法NSEditを紹介する。
バグを含むソースコードのみを考えると、NSEditはバグを修正することができる編集シーケンスを予測する。
編集文法は正規言語として定式化され、Transformerはそれをニューラルシンボリックスクリプティングインターフェースとして使用して編集プログラムを生成する。
変換器を修正し、編集場所を選択するためのポインタネットワークを追加します。
ビームサーチによって生成された編集シーケンスを再ランクするために、再ランカのアンサンブルを訓練する。
オーバーフィッティングを減らすために、検証セットのリランカーを微調整します。
NSEditは様々なコード修復データセットに基づいて評価され、CodeXGLUEベンチマークのTufanoの小さなデータセットで新しい最先端の精度(24.04\%$)を達成した。
NSEditは、パッケージからパッケージまでプログラムが異なる場合、バグの多いプログラムが具体的であれば、堅牢に動作する。
提案手法の詳細な分析を行い,各コンポーネントの有効性を実証する。
関連論文リスト
- CoEdPilot: Recommending Code Edits with Learned Prior Edit Relevance, Project-wise Awareness, and Interactive Nature [15.209899925736751]
我々は、関連する編集を識別してコード編集を推奨するLLM駆動のソリューションであるCoEdPilotを提案する。
CoEdPilotは、複数のニューラルトランスフォーマーをオーケストレーションして、ロケーションの編集とコンテントの編集の両方に関して、プロジェクトの中で何とどのように編集するかを特定する。
実験の結果、CoEdPilotは編集位置を70.8%-85.3%の精度で予測でき、正確なマッチングレートは41.8%、BLEU4スコアは60.7である。
論文 参考訳(メタデータ) (2024-08-03T10:23:05Z) - WikiIns: A High-Quality Dataset for Controlled Text Editing by Natural
Language Instruction [56.196512595940334]
WikiInsは高品質な制御されたテキスト編集データセットで、情報性が向上している。
高品質なアノテートデータセットを用いて,大規模な銀のトレーニングセットを生成するための自動アプローチを提案する。
論文 参考訳(メタデータ) (2023-10-08T04:46:39Z) - DreamEditor: Text-Driven 3D Scene Editing with Neural Fields [115.07896366760876]
テキストプロンプトを用いてニューラルフィールドを編集できる新しいフレームワークを提案する。
DreamEditorは非常に現実的なテクスチャと幾何学を生成し、量的および質的な評価において、以前の作品を大きく上回っている。
論文 参考訳(メタデータ) (2023-06-23T11:53:43Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code Auto-editing [57.776971051512234]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
我々のモデルであるCoeditorは、コード編集タスクに特化して設計された微調整言語モデルである。
単純化されたシングルラウンドのシングル編集タスクでは、Coeditor は GPT-3.5 と SOTA のオープンソースコード補完モデルを大幅に上回っている。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - Aging with GRACE: Lifelong Model Editing with Discrete Key-Value
Adaptors [53.819805242367345]
本稿では,展開モデルのストリーミングエラーにスポットフィックスを実装した生涯モデル編集手法であるGRACEを提案する。
GRACEはトレーニング済みモデルの潜在空間に新しいマッピングを記述し、モデルの重みを変更することなく、個別にローカルな編集のコードブックを作成する。
T5,BERT,GPTモデルを用いた実験では,非表示入力に一般化しつつ,編集および保持におけるGRACEの最先端性能を示す。
論文 参考訳(メタデータ) (2022-11-20T17:18:22Z) - CodeEditor: Learning to Edit Source Code with Pre-trained Models [47.736781998792]
本稿では,CodeEditorというコード編集モデルを提案する。
私たちは、多くの現実世界のコードスニペットを基礎として収集し、強力なジェネレータを使って変更したバージョンに書き直します。
我々は,4つのコード編集データセットの実験を行い,事前学習したCodeEditorを3つの設定で評価する。
論文 参考訳(メタデータ) (2022-10-31T03:26:33Z) - A Syntax-Guided Edit Decoder for Neural Program Repair [14.978841897815434]
プレースホルダ生成機能を備えた構文誘導編集デコーダであるRecoderを提案する。
Defects4J v1.2の395のバグ、Defects4J v2.0の420のバグ、IntroClassJavaの297のバグ、QuixBugsの40のバグについて、Recoderを評価する実験を行います。
以上の結果からRecoderはDefects4J v1.2の53のバグを修復し,従来よりも26.2% (11のバグ)の改善を実現した。
論文 参考訳(メタデータ) (2021-06-15T16:01:51Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z) - A Structural Model for Contextual Code Changes [20.185486717922615]
部分的に編集されたコードスニペットが与えられた場合、私たちのゴールは、スニペットの残りの部分に対する編集の完了を予測することです。
提案モデルでは,最先端のシーケンシャルモデルよりも28%,編集コードの生成を学習する構文モデルよりも2倍高い精度を実現している。
論文 参考訳(メタデータ) (2020-05-27T07:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。