論文の概要: A Structural Model for Contextual Code Changes
- arxiv url: http://arxiv.org/abs/2005.13209v2
- Date: Mon, 12 Oct 2020 17:52:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 09:42:16.054651
- Title: A Structural Model for Contextual Code Changes
- Title(参考訳): コンテキストコード変更のための構造モデル
- Authors: Shaked Brody, Uri Alon and Eran Yahav
- Abstract要約: 部分的に編集されたコードスニペットが与えられた場合、私たちのゴールは、スニペットの残りの部分に対する編集の完了を予測することです。
提案モデルでは,最先端のシーケンシャルモデルよりも28%,編集コードの生成を学習する構文モデルよりも2倍高い精度を実現している。
- 参考スコア(独自算出の注目度): 20.185486717922615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of predicting edit completions based on a learned
model that was trained on past edits. Given a code snippet that is partially
edited, our goal is to predict a completion of the edit for the rest of the
snippet. We refer to this task as the EditCompletion task and present a novel
approach for tackling it. The main idea is to directly represent structural
edits. This allows us to model the likelihood of the edit itself, rather than
learning the likelihood of the edited code. We represent an edit operation as a
path in the program's Abstract Syntax Tree (AST), originating from the source
of the edit to the target of the edit. Using this representation, we present a
powerful and lightweight neural model for the EditCompletion task.
We conduct a thorough evaluation, comparing our approach to a variety of
representation and modeling approaches that are driven by multiple strong
models such as LSTMs, Transformers, and neural CRFs. Our experiments show that
our model achieves a 28% relative gain over state-of-the-art sequential models
and 2x higher accuracy than syntactic models that learn to generate the edited
code, as opposed to modeling the edits directly.
Our code, dataset, and trained models are publicly available at
https://github.com/tech-srl/c3po/ .
- Abstract(参考訳): 我々は,過去の編集で学習した学習モデルに基づいて,編集完了を予測する問題に対処する。
部分的に編集されたコードスニペットを考えると、私たちの目標はスニペットの残りの部分の編集の完了を予測することです。
本稿では、このタスクをEditCompletionタスクと呼び、それに取り組むための新しいアプローチを提案する。
主なアイデアは、構造的な編集を直接表現することである。
これにより、編集コードの可能性を学ぶのではなく、編集自体の可能性をモデル化できます。
編集操作をプログラムの抽象構文木 (ast) のパスとして表現し,編集のソースから編集対象への変換を行う。
この表現を用いて、EditCompletionタスクのための強力で軽量なニューラルモデルを提案する。
我々は、LSTM、Transformer、Neural CRFといった複数の強力なモデルによって駆動される様々な表現とモデリングアプローチに対して、我々のアプローチを徹底的に評価する。
実験の結果,本モデルは,編集を直接モデル化するのではなく,編集コード生成を学習する構文モデルと比較して,最先端の逐次モデルよりも28%,精度が2倍高いことがわかった。
私たちのコード、データセット、トレーニングされたモデルはhttps://github.com/tech-srl/c3po/で公開されています。
関連論文リスト
- Neuron-Level Sequential Editing for Large Language Models [19.324852774144752]
シーケンシャルモデル編集をサポートするための textbfNeuron レベルの textbfSequential textbfEditing (NSE) を導入する。
具体的には、モデルが失敗するのを防ぐために、モデルの最初の重みを使ってターゲット層の隠蔽状態を最適化する。
実験の結果、NSEは現在の修正パラメーターモデル編集法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-10-05T05:52:22Z) - The Butterfly Effect of Model Editing: Few Edits Can Trigger Large Language Models Collapse [58.0132400208411]
単一の編集でさえモデル崩壊を引き起こし、様々なベンチマークタスクで大幅なパフォーマンス低下を示す。
編集後の大規模言語モデルのベンチマークは、過激な時間とリソース集約である。
我々は、GPT-3.5を用いて、ハードケースに基づいた新しいデータセット、HardEditを開発した。
論文 参考訳(メタデータ) (2024-02-15T01:50:38Z) - Model Editing at Scale leads to Gradual and Catastrophic Forgetting [2.569159339315845]
本稿では,ROMEとMEMITの2つの手法に焦点をあてて,現在のモデル編集手法を大規模に評価する。
モデルが複数の事実と逐次的に編集されるにつれて、以前編集された事実と下流タスクの実行能力を常に忘れていることがわかった。
論文 参考訳(メタデータ) (2024-01-15T03:57:15Z) - Edit at your own risk: evaluating the robustness of edited models to
distribution shifts [0.0]
モデル編集がモデルの一般的なロバスト性や、編集対象の特定の動作のロバスト性にどのように影響するかを検討する。
編集は一般的な堅牢性を低下させる傾向があるが、劣化の程度は編集アルゴリズムと選択した層に依存している。
これらの観測によって動機付けられた新しいモデル編集アルゴリズムである1-層 (1-LI) を導入し、重み空間を用いて編集タスクの精度と一般的なロバスト性の間のトレードオフをナビゲートする。
論文 参考訳(メタデータ) (2023-02-28T19:41:37Z) - Aging with GRACE: Lifelong Model Editing with Discrete Key-Value
Adaptors [53.819805242367345]
本稿では,展開モデルのストリーミングエラーにスポットフィックスを実装した生涯モデル編集手法であるGRACEを提案する。
GRACEはトレーニング済みモデルの潜在空間に新しいマッピングを記述し、モデルの重みを変更することなく、個別にローカルな編集のコードブックを作成する。
T5,BERT,GPTモデルを用いた実験では,非表示入力に一般化しつつ,編集および保持におけるGRACEの最先端性能を示す。
論文 参考訳(メタデータ) (2022-11-20T17:18:22Z) - Memory-Based Model Editing at Scale [102.28475739907498]
既存のモデルエディタは、編集対象のスコープを正確にモデル化するのに苦労する。
SERAC(Retrieval-Augmented Counterfactal Model)を用いた半パラメトリック編集を提案する。
SERACは、編集を明示的なメモリに格納し、必要に応じてベースモデルの予測を変更できるように、それらを推論することを学ぶ。
論文 参考訳(メタデータ) (2022-06-13T23:40:34Z) - Learning to Model Editing Processes [98.11448946134894]
本稿では、反復的にシーケンスを生成するプロセス全体をモデル化し、編集プロセスのモデリングを提案する。
我々は、多段階編集の可能性を記述するための概念的枠組みを構築し、これらの多段階編集に基づいてシーケンスの生成モデルを学ぶことができるニューラルネットワークを記述する。
論文 参考訳(メタデータ) (2022-05-24T21:32:52Z) - Fast Model Editing at Scale [77.69220974621425]
MEND(Gradient Decomposition)を用いたモデルエディタネットワークを提案する。
MENDは、所望の入力出力ペアを使って、訓練済みのモデルに高速で局所的な編集を行う、小さな補助的な編集ネットワークの集合である。
MENDは100億以上のパラメータモデルであっても、1日以内で1つのGPUでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-10-21T17:41:56Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。