論文の概要: On Multi-Modal Learning of Editing Source Code
- arxiv url: http://arxiv.org/abs/2108.06645v1
- Date: Sun, 15 Aug 2021 02:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-18 05:08:47.718684
- Title: On Multi-Modal Learning of Editing Source Code
- Title(参考訳): ソースコード編集のマルチモーダル学習について
- Authors: Saikat Chakraborty, Baishakhi Ray
- Abstract要約: 近年、Neural Machine Translator (NMT) はソースコードを自動編集することを約束している。
本研究では、位置情報の編集、コードコンテキストの編集、(自然言語における開発者のヒントのプロキシとして)メッセージのコミットという3つのモードを利用して、NMTモデルによる編集を自動的に生成する。
入力モダリティとしての開発者のヒントは、パッチの検索スペースを狭くし、最先端モデルより優れ、トップ1位置で正しくパッチされたコードを生成することができることを示す。
- 参考スコア(独自算出の注目度): 17.28158089963557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, Neural Machine Translator (NMT) has shown promise in
automatically editing source code. Typical NMT based code editor only considers
the code that needs to be changed as input and suggests developers with a
ranked list of patched code to choose from - where the correct one may not
always be at the top of the list. While NMT based code editing systems generate
a broad spectrum of plausible patches, the correct one depends on the
developers' requirement and often on the context where the patch is applied.
Thus, if developers provide some hints, using natural language, or providing
patch context, NMT models can benefit from them. As a proof of concept, in this
research, we leverage three modalities of information: edit location, edit code
context, commit messages (as a proxy of developers' hint in natural language)
to automatically generate edits with NMT models. To that end, we build MODIT, a
multi-modal NMT based code editing engine. With in-depth investigation and
analysis, we show that developers' hint as an input modality can narrow the
search space for patches and outperform state-of-the-art models to generate
correctly patched code in top-1 position.
- Abstract(参考訳): 近年、Neural Machine Translator (NMT) はソースコードを自動編集することを約束している。
典型的なNMTベースのコードエディタは、インプットとして変更が必要なコードのみを考慮し、修正済みのコードのリストをランク付けした開発者が選択するように提案する。
nmtベースのコード編集システムは、多種多様な可能なパッチを生成するが、正しいものは開発者の要求に依存し、しばしばパッチが適用される状況に依存する。
したがって、開発者が自然言語の使用やパッチコンテキストの提供といったヒントを提供すれば、nmtモデルはそのメリットを享受できる。
概念実証として,位置の編集,コードコンテキストの編集,(自然言語における開発者のヒントのプロキシとして)メッセージのコミットという3つの情報モダリティを活用し,NMTモデルによる編集を自動的に生成する。
そこで我々は,マルチモーダルNMTベースのコード編集エンジンMODITを開発した。
In-deepth investigation and analysis, we show that developers's hint as a input modality could narrow the search space for patch and outform state-of-the-art model to generate correct patched code in top-1 position。
関連論文リスト
- Can It Edit? Evaluating the Ability of Large Language Models to Follow
Code Editing Instructions [7.3325988944997675]
コード編集タスクのベンチマークを導入し、いくつかの最先端LCMを評価する。
我々の評価は、最先端のオープンモデルとクローズドモデルの間の大きなギャップを露呈する。
我々は、新しく、慎重にキュレートされ、パーミッシブにライセンスされたコード編集のトレーニングセットと自然言語命令を導入します。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Neuron Patching: Neuron-level Model Editing on Code Generation and LLMs [29.55309950026882]
大規模言語モデルはソフトウェア工学、特にコード生成においてうまく採用されている。
コーディングタスクにおけるLLMにパッチを当てるために,新しい効率的なモデル編集手法であるtextscMENTを提案する。
textscMENTは、効果的で、効率的で、信頼性が高い。1つまたは2つのニューロンにパッチを当てることで、神経モデルを修正することができる。
論文 参考訳(メタデータ) (2023-12-08T20:28:08Z) - InstructCoder: Instruction Tuning Large Language Models for Code Editing [26.160498475809266]
ユーザインストラクションに基づいたコード編集にLLM(Large Language Models)を用いる方法について検討する。
InstructCoderは、汎用コード編集にLLMを適用するために設計された最初の命令チューニングデータセットである。
InstructCoderで微調整されたオープンソースのLLMは、コード編集の精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2023-10-31T10:15:35Z) - Automated Code Editing with Search-Generate-Modify [24.96672652375192]
本稿では,コード検索,生成,修正のパワーを活用して,コード編集をより良く合成するためのハイブリッドアプローチを提案する。
SARGAMは、実際の開発者のコード編集動作を模倣するように設計された新しいツールである。
論文 参考訳(メタデータ) (2023-06-10T17:11:21Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - Coeditor: Leveraging Contextual Changes for Multi-round Code
Auto-editing [51.153089609654174]
本研究では,複数ラウンドのコードの自動編集設定について検討し,その内部の最近の変更に基づいて,コード領域への編集を予測することを目的とした。
当社のモデルであるCoeditorは、コード編集タスク用に特別に設計された機能強化を備えた、微調整のCodeT5モデルです。
トレーニングと評価のために1650のオープンソースのPythonプロジェクトのコミット履歴からコード編集データセットを収集します。
論文 参考訳(メタデータ) (2023-05-29T19:57:36Z) - CodeEditor: Learning to Edit Source Code with Pre-trained Models [47.736781998792]
本稿では,CodeEditorというコード編集モデルを提案する。
私たちは、多くの現実世界のコードスニペットを基礎として収集し、強力なジェネレータを使って変更したバージョンに書き直します。
我々は,4つのコード編集データセットの実験を行い,事前学習したCodeEditorを3つの設定で評価する。
論文 参考訳(メタデータ) (2022-10-31T03:26:33Z) - InCoder: A Generative Model for Code Infilling and Synthesis [88.46061996766348]
InCoderは、プログラム合成(左から右への生成)と編集(埋め込み)が可能な統合生成モデルである。
InCoderは、許可されたコードの大きなコーパスからコードファイルを生成するように訓練されている。
私たちのモデルは、ゼロショットコードの埋め込みを直接実行できる最初の生成モデルです。
論文 参考訳(メタデータ) (2022-04-12T16:25:26Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Editing Factual Knowledge in Language Models [51.947280241185]
本稿では,この知識を編集する手法であるKnowledgeEditorを提案する。
knowledgeeditorは計算効率が高いだけでなく、lm事前トレーニングの修正も必要としない。
2つの一般的なアーキテクチャと知識集約型タスクで、KnowledgeEditorの有効性を示します。
論文 参考訳(メタデータ) (2021-04-16T15:24:42Z) - A Sketch-Based Neural Model for Generating Commit Messages from Diffs [0.5239589676872304]
コミットメッセージは、特に大規模チームで働く場合、ソフトウェア開発に重要な影響を与える。
コード差分をコミットメッセージに変換するために、ニューラルマシン翻訳(NMT)技術を適用します。
このタスクのための改善されたスケッチベースのエンコーダを紹介します。
論文 参考訳(メタデータ) (2021-04-08T21:21:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。