論文の概要: A Sketch-Based Neural Model for Generating Commit Messages from Diffs
- arxiv url: http://arxiv.org/abs/2104.04087v1
- Date: Thu, 8 Apr 2021 21:21:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 22:27:58.827320
- Title: A Sketch-Based Neural Model for Generating Commit Messages from Diffs
- Title(参考訳): 差分からコミットメッセージを生成するスケッチベースニューラルモデル
- Authors: Nicolae-Teodor Pavel and Traian Rebedea
- Abstract要約: コミットメッセージは、特に大規模チームで働く場合、ソフトウェア開発に重要な影響を与える。
コード差分をコミットメッセージに変換するために、ニューラルマシン翻訳(NMT)技術を適用します。
このタスクのための改善されたスケッチベースのエンコーダを紹介します。
- 参考スコア(独自算出の注目度): 0.5239589676872304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Commit messages have an important impact in software development, especially
when working in large teams. Multiple developers who have a different style of
writing may often be involved in the same project. For this reason, it may be
difficult to maintain a strict pattern of writing informative commit messages,
with the most frequent issue being that these messages are not descriptive
enough. In this paper we apply neural machine translation (NMT) techniques to
convert code diffs into commit messages and we present an improved sketch-based
encoder for this task. We split the approach into three parts. Firstly, we
focus on finding a more suitable NMT baseline for this problem. Secondly, we
show that the performance of the NMT models can be improved by training on
examples containing a specific file type. Lastly, we introduce a novel
sketch-based neural model inspired by recent approaches used for code
generation and we show that the sketch-based encoder significantly outperforms
existing state of the art solutions. The results highlight that this
improvement is relevant especially for Java source code files, by examining two
different datasets introduced in recent years for this task.
- Abstract(参考訳): コミットメッセージは、特に大規模チームで働く場合、ソフトウェア開発に重要な影響を与える。
異なるスタイルの書き方を持つ複数の開発者は、しばしば同じプロジェクトに関与します。
このため、有益なコミットメッセージを書くという厳密なパターンを維持することは困難であり、最も頻繁な問題は、これらのメッセージが十分に記述できないことである。
本稿では、コード差分をコミットメッセージに変換するためにニューラルネットワーク変換(NMT)技術を適用し、このタスクのために改良されたスケッチベースのエンコーダを提案する。
私たちはアプローチを3つに分けました。
まず、この問題に対してより適切なNMTベースラインを見つけることに焦点を当てる。
次に、NMTモデルの性能は、特定のファイルタイプを含む例をトレーニングすることで改善できることを示す。
最後に,最近のコード生成手法に触発された新しいスケッチベースニューラルモデルを紹介し,スケッチベースのエンコーダが既存のアートソリューションを大幅に上回っていることを示す。
結果は、この改善が特にJavaソースコードファイルに関係していることを強調し、このタスクのために近年導入された2つの異なるデータセットを調べる。
関連論文リスト
- NAMER: Non-Autoregressive Modeling for Handwritten Mathematical Expression Recognition [80.22784377150465]
手書き数学的表現認識(HMER)は、文書理解における多種多様な応用のために、パターン認識において大きな注目を集めている。
本稿では,HMERのためのボトムアップ非自己回帰モデリング手法であるNAMERを初めて構築する。
NAMERは、VAT(Visual Aware Tokenizer)とPGD(Parallel Graph)を備える。
論文 参考訳(メタデータ) (2024-07-16T04:52:39Z) - On Search Strategies for Document-Level Neural Machine Translation [51.359400776242786]
文書レベルのニューラルネットワーク変換(NMT)モデルは、ドキュメント全体にわたってより一貫性のある出力を生成する。
そこで本研究では,デコードにおける文脈認識翻訳モデルをどのように活用するか,という質問に答えることを目的としている。
論文 参考訳(メタデータ) (2023-06-08T11:30:43Z) - Enriching Source Code with Contextual Data for Code Completion Models:
An Empirical Study [4.438873396405334]
コンテクストデータを用いてコードを理解しやすくすることで、コード補完作業のための事前学習された言語モデルの性能が向上するかどうかを問う。
コメントについては、マルチラインコメントの存在下でモデルの性能が向上していることが分かる。
論文 参考訳(メタデータ) (2023-04-24T17:09:14Z) - Momentum Decoding: Open-ended Text Generation As Graph Exploration [49.812280360794894]
自動回帰言語モデル(LM)を用いたオープンエンドテキスト生成は、自然言語処理における中核的なタスクの1つである。
我々は、新しい視点から、すなわち、有向グラフ内の探索プロセスとして、オープンエンドテキスト生成を定式化する。
本稿では,新しい復号法であるtextitmomentum decodingを提案する。
論文 参考訳(メタデータ) (2022-12-05T11:16:47Z) - Z-Code++: A Pre-trained Language Model Optimized for Abstractive
Summarization [108.09419317477986]
Z-Code++は、抽象的なテキスト要約に最適化された、新しいトレーニング済み言語モデルである。
このモデルは、まず、言語理解のためのテキストコーパスを用いて事前訓練され、続いて、接地テキスト生成のための要約コーパス上で継続的に事前訓練される。
パラメータ効率はXSumでは600倍のPaLM-540B,SAMSumでは200倍のGPT3-175Bである。
論文 参考訳(メタデータ) (2022-08-21T01:00:54Z) - ECMG: Exemplar-based Commit Message Generation [45.54414179533286]
コミットメッセージは、コード差分の内容(つまり、コードの変更)とそれらの背後にある意図を簡潔に記述する。
情報検索ベースの手法は、類似のコードdiffsのコミットメッセージを再利用し、ニューラルベースの手法は、コードdiffsとコミットメッセージ間のセマンティックな接続を学習する。
本稿では、類似のコミットメッセージを例に扱い、ニューラルネットワークモデルを誘導して正確なコミットメッセージを生成する、新しい例ベースのニューラルコミットメッセージ生成モデルを提案する。
論文 参考訳(メタデータ) (2022-03-05T10:55:15Z) - TopNet: Learning from Neural Topic Model to Generate Long Stories [43.5564336855688]
Long Story Generation (LSG) は自然言語処理における目標の1つである。
短い入力を補完する高品質なスケルトン語を得るために,emphTopNetを提案する。
提案手法は骨格語選択に極めて有効であり, 自動評価と人的評価の両方において最先端のモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-12-14T09:47:53Z) - On Multi-Modal Learning of Editing Source Code [17.28158089963557]
近年、Neural Machine Translator (NMT) はソースコードを自動編集することを約束している。
本研究では、位置情報の編集、コードコンテキストの編集、(自然言語における開発者のヒントのプロキシとして)メッセージのコミットという3つのモードを利用して、NMTモデルによる編集を自動的に生成する。
入力モダリティとしての開発者のヒントは、パッチの検索スペースを狭くし、最先端モデルより優れ、トップ1位置で正しくパッチされたコードを生成することができることを示す。
論文 参考訳(メタデータ) (2021-08-15T02:06:49Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。