論文の概要: Delving into Commit-Issue Correlation to Enhance Commit Message
Generation Models
- arxiv url: http://arxiv.org/abs/2308.00147v2
- Date: Thu, 28 Sep 2023 16:59:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 15:51:12.360106
- Title: Delving into Commit-Issue Correlation to Enhance Commit Message
Generation Models
- Title(参考訳): コミットメッセージ生成モデルへのコミット-要求相関の展開
- Authors: Liran Wang, Xunzhu Tang, Yichen He, Changyu Ren, Shuhua Shi, Chaoran
Yan, Zhoujun Li
- Abstract要約: コミットメッセージ生成は、自動化されたソフトウェアエンジニアリングにおいて難しいタスクである。
ツールとは,コミットとイシューの相関関係をモデルのトレーニングフェーズに導入する,新たなパラダイムだ。
その結果,元モデルと比較して,ツール強化モデルの性能は大幅に向上した。
- 参考スコア(独自算出の注目度): 13.605167159285374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commit message generation (CMG) is a challenging task in automated software
engineering that aims to generate natural language descriptions of code changes
for commits. Previous methods all start from the modified code snippets,
outputting commit messages through template-based, retrieval-based, or
learning-based models. While these methods can summarize what is modified from
the perspective of code, they struggle to provide reasons for the commit. The
correlation between commits and issues that could be a critical factor for
generating rational commit messages is still unexplored.
In this work, we delve into the correlation between commits and issues from
the perspective of dataset and methodology. We construct the first dataset
anchored on combining correlated commits and issues. The dataset consists of an
unlabeled commit-issue parallel part and a labeled part in which each example
is provided with human-annotated rational information in the issue.
Furthermore, we propose \tool (\underline{Ex}traction, \underline{Gro}unding,
\underline{Fi}ne-tuning), a novel paradigm that can introduce the correlation
between commits and issues into the training phase of models. To evaluate
whether it is effective, we perform comprehensive experiments with various
state-of-the-art CMG models. The results show that compared with the original
models, the performance of \tool-enhanced models is significantly improved.
- Abstract(参考訳): コミットメッセージ生成(commit message generation, cmg)は、コミットのコード変更の自然言語記述を生成することを目的とした、自動ソフトウェアエンジニアリングにおける困難なタスクである。
以前のメソッドはすべて修正されたコードスニペットから始まり、テンプレートベース、検索ベース、学習ベースモデルを通じてコミットメッセージを出力する。
これらのメソッドは、コードの観点から修正したものをまとめることができるが、コミットの理由を提供するのに苦労している。
合理的なコミットメッセージを生成する上で重要な要因になる可能性のある、コミットと問題の間の相関性はまだ未調査である。
本研究では,データセットと方法論の観点から,コミットと課題の相関関係を考察する。
相関コミットとイシューを組み合わせた最初のデータセットを構築します。
データセットは、ラベル付きコミット発行並列部と、各例にその問題に人間が注釈付き合理的情報を提供するラベル付き部分とから構成されている。
さらに、モデルのトレーニングフェーズにコミットと課題の相関性を導入することができる新しいパラダイムである \tool (\underline{ex}traction, \underline{gro}unding, \underline{fi}ne-tuning) を提案する。
有効かどうかを評価するため,様々な最先端CMGモデルを用いた総合的な実験を行った。
その結果,オリジナルのモデルと比較して,<tool-enhanced モデルの性能が大幅に向上した。
関連論文リスト
- Robust and Scalable Model Editing for Large Language Models [75.95623066605259]
LLM編集のスケーラビリティと堅牢性を向上させるため,EREN(Reading Notesによる編集モデル)を提案する。
既存の技術とは異なり、複数の編集から知識を統合することができ、構文的に類似しているが意味的に無関係な入力に正しく反応する。
論文 参考訳(メタデータ) (2024-03-26T06:57:23Z) - List-aware Reranking-Truncation Joint Model for Search and
Retrieval-augmented Generation [80.12531449946655]
本稿では,2つのタスクを同時に実行可能なRe rank-Truncation joint model(GenRT)を提案する。
GenRTは、エンコーダ-デコーダアーキテクチャに基づく生成パラダイムによるリランクとトランケーションを統合している。
提案手法は,Web検索および検索拡張LLMにおけるリランクタスクとトラルケーションタスクの両方においてSOTA性能を実現する。
論文 参考訳(メタデータ) (2024-02-05T06:52:53Z) - COMET: Generating Commit Messages using Delta Graph Context
Representation [2.5899040911480182]
コミットメッセージはコミット中のコード変更を説明し、開発者間のコラボレーションを容易にする。
グラフベースの表現を用いて、コード変更のコンテキストをキャプチャする新しいアプローチであるCometを提案する。
テストによると、彗星は白ノルムと気象の指標で最先端の技術を上回っている。
論文 参考訳(メタデータ) (2024-02-02T19:01:52Z) - Commit Messages in the Age of Large Language Models [0.9217021281095906]
コード変更に基づいてコミットメッセージを生成するOpenAIのChatGPTの性能を評価する。
本稿では、ChatGPTを用いて得られた結果と、コミットデータに特化して訓練された以前の自動コミットメッセージ生成手法を比較した。
論文 参考訳(メタデータ) (2024-01-31T06:47:12Z) - Boosting Commit Classification with Contrastive Learning [0.8655526882770742]
コミット分類(CC)は、ソフトウェアのメンテナンスにおいて重要なタスクである。
対照的な学習に基づくコミット分類フレームワークを提案する。
われわれのフレームワークはCCの問題をシンプルに解決できるが、スプリットショットのシナリオでは効果的に解決できる。
論文 参考訳(メタデータ) (2023-08-16T10:02:36Z) - From Commit Message Generation to History-Aware Commit Message
Completion [49.175498083165884]
コミットメッセージ生成からコミットメッセージ補完に焦点を移すことができれば、結果のコミットメッセージの品質と個人的な性質を大幅に改善できる、と私たちは論じています。
既存のデータセットには履歴データがないため、20のプログラミング言語で107万のコミットを含むCommitChronicleと呼ばれる新しいデータセットを収集、共有しています。
以上の結果から,コミットメッセージ補完は生成よりも優れた結果を示し,一般的にはGPT-3.5-turboはより悪い性能を示すが,長大かつ詳細なメッセージの可能性を示唆している。
論文 参考訳(メタデータ) (2023-08-15T09:10:49Z) - Single-Stage Visual Relationship Learning using Conditional Queries [60.90880759475021]
TraCQは、マルチタスク学習問題とエンティティペアの分布を回避する、シーングラフ生成の新しい定式化である。
我々は,DETRをベースとしたエンコーダ-デコーダ条件付きクエリを用いて,エンティティラベル空間を大幅に削減する。
実験結果から、TraCQは既存のシングルステージシーングラフ生成法よりも優れており、Visual Genomeデータセットの最先端の2段階メソッドを多く上回っていることがわかった。
論文 参考訳(メタデータ) (2023-06-09T06:02:01Z) - DORE: Document Ordered Relation Extraction based on Generative Framework [56.537386636819626]
本稿では,既存のDocREモデルの根本原因について検討する。
本稿では,モデルが学習しやすく,決定論的な関係行列から記号列と順序列を生成することを提案する。
4つのデータセットに対する実験結果から,提案手法は生成型DocREモデルの性能を向上させることができることが示された。
論文 参考訳(メタデータ) (2022-10-28T11:18:10Z) - Jointly Learning to Repair Code and Generate Commit Message [78.4177637346384]
バグの多いコード、固定コード、新しいタスクのコミットメッセージを含む多言語3重データセットを構築した。
カスケード方式の誤り伝搬問題に対処するため,コード修復とコミットメッセージ生成の両立が可能なジョイントモデルを提案する。
実験結果から,教師学習法とマルチタスク学習法を併用した拡張カスケードモデルにより,自動コード修復のメトリクスの最良のスコアが得られた。
論文 参考訳(メタデータ) (2021-09-25T07:08:28Z) - On the Evaluation of Commit Message Generation Models: An Experimental
Study [33.19314967188712]
コミットメッセージは、コード変更の自然言語記述であり、プログラムの理解とメンテナンスに重要である。
コミットメッセージを自動的に生成するために, 生成手法や検索手法を利用した様々な手法が提案されている。
本稿では,最先端のモデルとデータセットの体系的,詳細な分析を行う。
論文 参考訳(メタデータ) (2021-07-12T12:38:02Z) - CoreGen: Contextualized Code Representation Learning for Commit Message
Generation [39.383390029545865]
コミットメッセージ生成(CoreGen)のためのコンテキスト適応型コード表現学習戦略を提案する。
ベンチマークデータセットの実験では、BLEU-4スコアの少なくとも28.18%の改善により、ベースラインモデルよりもモデルの有効性が向上した。
論文 参考訳(メタデータ) (2020-07-14T09:43:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。