論文の概要: A Full-fledged Commit Message Quality Checker Based on Machine Learning
- arxiv url: http://arxiv.org/abs/2309.04797v1
- Date: Sat, 9 Sep 2023 13:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 16:17:21.433585
- Title: A Full-fledged Commit Message Quality Checker Based on Machine Learning
- Title(参考訳): 機械学習に基づく全文コミットメッセージ品質チェッカー
- Authors: David Farag\'o, Michael F\"arber, Christian Petrov
- Abstract要約: コミットメッセージ(CM)はバージョン管理の重要な部分です。
CMがどれだけうまく書かれているかを自動的に評価するプラクティスに適したツールは存在しない。
私たちは、これらのCM品質ルールをすべてチェックする、本格的なオープンソースフレームワークを開発しています。
- 参考スコア(独自算出の注目度): 1.2277343096128712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commit messages (CMs) are an essential part of version control. By providing
important context in regard to what has changed and why, they strongly support
software maintenance and evolution. But writing good CMs is difficult and often
neglected by developers. So far, there is no tool suitable for practice that
automatically assesses how well a CM is written, including its meaning and
context. Since this task is challenging, we ask the research question: how well
can the CM quality, including semantics and context, be measured with machine
learning methods? By considering all rules from the most popular CM quality
guideline, creating datasets for those rules, and training and evaluating
state-of-the-art machine learning models to check those rules, we can answer
the research question with: sufficiently well for practice, with the lowest
F$_1$ score of 82.9\%, for the most challenging task. We develop a full-fledged
open-source framework that checks all these CM quality rules. It is useful for
research, e.g., automatic CM generation, but most importantly for software
practitioners to raise the quality of CMs and thus the maintainability and
evolution speed of their software.
- Abstract(参考訳): コミットメッセージ(CM)はバージョン管理の重要な部分です。
変更点と理由に関して重要なコンテキストを提供することで、ソフトウェアのメンテナンスと進化を強くサポートします。
しかし、良いCMを書くことは難しく、しばしば開発者は無視します。
今のところ、CMがどれだけうまく書かれているかを自動的に評価するプラクティスに適したツールは存在しません。
このタスクは難しいので、私たちは研究の質問に答える: セマンティクスやコンテキストを含むCMの品質は、機械学習の手法でどの程度測定できるのか?
最も人気のあるcm品質ガイドラインからのすべてのルールを考慮し、それらのルールのためのデータセットを作成し、それらのルールをチェックするために最先端の機械学習モデルをトレーニングし、評価することで、調査の質問に答えることができる: 実践に十分適しており、最も困難なタスクのために最低のf$_1$スコアが82.9\%である。
これらのCM品質ルールをすべてチェックできる、本格的なオープンソースフレームワークを開発しています。
これは、例えば自動CM生成などの研究に有用であるが、最も重要なことはソフトウェア実践者がCMの品質を高め、ソフトウェアの保守性と進化速度を高めることである。
関連論文リスト
- Iterative Knowledge Distillation through Feedback-Driven Learning Cycles [11.118462543251303]
IterKDは、大規模で先進的なLCMのプログラミング能力を、より小さく、より少ないLCMに継続的に移行することを目的としている。
IterCoderは軽量だが効果的なLCMであり、CodeLlama-7B上に構築されている。
IterCoderは、HumanEvalベンチマークでPass@1スコア65.2を獲得し、30B以上のLCMを平均47.51%上回り、118.47%のLCMを平均118.47%上回る。
論文 参考訳(メタデータ) (2024-08-07T10:43:59Z) - On the Impacts of Contexts on Repository-Level Code Generation [5.641402231731082]
リポジトリレベルのコード生成を評価するために設計された新しいベンチマークである textbfmethodnamews を提案する。
実行可能性、包括的なテストケース生成による機能的正当性、ファイル間のコンテキストの正確な利用という3つの重要な側面に注目します。
論文 参考訳(メタデータ) (2024-06-17T10:45:22Z) - Exploring Multi-Lingual Bias of Large Code Models in Code Generation [55.336629780101475]
コード生成は、自然言語(NL)仕様に基づいて、コードを合成し、機能要件を満たすことを目的としている。
有効性にもかかわらず、我々は大規模コードモデル(LCM)の生成性能において顕著な多言語バイアスを観察する。
LCMは、英語で指示を与えると解を生成する能力を示すが、中国語などの他のNLで意味論的に等価な命令に直面すると、失敗する可能性がある。
論文 参考訳(メタデータ) (2024-04-30T08:51:49Z) - CCM: Adding Conditional Controls to Text-to-Image Consistency Models [89.75377958996305]
本稿では,Consistency Models に ControlNet のような条件制御を追加するための代替戦略を検討する。
軽量アダプタは、一貫性トレーニングを通じて、複数の条件下で共同で最適化することができる。
これらの3つの解は, エッジ, 奥行き, 人間のポーズ, 低解像度画像, マスキング画像など, 様々な条件制御にまたがる。
論文 参考訳(メタデータ) (2023-12-12T04:16:03Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - Are Machine Programming Systems using Right Source-Code Measures to
Select Code Repositories? [0.0]
機械プログラミング(英: Machine Programming、MP)は、決定論的および確率論的コンピューティングの交差点における新興分野である。
MPシステムは、コードとプログラミングに関する興味深い特性を学ぶために、大量のオープンソースコードに依存することが多い。
MPシステムは、コードリポジトリの品質を考慮していないか、非定型的な品質対策を使っている。
論文 参考訳(メタデータ) (2022-09-24T07:34:18Z) - Image Coding for Machines with Omnipotent Feature Learning [45.36372374739911]
Image Coding for Machines (ICM)は、人間の知覚を満たすのではなく、AIタスク分析のための画像を圧縮することを目的としている。
我々は圧縮も考慮しながら普遍的な特徴を学習し,IMMフレームワークを開発する。
我々は、全能的な機能やそれに対応するフレームワークをOmni-ICMと命名する。
論文 参考訳(メタデータ) (2022-07-05T10:13:11Z) - Data-Driven Approach for Log Instruction Quality Assessment [59.04636530383049]
優れた品質特性を持つログ命令の記述方法に関するガイドラインは,広く採用されていない。
1)ログレベルの正確さを評価するための正しいログレベルの割り当てと,2)イベント記述の冗長化に必要な静的テキストの最小富度を評価する十分な言語構造である。
本手法は,F1スコア0.99の十分な言語構造を用いて,ログレベルの割当を精度0.88で正確に評価する。
論文 参考訳(メタデータ) (2022-04-06T07:02:23Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。