論文の概要: A Full-fledged Commit Message Quality Checker Based on Machine Learning
- arxiv url: http://arxiv.org/abs/2309.04797v1
- Date: Sat, 9 Sep 2023 13:43:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 16:17:21.433585
- Title: A Full-fledged Commit Message Quality Checker Based on Machine Learning
- Title(参考訳): 機械学習に基づく全文コミットメッセージ品質チェッカー
- Authors: David Farag\'o, Michael F\"arber, Christian Petrov
- Abstract要約: コミットメッセージ(CM)はバージョン管理の重要な部分です。
CMがどれだけうまく書かれているかを自動的に評価するプラクティスに適したツールは存在しない。
私たちは、これらのCM品質ルールをすべてチェックする、本格的なオープンソースフレームワークを開発しています。
- 参考スコア(独自算出の注目度): 1.2277343096128712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Commit messages (CMs) are an essential part of version control. By providing
important context in regard to what has changed and why, they strongly support
software maintenance and evolution. But writing good CMs is difficult and often
neglected by developers. So far, there is no tool suitable for practice that
automatically assesses how well a CM is written, including its meaning and
context. Since this task is challenging, we ask the research question: how well
can the CM quality, including semantics and context, be measured with machine
learning methods? By considering all rules from the most popular CM quality
guideline, creating datasets for those rules, and training and evaluating
state-of-the-art machine learning models to check those rules, we can answer
the research question with: sufficiently well for practice, with the lowest
F$_1$ score of 82.9\%, for the most challenging task. We develop a full-fledged
open-source framework that checks all these CM quality rules. It is useful for
research, e.g., automatic CM generation, but most importantly for software
practitioners to raise the quality of CMs and thus the maintainability and
evolution speed of their software.
- Abstract(参考訳): コミットメッセージ(CM)はバージョン管理の重要な部分です。
変更点と理由に関して重要なコンテキストを提供することで、ソフトウェアのメンテナンスと進化を強くサポートします。
しかし、良いCMを書くことは難しく、しばしば開発者は無視します。
今のところ、CMがどれだけうまく書かれているかを自動的に評価するプラクティスに適したツールは存在しません。
このタスクは難しいので、私たちは研究の質問に答える: セマンティクスやコンテキストを含むCMの品質は、機械学習の手法でどの程度測定できるのか?
最も人気のあるcm品質ガイドラインからのすべてのルールを考慮し、それらのルールのためのデータセットを作成し、それらのルールをチェックするために最先端の機械学習モデルをトレーニングし、評価することで、調査の質問に答えることができる: 実践に十分適しており、最も困難なタスクのために最低のf$_1$スコアが82.9\%である。
これらのCM品質ルールをすべてチェックできる、本格的なオープンソースフレームワークを開発しています。
これは、例えば自動CM生成などの研究に有用であるが、最も重要なことはソフトウェア実践者がCMの品質を高め、ソフトウェアの保守性と進化速度を高めることである。
関連論文リスト
- A Framework for Measuring the Quality of Infrastructure-as-Code Scripts [0.0]
インフラストラクチャ・アズ・コード(IaC)は現代のソフトウェア開発に不可欠なものになっています。
IaCスクリプトの急速な普及は、より良いコード品質評価方法の必要性を強調している。
本稿では,リポジトリを基盤とする新しいIaCコード品質フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-05T12:36:19Z) - Zero-shot and Few-shot Learning with Instruction-following LLMs for Claim Matching in Automated Fact-checking [7.242609314791262]
クレームマッチングタスクに対するゼロショットおよび少数ショット学習アプローチについて検討する。
新しいCMデータセットであるClimMatchを紹介します。
本稿では,異なる長さのテキストに対して評価を行うCMのパイプラインを提案する。
論文 参考訳(メタデータ) (2025-01-18T19:57:54Z) - ICM-Assistant: Instruction-tuning Multimodal Large Language Models for Rule-based Explainable Image Content Moderation [48.1894038905491]
従来の画像コンテンツモデレーション(ICM)モデルは、様々な標準に対して正確なモデレーション決定を下すには不十分である。
我々は、簡潔な人間定義ルールを分解する新しいルールベースのデータセット生成パイプラインを設計する。
我々はルールベースのIMMのフレームワークでIMM-Assistantモデルを作成し、実際の実践で容易に適用できるようにします。
論文 参考訳(メタデータ) (2024-12-24T06:45:36Z) - Iterative Knowledge Distillation through Feedback-Driven Learning Cycles [11.118462543251303]
IterKDは、大規模で先進的なLCMのプログラミング能力を、より小さく、より少ないLCMに継続的に移行することを目的としている。
IterCoderは軽量だが効果的なLCMであり、CodeLlama-7B上に構築されている。
IterCoderは、HumanEvalベンチマークでPass@1スコア65.2を獲得し、30B以上のLCMを平均47.51%上回り、118.47%のLCMを平均118.47%上回る。
論文 参考訳(メタデータ) (2024-08-07T10:43:59Z) - Exploring Multi-Lingual Bias of Large Code Models in Code Generation [55.336629780101475]
コード生成は、自然言語(NL)仕様に基づいて、コードを合成し、機能要件を満たすことを目的としている。
有効性にもかかわらず、我々は大規模コードモデル(LCM)の生成性能において顕著な多言語バイアスを観察する。
LCMは、英語で指示を与えると解を生成する能力を示すが、中国語などの他のNLで意味論的に等価な命令に直面すると、失敗する可能性がある。
論文 参考訳(メタデータ) (2024-04-30T08:51:49Z) - CCM: Adding Conditional Controls to Text-to-Image Consistency Models [89.75377958996305]
本稿では,Consistency Models に ControlNet のような条件制御を追加するための代替戦略を検討する。
軽量アダプタは、一貫性トレーニングを通じて、複数の条件下で共同で最適化することができる。
これらの3つの解は, エッジ, 奥行き, 人間のポーズ, 低解像度画像, マスキング画像など, 様々な条件制御にまたがる。
論文 参考訳(メタデータ) (2023-12-12T04:16:03Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - Are Machine Programming Systems using Right Source-Code Measures to
Select Code Repositories? [0.0]
機械プログラミング(英: Machine Programming、MP)は、決定論的および確率論的コンピューティングの交差点における新興分野である。
MPシステムは、コードとプログラミングに関する興味深い特性を学ぶために、大量のオープンソースコードに依存することが多い。
MPシステムは、コードリポジトリの品質を考慮していないか、非定型的な品質対策を使っている。
論文 参考訳(メタデータ) (2022-09-24T07:34:18Z) - Data-Driven Approach for Log Instruction Quality Assessment [59.04636530383049]
優れた品質特性を持つログ命令の記述方法に関するガイドラインは,広く採用されていない。
1)ログレベルの正確さを評価するための正しいログレベルの割り当てと,2)イベント記述の冗長化に必要な静的テキストの最小富度を評価する十分な言語構造である。
本手法は,F1スコア0.99の十分な言語構造を用いて,ログレベルの割当を精度0.88で正確に評価する。
論文 参考訳(メタデータ) (2022-04-06T07:02:23Z) - KILT: a Benchmark for Knowledge Intensive Language Tasks [102.33046195554886]
知識集約型言語タスク(KILT)のベンチマークを示す。
KILTのすべてのタスクはウィキペディアのスナップショットと同じだ。
共有密度ベクトル指数とSeq2seqモデルとの結合が強いベースラインであることが分かる。
論文 参考訳(メタデータ) (2020-09-04T15:32:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。