論文の概要: Measuring the effectiveness of code review comments in GitHub repositories: A machine learning approach
- arxiv url: http://arxiv.org/abs/2508.16053v1
- Date: Fri, 22 Aug 2025 03:00:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.233243
- Title: Measuring the effectiveness of code review comments in GitHub repositories: A machine learning approach
- Title(参考訳): GitHubリポジトリにおけるコードレビューコメントの有効性の測定: 機械学習アプローチ
- Authors: Shadikur Rahman, Umme Ayman Koana, Hasibul Karim Shanto, Mahmuda Akter, Chitra Roy, Aras M. Ismael,
- Abstract要約: 本稿では,意味的意味によるコードレビューテキストの分類における機械学習技術の作業効率に関する実証的研究について述べる。
既存の年にGitHubの3つのオープンソースプロジェクトが生成した13557のコードレビューコメントを手作業でラベル付けしました。
コードレビューの感情極性(あるいは感情指向)を認識するために、私たちは7つの機械学習アルゴリズムを使用して、それらの結果を比較して、より良いものを見つけます。
- 参考スコア(独自算出の注目度): 0.969054772470341
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper illustrates an empirical study of the working efficiency of machine learning techniques in classifying code review text by semantic meaning. The code review comments from the source control repository in GitHub were extracted for development activity from the existing year for three open-source projects. Apart from that, programmers need to be aware of their code and point out their errors. In that case, it is a must to classify the sentiment polarity of the code review comments to avoid an error. We manually labelled 13557 code review comments generated by three open source projects in GitHub during the existing year. In order to recognize the sentiment polarity (or sentiment orientation) of code reviews, we use seven machine learning algorithms and compare those results to find the better ones. Among those Linear Support Vector Classifier(SVC) classifier technique achieves higher accuracy than others. This study will help programmers to make any solution based on code reviews by avoiding misconceptions.
- Abstract(参考訳): 本稿では,意味的意味によるコードレビューテキストの分類における機械学習技術の作業効率に関する実証的研究について述べる。
GitHubのソース管理リポジトリからのコードレビューコメントは、3つのオープンソースプロジェクトのために、既存の年から開発活動のために抽出された。
それとは別に、プログラマは自分のコードを意識して、エラーを指摘しなければなりません。
その場合、エラーを避けるために、コードレビューコメントの感情極性を分類しなければなりません。
既存の年にGitHubの3つのオープンソースプロジェクトが生成した13557のコードレビューコメントを手作業でラベル付けしました。
コードレビューの感情極性(あるいは感情指向)を認識するために、私たちは7つの機械学習アルゴリズムを使用して、それらの結果を比較して、より良いものを見つけます。
線形サポートベクトル分類器(SVC)分類器は, 他よりも精度が高い。
この研究は、誤解を避けることで、プログラマがコードレビューに基づいたソリューションを作るのに役立つだろう。
関連論文リスト
- Deep Learning-based Code Reviews: A Paradigm Shift or a Double-Edged Sword? [14.970843824847956]
私たちは、自動生成されたコードレビューのサポートなしで、異なるプログラムをレビューする29人の専門家による制御された実験を実行しました。
本研究は,LLMが自動認識する問題の大部分をレビュアが有効とみなし,自動化されたレビューを出発点として利用できることが,彼らの行動に強く影響していることを示す。
しかし、自動化されたレビューから始まったレビュアーは、完全な手作業のプロセスと比較して、より高重度な問題を特定できない一方で、より多くの低重度な問題を特定した。
論文 参考訳(メタデータ) (2024-11-18T09:24:01Z) - Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - CONCORD: Clone-aware Contrastive Learning for Source Code [64.51161487524436]
セルフ教師付き事前トレーニングは、多くのダウンストリームSEタスクに価値のあるジェネリックコード表現を学ぶための牽引役になった。
汎用的な表現学習のために、開発者が日々どのようにコードをコーディングするかは、要因としても不可欠である、と私たちは主張する。
特に,表現空間に良性クローンを近づける自己教師型コントラスト学習戦略であるCONCORDを提案する。
論文 参考訳(メタデータ) (2023-06-05T20:39:08Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - Deep Just-In-Time Inconsistency Detection Between Comments and Source
Code [51.00904399653609]
本稿では,コード本体の変更によりコメントが矛盾するかどうかを検出することを目的とする。
私たちは、コメントとコードの変更を関連付けるディープラーニングアプローチを開発しています。
より包括的な自動コメント更新システムを構築するために,コメント更新モデルと組み合わせて提案手法の有用性を示す。
論文 参考訳(メタデータ) (2020-10-04T16:49:28Z) - Contrastive Code Representation Learning [95.86686147053958]
一般的な再構成に基づくBERTモデルは,ソースコードの編集に敏感であることを示す。
コントラコード(ContraCode)は、コード機能を学ぶのにフォームではなく、コントラスト的な事前学習タスクである。
論文 参考訳(メタデータ) (2020-07-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。