論文の概要: RevMine: An LLM-Assisted Tool for Code Review Mining and Analysis Across Git Platforms
- arxiv url: http://arxiv.org/abs/2510.04796v1
- Date: Mon, 06 Oct 2025 13:22:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.877611
- Title: RevMine: An LLM-Assisted Tool for Code Review Mining and Analysis Across Git Platforms
- Title(参考訳): RevMine: Gitプラットフォーム全体のコードレビューマイニングと分析のためのLLM支援ツール
- Authors: Samah Kansab, Francis Bordeleau, Ali Tizghadam,
- Abstract要約: RevMineは、大規模な言語モデル(LLM)を使用して、コードレビューマイニングパイプライン全体を合理化します。
認証、エンドポイント発見、自然言語駆動のデータ収集を通じてユーザをガイドする。
ユーザ定義フィルタやLLM推論パターンに基づいた定量分析と定性解析の両方をサポートする。
- 参考スコア(独自算出の注目度): 1.2744523252873348
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Empirical research on code review processes is increasingly central to understanding software quality and collaboration. However, collecting and analyzing review data remains a time-consuming and technically intensive task. Most researchers follow similar workflows - writing ad hoc scripts to extract, filter, and analyze review data from platforms like GitHub and GitLab. This paper introduces RevMine, a conceptual tool that streamlines the entire code review mining pipeline using large language models (LLMs). RevMine guides users through authentication, endpoint discovery, and natural language-driven data collection, significantly reducing the need for manual scripting. After retrieving review data, it supports both quantitative and qualitative analysis based on user-defined filters or LLM-inferred patterns. This poster outlines the tool's architecture, use cases, and research potential. By lowering the barrier to entry, RevMine aims to democratize code review mining and enable a broader range of empirical software engineering studies.
- Abstract(参考訳): コードレビュープロセスに関する実証的研究は、ソフトウェアの品質とコラボレーションを理解する上でますます重要になっている。
しかし、レビューデータの収集と分析は、時間と技術的に集中的な作業である。
ほとんどの研究者は、GitHubやGitLabなどのプラットフォームからレビューデータを抽出、フィルタリング、分析するためのアドホックスクリプトを書くという、同様のワークフローに従っている。
本稿では,大規模な言語モデル(LLM)を用いたコードレビューマイニングパイプライン全体を合理化する概念ツールであるRevMineを紹介する。
RevMineは、認証、エンドポイント発見、自然言語駆動のデータ収集を通じてユーザをガイドし、手動スクリプティングの必要性を大幅に低減する。
レビューデータを検索すると、ユーザ定義フィルタやLLM推論パターンに基づいた定量的および定性的な分析がサポートされる。
このポスターでは、ツールのアーキテクチャ、ユースケース、研究の可能性について概説している。
参入障壁を低くすることで、RevMineはコードレビューマイニングを民主化し、幅広い経験的ソフトウェアエンジニアリング研究を可能にすることを目指している。
関連論文リスト
- Accelerating Discovery: Rapid Literature Screening with LLMs [1.2586771241101986]
研究者は、しばしばスパース情報を含む多数の非構造化ソースをレビューし、フィルタリングする必要がある。
文書の検索とフィルタリングを支援するLarge Language Model (LLM) アシスタントを開発した。
論文 参考訳(メタデータ) (2025-09-16T14:01:44Z) - LazyReview A Dataset for Uncovering Lazy Thinking in NLP Peer Reviews [74.87393214734114]
この研究は、微粒な遅延思考カテゴリで注釈付けされたピアレビュー文のデータセットであるLazyReviewを紹介している。
大規模言語モデル(LLM)は、ゼロショット設定でこれらのインスタンスを検出するのに苦労する。
命令ベースのデータセットの微調整により、パフォーマンスが10~20ポイント向上する。
論文 参考訳(メタデータ) (2025-04-15T10:07:33Z) - Automating Code Review: A Systematic Literature Review [15.416725497289697]
コードレビューは、コード品質の向上を目標として、チームメイトによって書かれたコードを評価することで構成される。
実証的な研究は、そのようなプラクティスによってもたらされた利益を文書化しており、開発者の時間という面ではコストがかかる。
コードレビュータスクを自動化する技術とツールが提案されている。
論文 参考訳(メタデータ) (2025-03-12T16:19:10Z) - AIRepr: An Analyst-Inspector Framework for Evaluating Reproducibility of LLMs in Data Science [5.064778712920176]
大規模言語モデル(LLM)は、実行可能なコード生成を通じてデータ分析を自動化するために、ますます使われるようになっている。
LLM 生成データ解析の $itRepr$oducibility を自動的に評価し,改善するための $itA$nalyst - $itI$nspector フレームワークである $itAIRepr を提示する。
論文 参考訳(メタデータ) (2025-02-23T01:15:50Z) - SnipGen: A Mining Repository Framework for Evaluating LLMs for Code [51.07471575337676]
言語モデル(LLM)は、コードリポジトリを含む広範なデータセットに基づいてトレーニングされる。
それらの有効性を評価することは、トレーニングに使用されるデータセットと評価に使用されるデータセットとが重複する可能性があるため、大きな課題となる。
SnipGenは、コード生成のために、様々な下流タスクをまたいだ迅速なエンジニアリングを活用するように設計された包括的なリポジトリマイニングフレームワークである。
論文 参考訳(メタデータ) (2025-02-10T21:28:15Z) - LatteReview: A Multi-Agent Framework for Systematic Review Automation Using Large Language Models [0.0]
LatteReviewはPythonベースのフレームワークで、大規模言語モデル(LLM)とマルチエージェントシステムを活用して、体系的なレビュープロセスの重要な要素を自動化する。
このフレームワークは、外部コンテキストを組み込むRetrieval-Augmented Generation (RAG)、マルチモーダルレビュー、構造化された入力と出力に対するPydanticベースの検証、大規模データセットを扱う非同期プログラミングなどの機能をサポートしている。
論文 参考訳(メタデータ) (2025-01-05T17:53:00Z) - Towards Realistic Evaluation of Commit Message Generation by Matching Online and Offline Settings [77.20838441870151]
オンラインメトリック - VCSに生成されたメッセージをコミットする前にユーザが導入する編集回数 - を使用して、オフライン実験用のメトリクスを選択します。
我々は,GPT-4が生成したコミットメッセージと,人間の専門家が編集したコミットメッセージからなる57対のデータセットを収集した。
以上の結果から,編集距離が最も高い相関性を示すのに対し,BLEUやMETEORなどの類似度は低い相関性を示すことがわかった。
論文 参考訳(メタデータ) (2024-10-15T20:32:07Z) - Automating Patch Set Generation from Code Review Comments Using Large Language Models [2.045040820541428]
5つの人気のあるLarge Language Model(LLM)にコードコンテキストを提供します。
実世界のコードレビューコメントから提案したコード変更(パッチセット)を得る。
生成したパッチセットを人為的なパッチセットの履歴データと比較することにより、各モデルの性能を慎重に評価する。
論文 参考訳(メタデータ) (2024-04-10T02:46:08Z) - CORL: Research-oriented Deep Offline Reinforcement Learning Library [48.47248460865739]
CORLはオープンソースのライブラリで、強化学習アルゴリズムの完全なベンチマークによる単一ファイルの実装を提供する。
単純で現代的な分析追跡ツールによる、シンプルな開発経験を強調している。
論文 参考訳(メタデータ) (2022-10-13T15:40:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。