論文の概要: Let's Make Every Pull Request Meaningful: An Empirical Analysis of Developer and Agentic Pull Requests
- arxiv url: http://arxiv.org/abs/2601.18749v1
- Date: Mon, 26 Jan 2026 18:16:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:09.004412
- Title: Let's Make Every Pull Request Meaningful: An Empirical Analysis of Developer and Agentic Pull Requests
- Title(参考訳): すべてのプルリクエストを意味のあるものにしよう:開発者とエージェントプルリクエストの実証分析
- Authors: Haruhiko Yoshioka, Takahiro Monno, Haruka Tokumasu, Taiki Wakamatsu, Yuki Ota, Nimmi Weeraddana, Kenichi Matsumoto,
- Abstract要約: AIDevデータセットから収集した40,214個のPRを大規模に分析した。
6家系にまたがる64の特徴を抽出し,人間とエージェントのPRのPRマージ結果を比較するため,統計的回帰モデルに適合する。
以上の結果から, 提案者属性が両者のマージ結果に支配的であり, レビュー関連特徴は人間とエージェントPRの対比効果を示した。
- 参考スコア(独自算出の注目度): 0.944838645453772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The automatic generation of pull requests (PRs) using AI agents has become increasingly common. Although AI-generated PRs are fast and easy to create, their merge rates have been reported to be lower than those created by humans. In this study, we conduct a large-scale empirical analysis of 40,214 PRs collected from the AIDev dataset. We extract 64 features across six families and fit statistical regression models to compare PR merge outcomes for human and agentic PRs, as well as across three AI agents. Our results show that submitter attributes dominate merge outcomes for both groups, while review-related features exhibit contrasting effects between human and agentic PRs. The findings of this study provide insights into improving PR quality through human-AI collaboration.
- Abstract(参考訳): AIエージェントを使用したプルリクエスト(PR)の自動生成がますます一般的になっている。
AIが生成するPRは高速で簡単に作成できるが、マージレートは人間よりも低いと報告されている。
本研究では,AIDevデータセットから収集した40,214個のPRの大規模解析を行った。
我々は、6つのファミリーに64の特徴を抽出し、人間とエージェントのPRのPRマージ結果と3つのAIエージェントを比較し、統計的回帰モデルに適合する。
以上の結果から, 提案者属性が両者のマージ結果に支配的であり, レビュー関連特徴は人間とエージェントPRの対比効果を示した。
本研究は,人間とAIの協調によるPR品質向上に関する知見を提供する。
関連論文リスト
- Where Do AI Coding Agents Fail? An Empirical Study of Failed Agentic Pull Requests in GitHub [5.808464460707249]
われわれはGitHub全体で5人のコーディングエージェントが作成した33kエージェントのPRを大規模に調査している。
まず,4次元のPRを定量的に特徴付ける。
マージされていないPRは、より大きなコード変更を伴い、より多くのファイルに触れる傾向があり、プロジェクトのCI/CDパイプライン検証に合格しないことが多い。
論文 参考訳(メタデータ) (2026-01-21T17:12:46Z) - On Autopilot? An Empirical Study of Human-AI Teaming and Review Practices in Open Source [11.412808537439973]
プロジェクトレベルのガイドラインとAI支援プルリクエスト(PR)との開発者のインタラクションについて検討した。
AIが共著するPRの67.5%以上が、コードオーナシップのないコントリビュータから生まれています。
非オーナーの開発者が最もフィードバックを受けられるような、人間が作ったPRとは対照的に、非オーナーのAI共著のPRは最小限のフィードバックを受け取っている。
論文 参考訳(メタデータ) (2026-01-20T09:09:53Z) - Early-Stage Prediction of Review Effort in AI-Generated Pull Requests [0.0]
我々は,2,807リポジトリにわたるAIDevデータセットから,エージェントによるPR33,707件を分析した。
本稿では,高解像度PRを生成時に予測するサーキットブレーカートリアージモデルを提案する。
論文 参考訳(メタデータ) (2026-01-02T17:18:01Z) - AutoPR: Let's Automate Your Academic Promotion! [50.929742814819036]
本稿では,研究論文を正確な,エンゲージメント,タイムリーな公開コンテンツに変換する新しいタスクであるAutoPRを紹介する。
PRAgentは、AutoPRを3段階で自動化するマルチエージェントフレームワークである。コンテンツ抽出、協調合成、標準の最適化、トーン、最大リーチのためのタグ付けのプラットフォーム固有の適応である。
結果は,AutoPRをトラクタブルで測定可能な研究課題と位置づけ,スケーラブルで影響力のある学術的コミュニケーションのためのロードマップを提供する。
論文 参考訳(メタデータ) (2025-10-10T17:08:36Z) - Graphs Meet AI Agents: Taxonomy, Progress, and Future Opportunities [117.49715661395294]
データ構造化は、複雑で非組織的なデータをよく構造化された形式に変換することで、有望な役割を果たす。
この調査では、グラフがAIエージェントにどのように権限を与えるかを、初めて体系的にレビューする。
論文 参考訳(メタデータ) (2025-06-22T12:59:12Z) - Designing AI-Agents with Personalities: A Psychometric Approach [2.854338743097065]
本稿では,定量的かつ心理学的に検証された個人性をAIエージェントに割り当てる手法を提案する。
3つの研究で実現可能性と限界を評価した。
論文 参考訳(メタデータ) (2024-10-25T01:05:04Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - ADVISE: AI-accelerated Design of Evidence Synthesis for Global
Development [2.6293574825904624]
本研究では、変換器(BERT)モデルからの双方向エンコーダ表現に基づくAIエージェントを開発する。
本稿では,人間とAIのハイブリッドチームによるエビデンス合成プロセスの促進効果について検討する。
その結果、BERTベースのAIエージェントを人間チームに組み込むことで、人間のスクリーニングの労力を68.5%削減できることがわかった。
論文 参考訳(メタデータ) (2023-05-02T01:29:53Z) - Modeling Bounded Rationality in Multi-Agent Simulations Using Rationally
Inattentive Reinforcement Learning [85.86440477005523]
我々は、人間不合理性の確立されたモデルであるRational Inattention(RI)モデルを含む、より人間的なRLエージェントについて検討する。
RIRLは、相互情報を用いた認知情報処理のコストをモデル化する。
我々は、RIRLを用いることで、合理的な仮定の下で発見されたものと異なる、新しい平衡挙動の豊富なスペクトルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-18T20:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。