論文の概要: Human-AI Synergy in Agentic Code Review
- arxiv url: http://arxiv.org/abs/2603.15911v1
- Date: Mon, 16 Mar 2026 20:56:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.986493
- Title: Human-AI Synergy in Agentic Code Review
- Title(参考訳): エージェントコードレビューにおけるヒューマンAIシナジー
- Authors: Suzhen Zhong, Shayan Noei, Ying Zou, Bram Adams,
- Abstract要約: 我々は、人間レビュアーとAIエージェントによるフィードバックの違いを比較した。
人間のレビュアーは、人間が書いたコードよりもAI生成コードをレビューする場合、11.8%のラウンドを交換する。
AIエージェントからの未確認の提案の半数以上が間違っているか、開発者による代替修正によって対処されている。
- 参考スコア(独自算出の注目度): 3.7086626614863984
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Code review is a critical software engineering practice where developers review code changes before integration to ensure code quality, detect defects, and improve maintainability. In recent years, AI agents that can understand code context, plan review actions, and interact with development environments have been increasingly integrated into the code review process. However, there is limited empirical evidence to compare the effectiveness of AI agents and human reviewers in collaborative workflows. To address this gap, we conduct a large-scale empirical analysis of 278,790 code review conversations across 300 open-source GitHub projects. In our study, we aim to compare the feedback differences provided by human reviewers and AI agents. We investigate human-AI collaboration patterns in review conversations to understand how interaction shapes review outcomes. Moreover, we analyze the adoption of code suggestions provided by human reviewers and AI agents into the codebase and how adopted suggestions change code quality. We find that human reviewers provide additional feedback than AI agents, including understanding, testing, and knowledge transfer. Human reviewers exchange 11.8% more rounds when reviewing AI-generated code than human-written code. Moreover, code suggestions made by AI agents are adopted into the codebase at a significantly lower rate than suggestions proposed by human reviewers. Over half of unadopted suggestions from AI agents are either incorrect or addressed through alternative fixes by developers. When adopted, suggestions provided by AI agents produce significantly larger increases in code complexity and code size than suggestions provided by human reviewers. Our findings suggest that while AI agents can scale defect screening, human oversight remains critical for ensuring suggestion quality and providing contextual feedback that AI agents lack.
- Abstract(参考訳): コードレビューは、開発者がコード品質を保証し、欠陥を検出し、保守性を改善するために、統合前のコード変更をレビューする、重要なソフトウェアエンジニアリングプラクティスである。
近年、コードコンテキスト、計画レビューアクション、開発環境とのインタラクションを理解できるAIエージェントが、コードレビュープロセスにますます統合されている。
しかし、協調ワークフローにおけるAIエージェントと人間レビュアーの有効性を比較するための実証的な証拠は限られている。
このギャップに対処するため、300のオープンソースプロジェクト間で278,790のコードレビューの会話を大規模に分析した。
本研究では,人間レビュアーとAIエージェントのフィードバックの違いを比較することを目的とした。
我々は,人間とAIのコラボレーションパターンをレビュー会話で調べ,インタラクションがどのように成果をレビューするかを理解する。
さらに、人間のレビュアーやAIエージェントによるコード提案のコードベースへの導入と、採用提案がコード品質をどのように変化させるかを分析する。
人間のレビュアーは、理解、テスト、知識伝達を含むAIエージェントよりも、さらなるフィードバックを提供する。
人間のレビュアーは、人間が書いたコードよりもAI生成コードをレビューする場合、11.8%のラウンドを交換する。
さらに、AIエージェントによるコード提案は、人間のレビュアーによる提案よりも大幅に低いレートでコードベースに採用されている。
AIエージェントからの未確認の提案の半数以上が間違っているか、開発者による代替修正によって対処されている。
採用されると、AIエージェントが提供する提案は、人間のレビュアーが提供する提案よりもコードの複雑さとコードサイズが大幅に増加する。
我々の研究によると、AIエージェントは欠陥スクリーニングをスケールできるが、人間の監視は提案品質を確保し、AIエージェントが欠如している文脈フィードバックを提供するために重要である。
関連論文リスト
- CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Code Review as Decision-Making -- Building a Cognitive Model from the Questions Asked During Code Review [2.8299846354183953]
コードレビューの認知モデルを構築し、翻訳された資料の主題的、統計的、時間的、シーケンシャルな分析を通じてボトムアップする。
まず、コンテキストと合理性を確立するための配向フェーズ、次に、レビューの残りの部分を理解し、評価し、計画するための分析フェーズです。
論文 参考訳(メタデータ) (2025-07-13T14:04:16Z) - Code with Me or for Me? How Increasing AI Automation Transforms Developer Workflows [60.04362496037186]
本研究は,コーディングエージェントと開発者インタラクションを制御した最初の研究である。
我々は,2つの主要な協調型およびエージェント型符号化アシスタントの評価を行った。
結果から,エージェントはコピロトを超える方法で開発者を支援することができることがわかった。
論文 参考訳(メタデータ) (2025-07-10T20:12:54Z) - The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - Do Comments and Expertise Still Matter? An Experiment on Programmers' Adoption of AI-Generated JavaScript Code [8.673467364360857]
AI生成コードの採用は、AI生成ソリューションと参加者が提出したソリューションのコード類似性によって評価された。
その結果、関数レベルのプログラミングタスクのコンテキストにおいて、コメントの存在がプログラマのAI生成コードの採用に大きく影響していることが判明した。
論文 参考訳(メタデータ) (2025-03-14T14:42:51Z) - Human and Machine: How Software Engineers Perceive and Engage with AI-Assisted Code Reviews Compared to Their Peers [4.734450431444635]
本稿では,Large Language Model (LLM) を利用したコードレビューにおいて,ソフトウェアエンジニアがどのように認識し,関与しているかを検討する。
コードレビューにおけるエンゲージメントは多次元であり、認知的、感情的、行動的な側面にまたがっていることがわかった。
我々の発見は、AIツールがSE社会技術プロセスにどのように影響しているかをより深く理解するのに役立ちます。
論文 参考訳(メタデータ) (2025-01-03T20:42:51Z) - CodeAgent: Autonomous Communicative Agents for Code Review [12.163258651539236]
コードレビュー自動化のための新しいマルチエージェント大規模言語モデル(LLM)システムであるツールを紹介する。
CodeAgentは、すべてのエージェントのコントリビューションが初期レビュー問題に対処するように、監督エージェントであるQA-Checkerを組み込んでいる。
結果はCodeAgentの有効性を実証し、コードレビュー自動化の新たな最先端に寄与している。
論文 参考訳(メタデータ) (2024-02-03T14:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。