論文の概要: Who Writes the Docs in SE 3.0? Agent vs. Human Documentation Pull Requests
- arxiv url: http://arxiv.org/abs/2601.20171v1
- Date: Wed, 28 Jan 2026 02:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.727069
- Title: Who Writes the Docs in SE 3.0? Agent vs. Human Documentation Pull Requests
- Title(参考訳): SE 3.0でドキュメントを書くのは誰か? Agent vs. Human Documentation pull Requests
- Authors: Kazuma Yamasaki, Joseph Ayobami Joshua, Tasha Settewong, Mahmoud Alfadel, Kazumasa Shimari, Kenichi Matsumoto,
- Abstract要約: AIエージェントとヒューマン開発者によって書かれた1,997のドキュメント関連プルリクエスト(PR)を分析します。
調査されたリポジトリでは、AIエージェントが人間よりもドキュメント関連のPRをかなり多く提出していることが分かりました。
- 参考スコア(独自算出の注目度): 3.23966298972006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As software engineering moves toward SE3.0, AI agents are increasingly used to carry out development tasks and contribute changes to software projects. It is therefore important to understand the extent of these contributions and how human developers review and intervene, since these factors shape the risks of delegating work to AI agents. While recent studies have examined how AI agents support software development tasks (e.g., code generation, issue resolution, and PR automation), their role in documentation tasks remains underexplored-even though documentation is widely consumed and shapes how developers understand and use software. Using the AIDev, we analyze 1,997 documentation-related pull requests (PRs) authored by AI agents and human developers, where documentation PRs are those that create or modify project documentation artifacts. We find that AI agents submit substantially more documentation-related PRs than humans in the studied repositories. We further observe that agent-authored documentation edits are typically integrated with little follow-up modification from humans, raising concerns about review practices and the reliability of agent-generated documentation. Overall, while AI agents already contribute substantially to documentation workflows, our results suggest concerns for emerging challenges for documentation quality assurance and human-AI collaboration in SE3.0.
- Abstract(参考訳): ソフトウェアエンジニアリングがSE3.0に進むにつれ、AIエージェントは開発タスクを実行し、ソフトウェアプロジェクトに変化をもたらすためにますます使われています。
これらの要因がAIエージェントに仕事を委譲するリスクを形作るため、これらの貢献の程度と、人間の開発者がどのようにレビューし、介入するかを理解することが重要である。
最近の研究では、AIエージェントがソフトウェア開発タスク(例えば、コード生成、課題解決、PR自動化)をどのようにサポートするかが検討されているが、ドキュメントタスクにおける彼らの役割は、広く使われており、開発者がソフトウェアを理解し、使用する方法を形作っているにもかかわらず、まだ探索されていない。
AIエージェントやヒューマン開発者が作成した1,997のドキュメント関連プルリクエスト(PR)を分析します。
調査されたリポジトリでは、AIエージェントが人間よりもドキュメント関連のPRをかなり多く提出していることが分かりました。
さらに、エージェントが承認したドキュメント編集は、典型的には、人間からのほとんどフォローアップ修正と統合され、レビュープラクティスやエージェント生成ドキュメントの信頼性に対する懸念が高まる。
全体として、AIエージェントはすでにドキュメントワークフローに大きく貢献していますが、私たちの結果は、ドキュメントの品質保証とSE3.0における人間とAIのコラボレーションに関する新たな課題への懸念を示唆しています。
関連論文リスト
- Are We All Using Agents the Same Way? An Empirical Study of Core and Peripheral Developers Use of Coding Agents [4.744786007044749]
我々は,コア開発者および周辺開発者の受け入れに先立って,エージェント生成コントリビューションの使用,レビュー,修正,検証について検討する。
周辺開発者のサブセットはエージェントを頻繁に使用し、バグ修正、機能追加、ドキュメント、テストに均等にタスクを委譲する。
対照的に、コア開発者はドキュメントとテストに集中しているが、エージェントPRはメイン/マスターブランチに頻繁にマージされる。
論文 参考訳(メタデータ) (2026-01-27T22:50:01Z) - On Autopilot? An Empirical Study of Human-AI Teaming and Review Practices in Open Source [11.412808537439973]
プロジェクトレベルのガイドラインとAI支援プルリクエスト(PR)との開発者のインタラクションについて検討した。
AIが共著するPRの67.5%以上が、コードオーナシップのないコントリビュータから生まれています。
非オーナーの開発者が最もフィードバックを受けられるような、人間が作ったPRとは対照的に、非オーナーのAI共著のPRは最小限のフィードバックを受け取っている。
論文 参考訳(メタデータ) (2026-01-20T09:09:53Z) - Holistic Agent Leaderboard: The Missing Infrastructure for AI Agent Evaluation [87.47155146067962]
数百のタスクで並列評価をオーケストレーションする,標準化された評価ハーネスを提供する。
モデル、足場、ベンチマークにまたがる3次元解析を行う。
私たちの分析では、ほとんどのランで精度を低下させる高い推論努力など、驚くべき洞察が示されています。
論文 参考訳(メタデータ) (2025-10-13T22:22:28Z) - On the Use of Agentic Coding: An Empirical Study of Pull Requests on GitHub [6.7302091035327285]
大規模言語モデル(LLM)は、ソフトウェア開発プロセスに統合されつつある。
自律的なAIエージェントを使用して、コードを生成し、人間の介入を最小限に抑えたプルリクエストを提出する能力は、標準のプラクティスになる可能性がある。
エージェントコーディングツールであるClaude Codeを使って生成した567のGitHubプルリクエスト(PR)を、157のオープンソースプロジェクトで実証研究しました。
論文 参考訳(メタデータ) (2025-09-18T08:48:32Z) - The Rise of AI Teammates in Software Engineering (SE) 3.0: How Autonomous Coding Agents Are Reshaping Software Engineering [10.252332355171237]
本稿では,このようなエージェントが野生でどのように動作するかを示す最初の大規模データセットであるAIDevを紹介する。
AIDevは5つの主要なエージェントによる45万6000件以上のプルリクエストに対処し、ソフトウェア開発において自律的なチームメイトを研究するための前例のない経験的な基盤を提供する。
データセットには、PR、著者、レビュータイムライン、コード変更、統合結果に関する豊富な情報が含まれている。
論文 参考訳(メタデータ) (2025-07-20T15:15:58Z) - Code with Me or for Me? How Increasing AI Automation Transforms Developer Workflows [60.04362496037186]
本研究は,コーディングエージェントと開発者インタラクションを制御した最初の研究である。
我々は,2つの主要な協調型およびエージェント型符号化アシスタントの評価を行った。
結果から,エージェントはコピロトを超える方法で開発者を支援することができることがわかった。
論文 参考訳(メタデータ) (2025-07-10T20:12:54Z) - DocAgent: A Multi-Agent System for Automated Code Documentation Generation [7.653779364214401]
本稿では、トポロジ的コード処理によるインクリメンタルコンテキスト構築のための新しいマルチエージェント協調システムDocAgentを紹介する。
特殊なエージェント(Reader、Searcher、Writer、Verifier、Orchestrator)が共同でドキュメントを生成する。
また, 完全性, ヘルプ性, 真実性を評価する多面的評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-11T17:50:08Z) - OpenHands: An Open Platform for AI Software Developers as Generalist Agents [109.8507367518992]
私たちは、人間の開発者と同じような方法で世界と対話するAIエージェントを開発するためのプラットフォームであるOpenHandsを紹介します。
プラットフォームが新しいエージェントの実装を可能にし、コード実行のためのサンドボックス環境との安全なインタラクション、評価ベンチマークの導入について説明する。
論文 参考訳(メタデータ) (2024-07-23T17:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。