論文の概要: Novice Developers Produce Larger Review Overhead for Project Maintainers while Vibe Coding
- arxiv url: http://arxiv.org/abs/2602.23905v1
- Date: Fri, 27 Feb 2026 10:55:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.381936
- Title: Novice Developers Produce Larger Review Overhead for Project Maintainers while Vibe Coding
- Title(参考訳): 初心者開発者によるプロジェクトメンテナのレビューオーバーヘッド向上とバイブコーディング
- Authors: Syed Ammar Asdaque, Imran Haider, Muhammad Umar Malik, Maryam Abdul Ghafoor, Abdul Ali Bangash,
- Abstract要約: 我々は、AI支援開発において、開発者エクスペリエンスが依然として重要であるかどうか調査する。
私たちはvibeコーダを低エクスペリエンスのvibeコーダ(mathitExp_Low$)と高エクスペリエンスのvibeコーダ(mathitExp_High$)に分割しました。
この結果から,検証負荷をレビュアーにシフトしながら,経験の浅いビブコーダがより多くのコードを生成することに重点を置いていることが示唆された。
- 参考スコア(独自算出の注目度): 2.6097841018267616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI coding agents allow software developers to generate code quickly, which raises a practical question for project managers and open source maintainers: can vibe coders with less development experience substitute for expert developers? To explore whether developer experience still matters in AI-assisted development, we study $22,953$ Pull Requests (PRs) from $1,719$ vibe coders in the GitHub repositories of the AIDev dataset. We split vibe coders into lower experience vibe coders ($\mathit{Exp}_{Low}$) and higher experience vibe coders ($\mathit{Exp}_{High}$) and compare contribution magnitude and PR acceptance rates across PR categories. We find that $\mathit{Exp}_{Low}$ submits PRs with larger volume ($2.15\times$ more commits and $1.47\times$ more files changed) than $\mathit{Exp}_{High}$. Moreover, $\mathit{Exp}_{Low}$ PRs, when compared to $\mathit{Exp}_{High}$, receive $4.52\times$ more review comments, and have $31\%$ lower acceptance rates, and remain open $5.16\times$ longer before resolution. Our results indicate that low-experienced vibe coders focus on generating more code while shifting verification burden onto reviewers. For practice, project managers may not be able to safely replace experienced developers with low-experience vibe coders without increasing review capacity. Development teams should therefore combine targeted training for novices with adaptive PR review cycles.
- Abstract(参考訳): AIコーディングエージェントは、ソフトウェア開発者が迅速にコードを生成することを可能にする。これにより、プロジェクトマネージャやオープンソースメンテナにとって、実践的な疑問が持ち上がる。
AI支援開発において開発者エクスペリエンスが依然として重要であるかどうかを調査するため、AIDevデータセットのGitHubリポジトリにある1719ドルのビブコーダから22,953ドルのプルリクエスト(PR)を調査した。
ビブコーダを低エクスペリエンスビブコーダ(\mathit{Exp}_{Low}$)と高エクスペリエンスビブコーダ(\mathit{Exp}_{High}$)に分割し,PRカテゴリ間のコントリビューションサイズとPR受け入れ率を比較した。
$\mathit{Exp}_{Low}$は$\mathit{Exp}_{High}$よりも大きなボリューム(2.15\times$より多くのコミットと1.47\times$多くのファイルの変更)のPRを提出する。
さらに、$\mathit{Exp}_{Low}$ PRsは$\mathit{Exp}_{High}$と比較すると、$4.52\times$以上のレビューコメントを受け取り、$31\%$低い受け入れ率を持ち、$5.16\times$より長い解像度を維持している。
この結果から,検証負荷をレビュアーにシフトしながら,経験の浅いビブコーダがより多くのコードを生成することに重点を置いていることが示唆された。
実際には、プロジェクトマネージャは、レビュー能力を増やすことなく、経験豊富な開発者を、経験の浅いバイブコーダで安全に置き換えることはできません。
そのため開発チームは、初心者を対象にしたトレーニングと適応的なPRレビューサイクルを組み合わせる必要がある。
関連論文リスト
- Are We All Using Agents the Same Way? An Empirical Study of Core and Peripheral Developers Use of Coding Agents [4.744786007044749]
我々は,コア開発者および周辺開発者の受け入れに先立って,エージェント生成コントリビューションの使用,レビュー,修正,検証について検討する。
周辺開発者のサブセットはエージェントを頻繁に使用し、バグ修正、機能追加、ドキュメント、テストに均等にタスクを委譲する。
対照的に、コア開発者はドキュメントとテストに集中しているが、エージェントPRはメイン/マスターブランチに頻繁にマージされる。
論文 参考訳(メタデータ) (2026-01-27T22:50:01Z) - Agentic Much? Adoption of Coding Agents on GitHub [6.395990525268647]
GitHub上でのコーディングエージェントの採用に関する大規模な研究を初めて紹介する。
採用率は15.85%--22.60%と見積もられているが、これは数ヶ月前の技術では極めて高い。
コミットレベルでは、コーディングエージェントによって支援されるコミットは、人間の開発者によって書かれたコミットよりも大きいことが分かります。
論文 参考訳(メタデータ) (2026-01-26T10:28:10Z) - AI-assisted Programming May Decrease the Productivity of Experienced Developers by Increasing Maintenance Burden [1.074887112239958]
GitHub CopilotのようなジェネレーティブAIソリューションは、ソフトウェア開発者の生産性を高めることが示されている。
GitHub Copilotの導入に伴い、オープンソースソフトウェア(OSS)プロジェクトにおける開発者の活動を分析します。
生産性は確かに増加する。しかし、生産性の増加は、主に経験の少ない(周辺)開発者によって引き起こされる。
論文 参考訳(メタデータ) (2025-10-11T10:58:58Z) - Good Vibrations? A Qualitative Study of Co-Creation, Communication, Flow, and Trust in Vibe Coding [6.862249355928346]
本稿では,AIとの対話,共同創造,開発者フローと喜びを中心に,バイブ符号化の基盤となる理論を提案する。
AIトラストは、委譲から共同創造への継続的な移動を規制し、フローを持続させることで開発者エクスペリエンスを支援する。
論文 参考訳(メタデータ) (2025-09-15T22:28:42Z) - Does AI Code Review Lead to Code Changes? A Case Study of GitHub Actions [21.347559936084807]
AIベースのコードレビューツールは、コード品質を改善するためにプルリクエストを自動的にレビューし、コメントする。
我々は,GitHubで人気の高いAIベースのコードレビューアクション16件について,大規模な実証的研究を行った。
これらのツールがどのように採用され、設定されているか、コメントがコードの変更につながるかどうか、そしてどの要因がそれらの効果に影響を与えるかを調査する。
論文 参考訳(メタデータ) (2025-08-26T07:55:23Z) - Code with Me or for Me? How Increasing AI Automation Transforms Developer Workflows [60.04362496037186]
本研究は,コーディングエージェントと開発者インタラクションを制御した最初の研究である。
我々は,2つの主要な協調型およびエージェント型符号化アシスタントの評価を行った。
結果から,エージェントはコピロトを超える方法で開発者を支援することができることがわかった。
論文 参考訳(メタデータ) (2025-07-10T20:12:54Z) - SwingArena: Competitive Programming Arena for Long-context GitHub Issue Solving [90.32201622392137]
We present SwingArena, a competitive evaluation framework for Large Language Models (LLMs)。
従来の静的ベンチマークとは異なり、SwingArenaはLLMをイテレーションとして組み合わせて、テストケースを作成し、継続的インテグレーション(CI)パイプラインを通じてパッチを検証するパッチとレビュアーを生成することで、ソフトウェアのコラボレーションプロセスをモデル化する。
論文 参考訳(メタデータ) (2025-05-29T18:28:02Z) - Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - DevEval: A Manually-Annotated Code Generation Benchmark Aligned with Real-World Code Repositories [83.5195424237358]
既存のベンチマークは、現実世界のコードリポジトリと不整合である。
我々はDevEvalという新しいベンチマークを提案し、これは3つの進歩がある。
DevEvalは117のリポジトリから1,874のサンプルを持ち、10の人気のあるドメインをカバーする。
論文 参考訳(メタデータ) (2024-05-30T09:03:42Z) - Superposed Decoding: Multiple Generations from a Single Autoregressive Inference Pass [72.07642648108849]
Superposed Decodingは、1つの自己回帰推論パスのコストで$k$のドラフトを生成する新しい復号アルゴリズムである。
Superposed Decodingは、他のデコード戦略と組み合わせることで、推論時間計算のスケーリング時に普遍的なカバレッジが向上する。
論文 参考訳(メタデータ) (2024-05-28T17:40:48Z) - DevEval: Evaluating Code Generation in Practical Software Projects [52.16841274646796]
我々はDevEvalという名の新しいベンチマークを提案し、実践プロジェクトにおける開発者の経験と一致している。
DevEvalは、119の実用的なプロジェクトから2,690のサンプルを含む厳格なパイプラインを通じて収集される。
DevEvalの5つの人気のあるLCMを評価し、コード生成における実際の能力を明らかにする。
論文 参考訳(メタデータ) (2024-01-12T06:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。