論文の概要: Predicting Developer Acceptance of AI-Generated Code Suggestions
- arxiv url: http://arxiv.org/abs/2601.21379v1
- Date: Thu, 29 Jan 2026 08:14:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.661844
- Title: Predicting Developer Acceptance of AI-Generated Code Suggestions
- Title(参考訳): AIによるコード提案の開発者受け入れを予測する
- Authors: Jing Jiang, Liehao Li, Jinyun Hou, Xin Tan, Li Zhang,
- Abstract要約: 本稿では,大手テクノロジー企業による66,329の産業開発者とAIのインタラクションを用いた実証的研究を行った。
承認されたコード提案と拒否された機能とは大きく異なる機能を分析します。
我々はCSAP(Code Suggestion Acceptance Prediction)を導入し、開発者が表示前にコード提案を受け入れるかどうかを予測する。
- 参考スコア(独自算出の注目度): 12.254014187965831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-assisted programming tools are widely adopted, yet their practical utility is often undermined by undesired suggestions that interrupt developer workflows and cause frustration. While existing research has explored developer-AI interactions when programming qualitatively, a significant gap remains in quantitative analysis of developers' acceptance of AI-generated code suggestions, partly because the necessary fine-grained interaction data is often proprietary. To bridge this gap, this paper conducts an empirical study using 66,329 industrial developer-AI interactions from a large technology company. We analyze features that are significantly different between accepted code suggestions and rejected ones. We find that accepted suggestions are characterized by significantly higher historical acceptance counts and ratios for both developers and projects, longer generation intervals, shorter preceding code context in the project, and older IDE versions. Based on these findings, we introduce CSAP (Code Suggestion Acceptance Prediction) to predict whether a developer will accept the code suggestion before it is displayed. Our evaluation of CSAP shows that it achieves the accuracy of 0.973 and 0.922 on imbalanced and balanced dataset respectively. Compared to a large language model baseline and an in-production industrial filter, CSAP relatively improves the accuracy by 12.6\% and 69.5\% on imbalanced dataset, and improves the accuracy by 87.0\% and 140.1\% on balanced dataset. Our results demonstrate that targeted personalization is a powerful approach for filtering out code suggestions with predicted rejection and reduce developer interruption. To the best of our knowledge, it is the first quantitative study of code suggestion acceptance on large-scale industrial data, and this work also sheds light on an important research direction of AI-assisted programming.
- Abstract(参考訳): AI支援プログラミングツールは広く採用されているが、開発者のワークフローを中断してフラストレーションを引き起こす、望ましくない提案によって、その実用性が損なわれることが多い。
既存の研究では、プログラミングを質的に行う場合、開発者とAIのインタラクションについて検討されているが、開発者がAI生成したコード提案を受理する際の重要なギャップは、必要なきめ細かなインタラクションデータがプロプライエタリであることによるものである。
このギャップを埋めるために,大手テクノロジー企業からの66,329人の産業開発者とAIのインタラクションを用いた実証的研究を行った。
承認されたコード提案と拒否された機能とは大きく異なる機能を分析します。
受理された提案は、開発者とプロジェクトの両方にとって、歴史的受理回数と比率が著しく高く、より長い生成間隔、プロジェクトの前のコードコンテキスト、古いIDEバージョンによって特徴付けられる。
これらの結果に基づき、CSAP(Code Suggestion Acceptance Prediction)を導入し、開発者が表示前にコード提案を受け入れるかどうかを予測する。
CSAPを評価した結果,不均衡データセットと平衡データセットの0.973と0.922の精度が得られた。
大規模言語モデルベースラインと工業用フィルタと比較して、CSAPはバランスの取れていないデータセットでは12.6\%と69.5\%の精度を相対的に改善し、バランスの取れたデータセットでは87.0\%と140.1\%の精度を向上する。
この結果から,ターゲットパーソナライゼーションは,コード提案を予測された拒否でフィルタリングし,開発者の中断を減らすための強力なアプローチであることが示唆された。
我々の知る限りでは、これは大規模な産業データに対するコード提案の受け入れに関する最初の定量的研究であり、この研究はAI支援プログラミングの重要な研究方向性にも光を当てている。
関連論文リスト
- AI IDEs or Autonomous Agents? Measuring the Impact of Coding Agents on Software Development [12.50615284537175]
大規模言語モデル(LLM)ベースのコーディングエージェントは、プルリクエストの生成とマージを行う自律的なコントリビュータとして機能するようになっている。
本稿では,オープンソースリポジトリにおけるエージェント導入の経時的因果関係について検討する。
論文 参考訳(メタデータ) (2026-01-20T04:51:56Z) - Evolving with AI: A Longitudinal Analysis of Developer Logs [3.7353323067733473]
我々は,持続的AI利用が日常的なコーディング実践を長期的にどのように改善するかを考察する。
生産性、コード品質、コード編集、コードの再利用、コンテキスト切り替えという、ワークフローの変更の5つの側面を分析します。
我々の結果は、ソフトウェアのサイレント再構築に関する実証的な洞察を提供し、将来のAI強化ツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2026-01-15T10:30:24Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Exploring Prompt Patterns in AI-Assisted Code Generation: Towards Faster and More Effective Developer-AI Collaboration [3.1861081539404137]
本稿では,AI支援コード生成に必要となるインタラクション数を最小化するために,構造化されたプロンプトパターンの適用について検討する。
我々は,開発者とAI間の往復通信を減らすことの有効性を評価するために,異なる7つのプロンプトパターンを分析した。
論文 参考訳(メタデータ) (2025-06-02T12:43:08Z) - Bridging LLM-Generated Code and Requirements: Reverse Generation technique and SBC Metric for Developer Insights [0.0]
本稿では,SBCスコアと呼ばれる新しいスコアリング機構を提案する。
これは、大規模言語モデルの自然言語生成能力を活用するリバースジェネレーション技術に基づいている。
直接コード解析とは異なり、我々のアプローチはAI生成コードからシステム要求を再構築し、元の仕様と比較する。
論文 参考訳(メタデータ) (2025-02-11T01:12:11Z) - Codev-Bench: How Do LLMs Understand Developer-Centric Code Completion? [60.84912551069379]
Code-Development Benchmark (Codev-Bench)は、細粒度で現実世界、リポジトリレベル、開発者中心の評価フレームワークです。
Codev-Agentは、リポジトリのクローリングを自動化し、実行環境を構築し、既存のユニットテストから動的呼び出しチェーンを抽出し、データ漏洩を避けるために新しいテストサンプルを生成するエージェントベースのシステムである。
論文 参考訳(メタデータ) (2024-10-02T09:11:10Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。