論文の概要: Speed at the Cost of Quality? The Impact of LLM Agent Assistance on Software Development
- arxiv url: http://arxiv.org/abs/2511.04427v1
- Date: Thu, 06 Nov 2025 15:00:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.463384
- Title: Speed at the Cost of Quality? The Impact of LLM Agent Assistance on Software Development
- Title(参考訳): 品質コストの速度 : LLMエージェント支援がソフトウェア開発に与える影響
- Authors: Hao He, Courtney Miller, Shyam Agarwal, Christian Kästner, Bogdan Vasilescu,
- Abstract要約: Cursorの採用は、プロジェクトレベルの開発速度を著しく、大きく、しかし過渡的に増加させます。
静的解析警告の増加とコードの複雑さは、長期の速度低下を引き起こす主要な要因である。
- 参考スコア(独自算出の注目度): 18.271710138834536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have demonstrated the promise to revolutionize the field of software engineering. Among other things, LLM agents are rapidly gaining momentum in their application to software development, with practitioners claiming a multifold productivity increase after adoption. Yet, empirical evidence is lacking around these claims. In this paper, we estimate the causal effect of adopting a widely popular LLM agent assistant, namely Cursor, on development velocity and software quality. The estimation is enabled by a state-of-the-art difference-in-differences design comparing Cursor-adopting GitHub projects with a matched control group of similar GitHub projects that do not use Cursor. We find that the adoption of Cursor leads to a significant, large, but transient increase in project-level development velocity, along with a significant and persistent increase in static analysis warnings and code complexity. Further panel generalized method of moments estimation reveals that the increase in static analysis warnings and code complexity acts as a major factor causing long-term velocity slowdown. Our study carries implications for software engineering practitioners, LLM agent assistant designers, and researchers.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ソフトウェア工学の分野に革命をもたらすという約束を実証している。
LLMエージェントは、ソフトウェア開発への応用において急速に勢いを増しており、実践者は採用後に生産性が倍増すると主張している。
しかし、これらの主張には実証的な証拠が欠けている。
本稿では,広く普及しているLLMエージェントアシスタントであるCursorが開発速度とソフトウェア品質に与える影響を推定する。
この推定は、Cursorを推奨するGitHubプロジェクトと、Cursorを使用しない類似のGitHubプロジェクトの管理グループを比較した、最先端の差分差分設計によって実現されている。
Cursorの採用によって、プロジェクトレベルの開発速度が著しく、大きく、しかし過渡的に増加し、静的分析警告やコードの複雑さが大幅に増加します。
さらに、モーメント推定の一般化手法により、静的解析警告の増加とコードの複雑さが、長期速度の減速を引き起こす主要な要因であることが明らかとなった。
本研究は,ソフトウェア工学の実践者,LLMエージェント・アシスタント・デザイナ,研究者に影響を及ぼす。
関連論文リスト
- On Integrating Large Language Models and Scenario-Based Programming for Improving Software Reliability [2.2058293096044586]
大規模言語モデル(LLM)は、ソフトウェア開発者にとって急速に欠かせないツールになりつつある。
LLMは、しばしば重大なエラーを導入し、説得力のある信頼を持って間違ったコードを提示する。
本研究では,LLMと従来のソフトウェア工学技術を組み合わせる手法を構造化された方法で提案する。
論文 参考訳(メタデータ) (2025-09-11T07:10:25Z) - Augmenting Large Language Models with Static Code Analysis for Automated Code Quality Improvements [0.36832029288386137]
本研究では,大規模言語モデル(LLM)をソフトウェア開発に組み込んだコード問題検出と修正自動化について検討した。
静的コード分析フレームワークは、大規模なソフトウェアプロジェクトの中でバグや脆弱性、コードの臭いなどの問題を検出する。
検索拡張世代(RAG)は、リビジョンの関連性と精度を高めるために実装される。
論文 参考訳(メタデータ) (2025-06-12T03:39:25Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - LLMs' Reshaping of People, Processes, Products, and Society in Software Development: A Comprehensive Exploration with Early Adopters [3.4069804433026314]
OpenAI ChatGPT、Google Gemini、GitHub Copilotといった大規模言語モデル(LLM)は、ソフトウェア業界で急速に注目を集めている。
私たちの研究は、LLMがソフトウェア開発のランドスケープをどう形作っているのか、微妙に理解しています。
論文 参考訳(メタデータ) (2025-03-06T22:27:05Z) - Efficiency Unleashed: Inference Acceleration for LLM-based Recommender Systems with Speculative Decoding [61.45448947483328]
LLMベースのレコメンダシステム(LASER)の投機的復号化によるロスレス高速化について紹介する。
LASERは、検索効率を高めるためのカスタマイズされた検索プールと、ドラフトトークンの受け入れ率を改善するための緩和検証を備えている。
LASERは公開データセットの3~5倍のスピードアップを実現し、オンラインA/Bテスト中に約67%の計算リソースを節約する。
論文 参考訳(メタデータ) (2024-08-11T02:31:13Z) - Agent-Driven Automatic Software Improvement [55.2480439325792]
本提案は,Large Language Models (LLMs) を利用したエージェントの展開に着目して,革新的なソリューションの探求を目的とする。
継続的学習と適応を可能にするエージェントの反復的性質は、コード生成における一般的な課題を克服するのに役立ちます。
我々は,これらのシステムにおける反復的なフィードバックを用いて,エージェントの基盤となるLLMをさらに微調整し,自動化されたソフトウェア改善のタスクに整合性を持たせることを目指している。
論文 参考訳(メタデータ) (2024-06-24T15:45:22Z) - AutoCodeRover: Autonomous Program Improvement [8.66280420062806]
プログラムの改善を自律的に達成するために、GitHubの問題を解決する自動化アプローチを提案する。
AutoCodeRoverと呼ばれるアプローチでは、LLMは洗練されたコード検索機能と組み合わせられ、最終的にプログラムの変更やパッチにつながります。
SWE-bench-lite(300の現実のGitHubイシュー)の実験では、GitHubの問題を解決する効果が向上している(SWE-bench-liteでは19%)。
論文 参考訳(メタデータ) (2024-04-08T11:55:09Z) - Experiential Co-Learning of Software-Developing Agents [83.34027623428096]
大規模言語モデル(LLM)は、特にソフトウェア開発において、様々な領域に大きな変化をもたらした。
本稿では,新しいLLM学習フレームワークであるExperiential Co-Learningを紹介する。
実験では、このフレームワークにより、エージェントは、目に見えないソフトウェア開発タスクをより効果的に対処できることを示した。
論文 参考訳(メタデータ) (2023-12-28T13:50:42Z) - ChatDev: Communicative Agents for Software Development [84.90400377131962]
ChatDevはチャットを利用したソフトウェア開発フレームワークで、特別なエージェントがコミュニケーション方法についてガイドされる。
これらのエージェントは、統一された言語ベースのコミュニケーションを通じて、設計、コーディング、テストフェーズに積極的に貢献する。
論文 参考訳(メタデータ) (2023-07-16T02:11:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。