論文の概要: The Impact of LLM-Assistants on Software Developer Productivity: A Systematic Literature Review
- arxiv url: http://arxiv.org/abs/2507.03156v1
- Date: Thu, 03 Jul 2025 20:25:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.599773
- Title: The Impact of LLM-Assistants on Software Developer Productivity: A Systematic Literature Review
- Title(参考訳): LLM-Assistantがソフトウェア開発生産性に与える影響: 体系的文献レビュー
- Authors: Amr Mohamed, Maram Assi, Mariam Guizani,
- Abstract要約: 大規模言語モデルアシスタント(LLMアシスタント)は、ソフトウェア開発を変革する新たな機会を提供する。
関心が高まっているにもかかわらず、LCMアシストがソフトウェア開発の生産性にどのように影響するかは合成されていない。
分析の結果,LSM補助剤は有意な利益と重大なリスクの両方をもたらすことが明らかとなった。
- 参考スコア(独自算出の注目度): 4.503986781849658
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language model assistants (LLM-assistants) present new opportunities to transform software development. Developers are increasingly adopting these tools across tasks, including coding, testing, debugging, documentation, and design. Yet, despite growing interest, there is no synthesis of how LLM-assistants affect software developer productivity. In this paper, we present a systematic literature review of 37 peer-reviewed studies published between January 2014 and December 2024 that examine this impact. Our analysis reveals that LLM-assistants offer both considerable benefits and critical risks. Commonly reported gains include minimized code search, accelerated development, and the automation of trivial and repetitive tasks. However, studies also highlight concerns around cognitive offloading, reduced team collaboration, and inconsistent effects on code quality. While the majority of studies (92%) adopt a multi-dimensional perspective by examining at least two SPACE dimensions, reflecting increased awareness of the complexity of developer productivity, only 14% extend beyond three dimensions, indicating substantial room for more integrated evaluations. Satisfaction, Performance, and Efficiency are the most frequently investigated dimensions, whereas Communication and Activity remain underexplored. Most studies are exploratory (64%) and methodologically diverse, but lack longitudinal and team-based evaluations. This review surfaces key research gaps and provides recommendations for future research and practice. All artifacts associated with this study are publicly available at https://zenodo.org/records/15788502.
- Abstract(参考訳): 大規模言語モデルアシスタント(LLMアシスタント)は、ソフトウェア開発を変革する新たな機会を提供する。
コーディング、テスト、デバッギング、ドキュメント、デザインなど、さまざまなタスクにこれらのツールが採用されている。
しかし、関心が高まりつつあるにもかかわらず、LCMアシストがソフトウェア開発者生産性にどのように影響するかの合成は存在しない。
本稿では,2014年1月から2024年12月にかけて発行された37のピアレビュー研究の系統的な文献レビューを行い,その影響について考察する。
分析の結果,LSM補助剤は有意な利益と重大なリスクの両方をもたらすことが明らかとなった。
一般的に報告されている成果には、最小限のコード検索、迅速な開発、自明で反復的なタスクの自動化などがある。
しかし、研究はまた、認知的オフロード、チームコラボレーションの削減、コード品質に対する矛盾した影響に関する懸念も強調している。
研究の大多数(92%)は、少なくとも2つのSPACE次元を調べて、開発者の生産性の複雑さに対する認識を高めることで、多次元の視点を採用するが、わずか14%が3次元を超えて、より統合された評価を行う余地があることを示唆している。
満足感、パフォーマンス、効率性が最も頻繁に研究される次元であるが、コミュニケーションと活動は未調査のままである。
ほとんどの研究は探索的(64%)で方法論的に多様であるが、縦断的な評価やチームベースの評価は欠如している。
このレビューは、主要な研究ギャップを表面化し、将来の研究と実践のためのレコメンデーションを提供する。
この研究に関連するすべてのアーティファクトは、https://zenodo.org/records/15788502で公開されている。
関連論文リスト
- Does Machine Unlearning Truly Remove Model Knowledge? A Framework for Auditing Unlearning in LLMs [58.24692529185971]
本研究では,3つのベンチマークデータセット,6つのアンラーニングアルゴリズム,および5つのプロンプトベースの監査手法からなる,アンラーニング評価のための総合的な監査フレームワークを提案する。
異なるアンラーニング戦略の有効性とロバスト性を評価する。
論文 参考訳(メタデータ) (2025-05-29T09:19:07Z) - AAAR-1.0: Assessing AI's Potential to Assist Research [34.88341605349765]
AAAR-1.0は,大規模言語モデル(LLM)の性能を評価するためのベンチマークデータセットである。
AAAR-1.0は、以前のベンチマークと大きく異なる2つの主要な方法である: 第一に、明らかに研究指向で、深いドメインの専門知識を必要とするタスク、第二に、研究者が日々従事する主要なアクティビティを反映する研究者指向である。
論文 参考訳(メタデータ) (2024-10-29T17:58:29Z) - The LLM Effect: Are Humans Truly Using LLMs, or Are They Being Influenced By Them Instead? [60.01746782465275]
大規模言語モデル(LLM)は、様々な分析タスクにおいて、人間のパフォーマンスに近い能力を示している。
本稿では,Human-LLMパートナーシップに着目した構造化ユーザスタディにより,特殊作業におけるLLMの効率と精度について検討する。
論文 参考訳(メタデータ) (2024-10-07T02:30:18Z) - What's Wrong with Your Code Generated by Large Language Models? An Extensive Study [80.18342600996601]
大規模言語モデル(LLM)は、標準解に比べて短いがより複雑なコードを生成する。
3つのカテゴリと12のサブカテゴリを含む誤ったコードに対するバグの分類を開発し、一般的なバグタイプに対する根本原因を分析する。
そこで本研究では,LLMがバグタイプやコンパイラフィードバックに基づいて生成したコードを批判し,修正することのできる,自己批判を導入した新たな学習自由反復手法を提案する。
論文 参考訳(メタデータ) (2024-07-08T17:27:17Z) - Self-Admitted Technical Debt Detection Approaches: A Decade Systematic Review [5.670597842524448]
技術的負債 (Technical debt, TD) とは、ソフトウェア開発において、最適な設計やコード決定に関連する長期的なコストを表す用語である。
開発者がこれらのトレードオフを明確に認めると、SATD(Self-Admitted Technical Debt)が発生する。
SATDの自動検出は、ますます重要な研究領域となっている。
論文 参考訳(メタデータ) (2023-12-19T12:01:13Z) - The Efficiency Spectrum of Large Language Models: An Algorithmic Survey [54.19942426544731]
LLM(Large Language Models)の急速な成長は、様々なドメインを変換する原動力となっている。
本稿では,LLMのエンドツーエンドのアルゴリズム開発に不可欠な多面的効率性について検討する。
論文 参考訳(メタデータ) (2023-12-01T16:00:25Z) - Sentiment Analysis in the Era of Large Language Models: A Reality Check [69.97942065617664]
本稿では,大規模言語モデル(LLM)の様々な感情分析タスクの実行能力について検討する。
26のデータセット上の13のタスクのパフォーマンスを評価し、ドメイン固有のデータセットに基づいて訓練された小言語モデル(SLM)と比較した。
論文 参考訳(メタデータ) (2023-05-24T10:45:25Z) - Open Source Software for Efficient and Transparent Reviews [0.11179881480027788]
ASReviewはオープンソースの機械学習支援パイプラインで、アクティブラーニングを適用している。
シミュレーションにより,ASReviewは手作業によるレビューよりもはるかに効率的なレビューを実現することができることを示す。
論文 参考訳(メタデータ) (2020-06-22T11:57:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。