論文の概要: A Survey on Large Language Model Impact on Software Evolvability and Maintainability: the Good, the Bad, the Ugly, and the Remedy
- arxiv url: http://arxiv.org/abs/2601.20879v1
- Date: Mon, 26 Jan 2026 22:02:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.340963
- Title: A Survey on Large Language Model Impact on Software Evolvability and Maintainability: the Good, the Bad, the Ugly, and the Remedy
- Title(参考訳): 大規模言語モデルがソフトウェア進化性と保守性に与える影響に関する調査:善、悪、機敏、治療
- Authors: Bruno Claudino Matias, Savio Freire, Juliana Freitas, Felipe Fronchetti, Kostadin Damevski, Rodrigo Spinola,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成、要約、修復、テストを含むタスクのためのソフトウェア工学に埋め込まれている。
本研究では,LLMがソフトウェアシステムの保守性と進化性に与える影響について検討する。
- 参考スコア(独自算出の注目度): 4.274591984746631
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Context. Large Language Models (LLMs) are increasingly embedded in software engineering workflows for tasks including code generation, summarization, repair, and testing. Empirical studies report productivity gains, improved comprehension, and reduced cognitive load. However, evidence remains fragmented, and concerns persist about hallucinations, unstable outputs, methodological limitations, and emerging forms of technical debt. How these mixed effects shape long-term software maintainability and evolvability remains unclear. Objectives. This study systematically examines how LLMs influence the maintainability and evolvability of software systems. We identify which quality attributes are addressed in existing research, the positive impacts LLMs provide, the risks and weaknesses they introduce, and the mitigation strategies proposed in the literature. Method. We conducted a systematic literature review. Searches across ACM DL, IEEE Xplore, and Scopus (2020 to 2024) yielded 87 primary studies. Qualitative evidence was extracted through a calibrated multi-researcher process. Attributes were analyzed descriptively, while impacts, risks, weaknesses, and mitigation strategies were synthesized using a hybrid thematic approach supported by an LLM-assisted analysis tool with human-in-the-loop validation. Results. LLMs provide benefits such as improved analyzability, testability, code comprehension, debugging support, and automated repair. However, they also introduce risks, including hallucinated or incorrect outputs, brittleness to context, limited domain reasoning, unstable performance, and flaws in current evaluations, which threaten long-term evolvability. Conclusion. LLMs can strengthen maintainability and evolvability, but they also pose nontrivial risks to long-term sustainability. Responsible adoption requires safeguards, rigorous evaluation, and structured human oversight.
- Abstract(参考訳): コンテキスト。
大きな言語モデル(LLM)は、コード生成、要約、修復、テストを含むタスクのためのソフトウェアエンジニアリングワークフローにますます組み込まれています。
実証研究は生産性の向上、理解の向上、認知負荷の低減を報告している。
しかし、証拠は断片化され続けており、幻覚、不安定な出力、方法論上の制限、新しい技術的負債に関する懸念が続いている。
これらの混合効果が、長期のソフトウェア保守性と進化性をどのように形成するかは、まだ不明である。
目的。
本研究では,LLMがソフトウェアシステムの保守性と進化性にどのように影響するかを系統的に検討する。
我々は,既存の研究でどの品質特性に対処するか,LLMがもたらすポジティブな影響,導入するリスクと弱点,文献で提案する緩和戦略を明らかにする。
方法。
我々は体系的な文献レビューを行った。
ACM DL、IEEE Xplore、Scopus (2020-2024) での検索は87の初等研究結果を得た。
定性的な証拠は、校正されたマルチリサーチプロセスを通じて抽出された。
属性は記述的に分析され,影響,リスク,弱さ,緩和戦略はLLM支援分析ツールと人間によるループ検証によって支援されたハイブリッド・セマティック・アプローチを用いて合成された。
結果。
LLMは、分析性、テスト容易性、コード理解、デバッグサポート、自動修復などの利点を提供する。
しかし、彼らはまた、幻覚的または不正なアウトプット、コンテキストへの脆さ、限定されたドメイン推論、不安定なパフォーマンス、そして長期的発展を脅かす現在の評価の欠陥といったリスクも導入している。
結論。
LLMは保守性と進化性を高めることができるが、長期的な持続可能性に非自明なリスクをもたらす。
責任ある採用には、保護、厳格な評価、構造化された人間の監視が必要である。
関連論文リスト
- Large Language Models for Unit Test Generation: Achievements, Challenges, and the Road Ahead [15.43943391801509]
単体テストは、ソフトウェアの検証には不可欠だが、面倒なテクニックである。
大規模言語モデル(LLM)は、コードセマンティクスとプログラミングパターンに関するデータ駆動の知識を活用することで、この制限に対処する。
このフレームワークは、コアジェネレーティブ戦略と一連の拡張テクニックに関する文献を分析します。
論文 参考訳(メタデータ) (2025-11-26T13:30:11Z) - On the Surprising Efficacy of LLMs for Penetration-Testing [3.11537581064266]
この論文は、浸透試験におけるLarge Language Models (LLMs)の進化を徹底的にレビューする。
さまざまな攻撃的なセキュリティタスクにまたがって、彼らのアプリケーションをデモし、サイバー殺人チェーンの幅広いフェーズをカバーする。
論文では、より広範な採用と安全なデプロイメントを妨げる重要な障害を特定し、議論する。
論文 参考訳(メタデータ) (2025-07-01T15:01:18Z) - LLM-Safety Evaluations Lack Robustness [58.334290876531036]
我々は、大規模言語モデルに対する現在の安全アライメント研究は、多くのノイズ源によって妨げられていると論じる。
本研究では,将来の攻撃・防衛用紙の評価において,ノイズやバイアスを低減させる一連のガイドラインを提案する。
論文 参考訳(メタデータ) (2025-03-04T12:55:07Z) - LLMs in Software Security: A Survey of Vulnerability Detection Techniques and Insights [12.424610893030353]
大規模言語モデル(LLM)は、ソフトウェア脆弱性検出のためのトランスフォーメーションツールとして登場している。
本稿では,脆弱性検出におけるLSMの詳細な調査を行う。
言語間の脆弱性検出、マルチモーダルデータ統合、リポジトリレベルの分析といった課題に対処する。
論文 参考訳(メタデータ) (2025-02-10T21:33:38Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Comprehensive Reassessment of Large-Scale Evaluation Outcomes in LLMs: A Multifaceted Statistical Approach [64.42462708687921]
評価の結果、スケーリング、トレーニングタイプ、アーキテクチャなどの要因がLLMのパフォーマンスに大きな影響を与えていることが明らかになった。
本研究は, これらのLCMの徹底的な再検討に着手し, 現状評価手法における不整合性に着目した。
これには、ANOVA、Tukey HSDテスト、GAMM、クラスタリング技術などが含まれる。
論文 参考訳(メタデータ) (2024-03-22T14:47:35Z) - Automatically Correcting Large Language Models: Surveying the landscape
of diverse self-correction strategies [104.32199881187607]
大規模言語モデル(LLM)は、幅広いNLPタスクで顕著な性能を示した。
これらの欠陥を正すための有望なアプローチは自己補正であり、LLM自体が自身の出力で問題を修正するために誘導される。
本稿では,この新技術について概観する。
論文 参考訳(メタデータ) (2023-08-06T18:38:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。