論文の概要: Do AI Agents Really Improve Code Readability?
- arxiv url: http://arxiv.org/abs/2603.13723v1
- Date: Sat, 14 Mar 2026 03:01:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.361215
- Title: Do AI Agents Really Improve Code Readability?
- Title(参考訳): AIエージェントはコードの可読性を本当に改善しているか?
- Authors: Kyogo Horikawa, Kosei Horikawa, Yutaro Kashiwa, Hidetake Uwano, Hajimu Iida,
- Abstract要約: 不適切な可読性は、開発時間を拡張し、バグを引き起こすリスクを高め、技術的負債に寄与する。
大規模言語モデルの急速な進歩により、AIエージェントベースのアプローチは複雑なタスクを自動分解するための有望なパラダイムとして登場した。
本研究では,AIエージェントによるコードの可読性向上効果について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Code readability is fundamental to software quality and maintainability. Poor readability extends development time, increases bug-inducing risks, and contributes to technical debt. With the rapid advancement of Large Language Models, AI agent-based approaches have emerged as a promising paradigm for automated refactoring, capable of decomposing complex tasks through autonomous planning and execution. While prior studies have examined refactoring by AI agents, these analyses cover all forms of refactoring, including performance optimization and structural improvement. As a result, the extent to which AI agent-based refactoring specifically improves code readability remains unclear. This study investigates the impact of AI agent-based refactoring on code readability. We extracted commits containing readability-related keywords from the AIDev dataset and analyzed changes in readability metrics before and after each commit, covering 403 commits evaluated using multiple quantitative metrics. Our results indicate that AI agents primarily target logic complexity (42.4%) and documentation improvements (24.2%) rather than surface-level aspects like naming conventions or formatting. However, contrary to expectations, readability-focused commits often degraded traditional quality metrics: the Maintainability Index decreased in 56.1% of commits, while Cyclomatic Complexity increased in 42.7%.
- Abstract(参考訳): コードの可読性は、ソフトウェアの品質と保守性の基本である。
不適切な可読性は、開発時間を拡張し、バグを引き起こすリスクを高め、技術的負債に寄与する。
大規模言語モデルの急速な進歩により、AIエージェントベースのアプローチは自動リファクタリングのための有望なパラダイムとして現れ、自律的な計画と実行を通じて複雑なタスクを分解することができる。
以前の研究では、AIエージェントによるリファクタリングが検討されていたが、これらの分析は、パフォーマンスの最適化や構造的改善など、あらゆる種類のリファクタリングをカバーしている。
その結果、AIエージェントベースのリファクタリングがコードの可読性を具体的に改善する程度は、まだ不明である。
本研究では,AIエージェントによるリファクタリングがコードの可読性に与える影響について検討する。
AIDevデータセットから可読性関連キーワードを含むコミットを抽出し,コミット前後の可読性指標の変化を分析した。
我々の結果は、AIエージェントが主に、命名規則やフォーマッティングのような表面的な側面ではなく、ロジックの複雑さ(42.4%)とドキュメントの改善(24.2%)をターゲットにしていることを示している。
しかし、期待に反して、可読性を重視したコミットは伝統的な品質指標を劣化させ、保守性指数は56.1%、循環複雑度は42.7%に低下した。
関連論文リスト
- AI IDEs or Autonomous Agents? Measuring the Impact of Coding Agents on Software Development [12.50615284537175]
大規模言語モデル(LLM)ベースのコーディングエージェントは、プルリクエストの生成とマージを行う自律的なコントリビュータとして機能するようになっている。
本稿では,オープンソースリポジトリにおけるエージェント導入の経時的因果関係について検討する。
論文 参考訳(メタデータ) (2026-01-20T04:51:56Z) - Code Refactoring with LLM: A Comprehensive Evaluation With Few-Shot Settings [0.0]
本研究の目的は,言語(C,C++,C#,Python,Java)間で,正確かつ効率的なコード実行が可能なフレームワークを開発することである。
Javaは10ショット設定で99.99%までの全体的な正しさを達成し、オリジナルのソースコードと比較して94.78%の平均的なコンパイル可能性を記録した。
論文 参考訳(メタデータ) (2025-11-26T14:47:52Z) - Agentic Refactoring: An Empirical Study of AI Coding Agents [9.698067623031909]
OpenAI Codex、Claude Code、Cursorといったエージェントコーディングツールは、ソフトウェアエンジニアリングの展望を変えつつある。
これらのAI駆動システムは、複雑な開発タスクの計画と実行が可能な自律的なチームメイトとして機能する。
エージェントが実際にどのように利用されるのか、どのように人間駆動型なのか、そしてそれがコード品質に与える影響について、実証的な理解が欠如している。
論文 参考訳(メタデータ) (2025-11-06T21:24:38Z) - Dissect-and-Restore: AI-based Code Verification with Transient Refactoring [1.2883590530210827]
提案するPrometheusは,現在のAI機能を備えた自動コード検証を容易にする,AI支援システムである。
プロメテウスは、複素補題の構造的分解を通じてより小さく検証可能な部分補題への証明探索を導く。
このアプローチは、ベースラインの68%に比べて、キュレートされたデータセットの86%のタスクをうまく検証します。
論文 参考訳(メタデータ) (2025-10-29T11:23:50Z) - Eigen-1: Adaptive Multi-Agent Refinement with Monitor-Based RAG for Scientific Reasoning [53.45095336430027]
暗黙的な検索と構造化された協調を組み合わせた統合フレームワークを開発する。
Humanity's Last Exam (HLE) Bio/Chem Goldでは,48.3%の精度を実現している。
SuperGPQAとTRQAの結果はドメイン間の堅牢性を確認した。
論文 参考訳(メタデータ) (2025-09-25T14:05:55Z) - Refactoring $\neq$ Bug-Inducing: Improving Defect Prediction with Code Change Tactics Analysis [54.361900378970134]
Just-in-time defect prediction (JIT-DP) は、早期にソフトウェア欠陥を引き起こすコード変更の可能性を予測することを目的としている。
これまでの研究は、その頻度にもかかわらず、評価フェーズと方法論フェーズの両方でコードを無視してきた。
JIT-Defects4Jデータセットのラベリング精度を13.7%向上させるコードと伝播を分類するためのCode chAnge Tactics (CAT)解析を提案する。
論文 参考訳(メタデータ) (2025-07-25T23:29:25Z) - Thinking Longer, Not Larger: Enhancing Software Engineering Agents via Scaling Test-Time Compute [61.00662702026523]
より大規模なモデルではなく、推論時間の増加を活用する統合されたテスト時間計算スケーリングフレームワークを提案する。
当社のフレームワークには,内部TTCと外部TTCの2つの補完戦略が組み込まれている。
当社の textbf32B モデルは,DeepSeek R1 671B や OpenAI o1 など,はるかに大きなモデルを上回る 46% の課題解決率を実現している。
論文 参考訳(メタデータ) (2025-03-31T07:31:32Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。