論文の概要: LLM-based Multi-Agent System for Intelligent Refactoring of Haskell Code
- arxiv url: http://arxiv.org/abs/2506.19481v1
- Date: Tue, 24 Jun 2025 10:17:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.585955
- Title: LLM-based Multi-Agent System for Intelligent Refactoring of Haskell Code
- Title(参考訳): HaskellコードのインテリジェントリファクタリングのためのLLMに基づくマルチエージェントシステム
- Authors: Shahbaz Siddeeq, Muhammad Waseem, Zeeshan Rasheed, Md Mahade Hasan, Jussi Rasku, Mika Saari, Henri Terho, Kalle Makela, Kai-Kristian Kemell, Pekka Abrahamsson,
- Abstract要約: Haskell コード上での処理を自動化するために,大規模言語モデル (LLM) ベースのマルチエージェントシステムを提案する。
その結果、提案したマルチエージェントシステムは、コードの複雑さを平均11.03%減少させ、コード品質を22.46%改善し、パフォーマンス効率を平均13.27%向上させることができた。
- 参考スコア(独自算出の注目度): 3.8442921307218882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Refactoring is a constant activity in software development and maintenance. Scale and maintain software systems are based on code refactoring. However, this process is still labor intensive, as it requires programmers to analyze the codebases in detail to avoid introducing new defects. In this research, we put forward a large language model (LLM)-based multi-agent system to automate the refactoring process on Haskell code. The objective of this research is to evaluate the effect of LLM-based agents in performing structured and semantically accurate refactoring on Haskell code. Our proposed multi-agent system based on specialized agents with distinct roles, including code analysis, refactoring execution, verification, and debugging. To test the effectiveness and practical applicability of the multi-agent system, we conducted evaluations using different open-source Haskell codebases. The results of the experiments carried out showed that the proposed LLM-based multi-agent system could average 11.03% decreased complexity in code, an improvement of 22.46% in overall code quality, and increase performance efficiency by an average of 13.27%. Furthermore, memory allocation was optimized by up to 14.57%. These results highlight the ability of LLM-based multi-agent in managing refactoring tasks targeted toward functional programming paradigms. Our findings hint that LLM-based multi-agent systems integration into the refactoring of functional programming languages can enhance maintainability and support automated development workflows.
- Abstract(参考訳): リファクタリングはソフトウェア開発とメンテナンスにおいて絶え間ない活動です。
ソフトウェアシステムのスケールとメンテナンスは、コードのリファクタリングに基づいている。
しかし、このプロセスは、新しい欠陥の導入を避けるために、プログラマがコードベースを詳細に分析する必要があるため、依然として労働集約的です。
本研究では,大規模な言語モデル(LLM)に基づくマルチエージェントシステムを提案し,Haskellコードのリファクタリングプロセスを自動化する。
本研究の目的は,LLMをベースとしたエージェントがHaskellコードに対して構造的かつ意味的に正確なリファクタリングを行う場合の効果を評価することである。
コード解析,リファクタリング実行,検証,デバッグなど,異なる役割を持つ特殊エージェントに基づくマルチエージェントシステムを提案する。
マルチエージェントシステムの有効性と実用性を検証するため,異なるオープンソースのHaskellコードベースを用いて評価を行った。
実験の結果,LLMに基づくマルチエージェントシステムでは,コードの複雑さが平均11.03%減少し,コード品質が22.46%向上し,性能効率が平均13.27%向上した。
さらにメモリ割り当ては最大14.57%まで最適化された。
これらの結果は、関数型プログラミングパラダイムを対象としたリファクタリングタスクの管理において、LLMベースのマルチエージェントの能力を強調している。
この結果から,LLMベースのマルチエージェントシステムと関数型プログラミング言語のリファクタリングの統合により,保守性が向上し,自動開発ワークフローをサポートすることが示唆された。
関連論文リスト
- AdaCoder: An Adaptive Planning and Multi-Agent Framework for Function-Level Code Generation [17.020112052995334]
典型的なマルチエージェントフレームワークは、LLM(Large Language Model)ベースのエージェントで構成されている。
AdaCoderは、関数レベルのコード生成のための新しい適応型プランニング、マルチエージェントフレームワークである。
論文 参考訳(メタデータ) (2025-04-05T16:14:01Z) - MANTRA: Enhancing Automated Method-Level Refactoring with Contextual RAG and Multi-Agent LLM Collaboration [44.75848695076576]
本稿では,包括的Large Language ModelsエージェントベースのフレームワークであるMANTRAを紹介する。
ManTRAは、コンテキスト対応検索強化生成、協調型マルチエージェントコラボレーション、および言語強化学習を統合している。
MANTRA はベースライン LLM モデルを大幅に上回ることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2025-03-18T15:16:51Z) - Distributed Approach to Haskell Based Applications Refactoring with LLMs Based Multi-Agent Systems [3.972203967261693]
大言語モデル (LLM) はHaskellを自動化するマルチエージェントシステムである。
システムは、コンテキスト分析、検証、テストなどのタスクを実行する特殊なエージェントで構成される。
リファクタリングの改善には、サイクロマティックな複雑性、実行時間、メモリ割り当てといったメトリクスを使用する。
論文 参考訳(メタデータ) (2025-02-11T20:04:15Z) - Automated Refactoring of Non-Idiomatic Python Code: A Differentiated Replication with LLMs [54.309127753635366]
本研究は, GPT-4の有効性について検討し, 慣用行動の推奨と示唆について検討した。
この結果から,従来は複雑なコード解析に基づくレコメンデータの実装が求められていた,LCMの課題達成の可能性が浮き彫りになった。
論文 参考訳(メタデータ) (2025-01-28T15:41:54Z) - An Empirical Study on the Code Refactoring Capability of Large Language Models [0.5852077003870416]
この研究は、30のオープンソースプロジェクトにわたるコードにおいて、コード生成に最適化されたLLMであるStarCoder2を実証的に評価する。
我々は,(1)コード品質の改善,(2)臭いの型と有効性,(3)ワンショットとチェーン・オブ・シークレットのプロンプトによる改善に焦点を当て,StarCoder2のパフォーマンスを人間開発者と比較した。
論文 参考訳(メタデータ) (2024-11-04T17:46:20Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。