論文の概要: VAPU: System for Autonomous Legacy Code Modernization
- arxiv url: http://arxiv.org/abs/2510.18509v1
- Date: Tue, 21 Oct 2025 10:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.433982
- Title: VAPU: System for Autonomous Legacy Code Modernization
- Title(参考訳): VAPU:自律レガシーコードの近代化システム
- Authors: Valtteri Ala-Salmi, Zeeshan Rasheed, Abdul Malik Sami, Muhammad Waseem, Kai-Kristian Kemell, Jussi Rasku, Mika Saari, Pekka Abrahamsson,
- Abstract要約: 本稿では,ソフトウェア開発チームにおける様々な役割をシミュレートしながら,フェーズ内のコードファイルを更新する,VAPUというマルチエージェントシステムを提案する。
VAPU は ZSL/OSL のプロンプトに比べて Python ファイルの更新要求が 22.5% 増加した。
この研究は、LLMベースのマルチエージェントシステムは、レガシーアプリケーションのコンポーネントを自律的に更新する能力のあるソリューションであることを示している。
- 参考スコア(独自算出の注目度): 2.0177617569743607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we present a solution for the modernization of legacy applications, an area of code generation where LLM-based multi-agent systems are proving essential for complex multi-phased tasks. Legacy applications often contain deprecated components that create compatibility, security, and reliability risks, but high resource costs make companies hesitate to update. We take a step forward to integrate an LLM-based multi-agent system as part of a legacy web application update to provide a cost-effective solution to update legacy applications autonomously. We propose a multi-agent system named a Verifying Agent Pipeline Updater (VAPU), which is designed to update code files in phases while simulating different roles in a software development team. In our previous study, we evaluated the system for legacy version updates by using six legacy web application view files by resulting errors and accomplished requirements. This study extends the previous evaluation of a multi-agent pipeline system by extending the evaluation of VAPU from a single LLM to five LLMs and using the temperature parameter in both 0 to 1 settings. Additionally, we tested the system with 20 open-source Python GitHub projects. The results of the evaluation were compared to Zero-Shot Learning (ZSL) and One-Shot Learning (OSL) prompts. The extended evaluation of VAPU showed that particularly in a low-temperature VAPU can get similar level of error count compared to the ZSL/OSL prompts but with a higher level of fulfilled requirements, depending on the LLM. VAPU showed up to 22.5% increase in the succeeding Python file update requirements compared to ZSL/OSL prompts. The study indicates that an LLM-based multi-agent system is a capable solution to update components of a legacy application autonomously.
- Abstract(参考訳): 本研究では,LLMベースのマルチエージェントシステムが複雑なマルチフェーズタスクに必須であることが証明されているコード生成の領域である,レガシーアプリケーションの近代化のためのソリューションを提案する。
レガシーアプリケーションは、互換性、セキュリティ、信頼性のリスクを生み出す非推奨のコンポーネントを含むことが多いが、高いリソースコストによって企業は更新をためらう。
LLMベースのマルチエージェントシステムをレガシなWebアプリケーションのアップデートの一部として統合し、レガシなアプリケーションを自律的に更新するための費用対効果の高いソリューションを提供します。
ソフトウェア開発チームにおけるさまざまな役割をシミュレートしながら,フェーズ内のコードファイルを更新する,VAPU(Verifying Agent Pipeline Updater)と呼ばれるマルチエージェントシステムを提案する。
本研究では,6つのレガシーWebアプリケーションビューファイルを用いて,従来のバージョン更新システムの評価を行った。
本研究では, 1 LLM から 5 LLM へのVAPU の評価を拡張し,0 から 1 までの温度パラメータを用いたマルチエージェントパイプラインシステムの評価を拡張した。
さらに、20のオープンソースのPython GitHubプロジェクトでテストしました。
評価結果はゼロショット学習(ZSL)とワンショット学習(OSL)とを比較した。
特に低温のVAPUでは、ZSL/OSLプロンプトと同等のエラー数が得られるが、LLMによっては高い要件を満たすことができる。
VAPU は ZSL/OSL のプロンプトに比べて Python ファイルの更新要求が 22.5% 増加した。
この研究は、LLMベースのマルチエージェントシステムは、レガシーアプリケーションのコンポーネントを自律的に更新する能力のあるソリューションであることを示している。
関連論文リスト
- Reinforcement Learning for Machine Learning Engineering Agents [52.03168614623642]
強化学習によって改善される弱いモデルによって支援されるエージェントは、はるかに大きいが静的モデルによって支援されるエージェントよりも優れていることを示す。
分散非同期RLフレームワークにおいて,高コストかつ高利回りな動作を増幅するための時間依存性の勾配更新を提案する。
また,早期に失敗するプログラムとほぼ正しくないプログラムを区別し,部分クレジットを提供する環境機器を提案する。
論文 参考訳(メタデータ) (2025-09-01T18:04:10Z) - Reinforcement Learning for Long-Horizon Interactive LLM Agents [56.9860859585028]
インタラクティブデジタルエージェント(IDA)は、ステートフルなデジタル環境のAPIを利用して、ユーザの要求に応じてタスクを実行する。
対象環境で直接IDAを訓練する強化学習(RL)手法を提案する。
我々は、近似ポリシー最適化のデータおよびメモリ効率の亜種である LOOP を導出する。
論文 参考訳(メタデータ) (2025-02-03T18:35:42Z) - Autonomous Legacy Web Application Upgrades Using a Multi-Agent System [3.456157428615978]
自動コード生成のための大規模言語モデル(LLM)が新興技術で注目を集めている。
多くの時代遅れのWebアプリケーションは、セキュリティと信頼性の課題を引き起こすが、アップグレードの複雑さとコストのために、企業はそれを使い続けている。
従来のWebアプリケーションを最新バージョンに自律的にアップグレードするLLMベースのマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2025-01-31T15:14:14Z) - RES-Q: Evaluating Code-Editing Large Language Model Systems at the Repository Scale [3.378738346115004]
大規模言語モデル (LLM) を評価するベンチマーク RES-Q を開発した。
我々は,Qurrent OS上に構築されたリポジトリ編集システムにおける言語エージェントとして,最先端のLLMを評価した。
論文 参考訳(メタデータ) (2024-06-24T17:08:17Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。