論文の概要: Autonomous Legacy Web Application Upgrades Using a Multi-Agent System
- arxiv url: http://arxiv.org/abs/2501.19204v1
- Date: Fri, 31 Jan 2025 15:14:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-03 14:02:57.226635
- Title: Autonomous Legacy Web Application Upgrades Using a Multi-Agent System
- Title(参考訳): マルチエージェントシステムによる自律レガシーWebアプリケーションのアップグレード
- Authors: Valtteri Ala-Salmi, Zeeshan Rasheed, Abdul Malik Sami, Zheying Zhang, Kai-Kristian Kemell, Jussi Rasku, Shahbaz Siddeeq, Mika Saari, Pekka Abrahamsson,
- Abstract要約: 自動コード生成のための大規模言語モデル(LLM)が新興技術で注目を集めている。
多くの時代遅れのWebアプリケーションは、セキュリティと信頼性の課題を引き起こすが、アップグレードの複雑さとコストのために、企業はそれを使い続けている。
従来のWebアプリケーションを最新バージョンに自律的にアップグレードするLLMベースのマルチエージェントシステムを提案する。
- 参考スコア(独自算出の注目度): 3.456157428615978
- License:
- Abstract: The use of Large Language Models (LLMs) for autonomous code generation is gaining attention in emerging technologies. As LLM capabilities expand, they offer new possibilities such as code refactoring, security enhancements, and legacy application upgrades. Many outdated web applications pose security and reliability challenges, yet companies continue using them due to the complexity and cost of upgrades. To address this, we propose an LLM-based multi-agent system that autonomously upgrades legacy web applications to the latest versions. The system distributes tasks across multiple phases, updating all relevant files. To evaluate its effectiveness, we employed Zero-Shot Learning (ZSL) and One-Shot Learning (OSL) prompts, applying identical instructions in both cases. The evaluation involved updating view files and measuring the number and types of errors in the output. For complex tasks, we counted the successfully met requirements. The experiments compared the proposed system with standalone LLM execution, repeated multiple times to account for stochastic behavior. Results indicate that our system maintains context across tasks and agents, improving solution quality over the base model in some cases. This study provides a foundation for future model implementations in legacy code updates. Additionally, findings highlight LLMs' ability to update small outdated files with high precision, even with basic prompts. The source code is publicly available on GitHub: https://github.com/alasalm1/Multi-agent-pipeline.
- Abstract(参考訳): 自律的なコード生成にLarge Language Models(LLM)を使用することは、新興技術において注目を集めている。
LLMの機能拡張に伴い、コードリファクタリング、セキュリティ強化、レガシーアプリケーションのアップグレードなど、新たな可能性も提供される。
多くの時代遅れのWebアプリケーションは、セキュリティと信頼性の課題を引き起こすが、アップグレードの複雑さとコストのために、企業はそれを使い続けている。
そこで本稿では,レガシWebアプリケーションを最新バージョンに自律的にアップグレードするLLMベースのマルチエージェントシステムを提案する。
システムは複数のフェーズにまたがってタスクを分散し、関連するすべてのファイルを更新する。
その効果を評価するため,ZSL(Zero-Shot Learning)とOSL(One-Shot Learning)を併用した。
評価では、ビューファイルを更新し、出力中のエラーの数とタイプを測定した。
複雑なタスクでは、うまく満たされた要件を数えました。
実験では,提案システムと独立LLM実行を複数回繰り返し,確率的挙動を考慮に入れた。
結果から,本システムはタスクやエージェント間のコンテキストを維持し,ベースモデルよりも解の質を向上させることが示唆された。
この研究は、レガシーコード更新における将来のモデル実装の基礎を提供する。
さらに、基本的なプロンプトでさえも、LDMが小さな古いファイルを高い精度で更新する能力を強調している。
ソースコードはGitHubで公開されている。 https://github.com/alasalm1/Multi-agent-pipeline。
関連論文リスト
- SWE-Fixer: Training Open-Source LLMs for Effective and Efficient GitHub Issue Resolution [56.9361004704428]
大規模言語モデル(LLM)は、様々な複雑なタスクにまたがる顕著な習熟度を示している。
SWE-Fixerは、GitHubの問題を効果的かつ効率的に解決するために設計された、新しいオープンソースフレームワークである。
我々は,SWE-Bench LiteとVerifiedベンチマークに対するアプローチを評価し,オープンソースモデル間の最先端性能を実現する。
論文 参考訳(メタデータ) (2025-01-09T07:54:24Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - HyperAgent: Generalist Software Engineering Agents to Solve Coding Tasks at Scale [12.173834895070827]
大規模言語モデル(LLM)がソフトウェア工学(SE)に革命をもたらした
最近の進歩にもかかわらず、これらのシステムは一般的に特定のSE関数用に設計されている。
我々は,多種多様なSEタスクに対処するために設計された,革新的な汎用マルチエージェントシステムHyperAgentを紹介する。
論文 参考訳(メタデータ) (2024-09-09T19:35:34Z) - RES-Q: Evaluating Code-Editing Large Language Model Systems at the Repository Scale [3.378738346115004]
大規模言語モデル (LLM) を評価するベンチマーク RES-Q を開発した。
我々は,Qurrent OS上に構築されたリポジトリ編集システムにおける言語エージェントとして,最先端のLLMを評価した。
論文 参考訳(メタデータ) (2024-06-24T17:08:17Z) - VersiCode: Towards Version-controllable Code Generation [58.82709231906735]
大規模言語モデル(LLM)は、コード生成において大きな進歩を遂げていますが、既存の研究は、ソフトウェア開発の動的な性質を説明できません。
バージョン別コード補完(VSCC)とバージョン別コードマイグレーション(VACM)の2つの新しいタスクを提案する。
VersiCodeについて広範な評価を行い、バージョン管理可能なコード生成が確かに重要な課題であることを示した。
論文 参考訳(メタデータ) (2024-06-11T16:15:06Z) - PPTC-R benchmark: Towards Evaluating the Robustness of Large Language
Models for PowerPoint Task Completion [96.47420221442397]
文,意味,多言語レベルでユーザ命令を攻撃することにより,逆ユーザ命令を構築する。
我々は、ロバストネス設定を組み込んだベンチマークを用いて、3つのクローズドソースと4つのオープンソースLCMをテストする。
GPT-4は我々のベンチマークで最も高い性能と強靭性を示す。
論文 参考訳(メタデータ) (2024-03-06T15:33:32Z) - Large Language Model based Multi-Agents: A Survey of Progress and Challenges [44.92286030322281]
大規模言語モデル(LLM)は、幅広いタスクで大きな成功を収めています。
近年, 1 つの LLM を単一計画や意思決定エージェントとして利用する手法の開発により, 複雑な問題解決や世界シミュレーションにおいて, LLM ベースのマルチエージェントシステムは大きな進歩を遂げている。
論文 参考訳(メタデータ) (2024-01-21T23:36:14Z) - ML-Bench: Evaluating Large Language Models and Agents for Machine Learning Tasks on Repository-Level Code [76.84199699772903]
ML-Benchは、既存のコードリポジトリを利用してタスクを実行する現実世界のプログラミングアプリケーションに根ざしたベンチマークである。
LLM(Large Language Model)とAIエージェントの両方を評価するために、事前に定義されたデプロイメント環境でLLMのテキスト-コード変換を評価するML-LLM-Benchと、Linuxサンドボックス環境でエンドツーエンドのタスク実行で自律エージェントをテストするML-Agent-Benchの2つの設定が採用されている。
論文 参考訳(メタデータ) (2023-11-16T12:03:21Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。