論文の概要: Beyond Local Code Optimization: Multi-Agent Reasoning for Software System Optimization
- arxiv url: http://arxiv.org/abs/2603.14703v1
- Date: Mon, 16 Mar 2026 01:21:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.978316
- Title: Beyond Local Code Optimization: Multi-Agent Reasoning for Software System Optimization
- Title(参考訳): ローカルコードの最適化を超えて - ソフトウェアシステムの最適化のためのマルチエージェント推論
- Authors: Huiyun Peng, Parth Vinod Patil, Antonio Zhong Qiu, George K. Thiruvathukal, James C. Davis,
- Abstract要約: 大規模言語モデルとAIエージェントは、ソフトウェアパフォーマンスの最適化を自動化するという約束を最近示した。
既存のアプローチは主に、ローカルな構文駆動のコードに依存している。
本稿では、制御フローとデータフロー表現をアーキテクチャおよびクロスコンポーネント依存信号と統合するマルチエージェントフレームワークを提案する。
- 参考スコア(独自算出の注目度): 6.321658281654116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models and AI agents have recently shown promise in automating software performance optimization, but existing approaches predominantly rely on local, syntax-driven code transformations. This limits their ability to reason about program behavior and capture whole system performance interactions. As modern software increasingly comprises interacting components - such as microservices, databases, and shared infrastructure - effective code optimization requires reasoning about program structure and system architecture beyond individual functions or files. This paper explores the feasibility of whole system optimization for microservices. We introduce a multi-agent framework that integrates control-flow and data-flow representations with architectural and cross-component dependency signals to support system-level performance reasoning. The proposed system is decomposed into coordinated agent roles - summarization, analysis, optimization, and verification - that collaboratively identify cross-cutting bottlenecks and construct multi-step optimization strategies spanning the software stack. We present a proof-of-concept on a microservice-based system that illustrates the effectiveness of our proposed framework, achieving a 36.58% improvement in throughput and a 27.81% reduction in average response time.
- Abstract(参考訳): 大規模な言語モデルとAIエージェントは、ソフトウェアパフォーマンスの最適化を自動化するという約束を最近示したが、既存のアプローチは主に、ローカルで構文駆動のコード変換に依存している。
これにより、プログラムの振る舞いを推論し、システム全体のパフォーマンスの相互作用をキャプチャする能力が制限される。
現代のソフトウェアは、マイクロサービスやデータベース、共有インフラストラクチャといった相互作用するコンポーネントをますます含んでいるため、効果的なコード最適化には、個々の機能やファイルを超えたプログラム構造とシステムアーキテクチャの推論が必要である。
本稿では,マイクロサービスにおけるシステム全体の最適化の実現可能性について検討する。
本稿では,制御フローとデータフロー表現をアーキテクチャおよびクロスコンポーネント依存信号に統合し,システムレベルのパフォーマンス推論をサポートするマルチエージェントフレームワークを提案する。
提案システムは,ソフトウェアスタックにまたがるクロスカットボトルネックを協調的に識別し,多段階最適化戦略を構築するための,協調エージェントの役割 – 要約,解析,最適化,検証 – に分解される。
提案するフレームワークの有効性を実証し,スループットを36.58%向上し,平均応答時間を27.81%削減したマイクロサービスベースのシステムに関する概念実証を行う。
関連論文リスト
- LoCoBench-Agent: An Interactive Benchmark for LLM Agents in Long-Context Software Engineering [90.84806758077536]
textbfLoCoBench-Agentは,大規模言語モデル(LLM)エージェントを現実的,長期的ソフトウェア工学で評価するための総合的な評価フレームワークである。
我々のフレームワークは、LoCoBenchの8000のシナリオを対話型エージェント環境に拡張し、マルチターン会話の体系的評価を可能にする。
我々のフレームワークは,8つの特殊なツール(ファイル操作,検索,コード解析)をエージェントに提供し,それを10Kから1Mトークンの範囲で評価する。
論文 参考訳(メタデータ) (2025-11-17T23:57:24Z) - KForge: Program Synthesis for Diverse AI Hardware Accelerators [5.967639357025406]
KForgeは2つの協調LDMエージェント上に構築されたプラットフォームに依存しないフレームワークである。
生成エージェントは、コンパイルと正当性フィードバックによりプログラムを反復的に生成・洗練し、パフォーマンス分析エージェントは、プロファイリングデータを解釈して最適化を誘導する。
このエージェントベースのアーキテクチャは、新しいプラットフォームをターゲットにしたシングルショットの例のみを必要とする。
論文 参考訳(メタデータ) (2025-11-17T11:46:43Z) - AwareCompiler: Agentic Context-Aware Compiler Optimization via a Synergistic Knowledge-Data Driven Framework [42.57224438231615]
本稿では,コンパイラ最適化のためのエージェントフレームワークである textbfAwareCompiler を紹介する。
構造化知識統合とデータセット構築、知識駆動適応パス生成、データ駆動ハイブリッドトレーニングパイプラインの3つの重要なイノベーション。
標準ベンチマークの実験結果は、AwareCompilerがパフォーマンスと効率の両方で既存のベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2025-10-13T02:02:36Z) - Flash-Searcher: Fast and Effective Web Agents via DAG-Based Parallel Execution [48.7788770680643]
Flash-Searcherは、新しい並列エージェント推論フレームワークである。
複雑なタスクを明示的な依存関係でサブタスクに分解し、独立した推論パスの同時実行を可能にする。
BrowseCompでは67.7%の精度で、xbench-DeepSearchでは83%、エージェントの実行手順は現在のフレームワークに比べて最大35%削減されている。
論文 参考訳(メタデータ) (2025-09-29T17:39:30Z) - Towards Agentic OS: An LLM Agent Framework for Linux Schedulers [3.8068085728995307]
我々は、完全に自律的な大規模言語モデル(LLM)エージェントが、人間の関与なしにLinuxスケジューラを安全かつ効率的に最適化できる、最初のフレームワークであるSchedCPを紹介した。
評価の結果,SchedCPの性能改善は最大1.79倍,コスト削減は有意なエージェントアプローチに比べて13倍であることがわかった。
論文 参考訳(メタデータ) (2025-09-01T08:38:49Z) - Optimas: Optimizing Compound AI Systems with Globally Aligned Local Rewards [98.0983122471875]
複合システムの効率的な最適化のための統一的なフレームワークであるOptimasを提案する。
各イテレーションにおいて、Optimasはローカルリワード関数(LRF)を効率よく適用し、各コンポーネントのローカル報酬を最大化しながら、この特性を維持する。
我々は,5つの実世界の化合物システムに対して広範な評価を行い,オプティマスが11.92%の平均的な改善によって強いベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2025-07-03T07:12:48Z) - SysLLMatic: Large Language Models are Software System Optimizers [5.342249053033864]
本稿では,LLMと性能診断フィードバックを統合したシステムであるSysLLMaticと,43の最適化パターンをキュレートしたカタログを提示する。
我々は、HumanEval_CPP(C++の競合プログラミング)、SciMark2(Javaの科学的カーネル)、DaCapoBench(Javaの大規模ソフトウェアシステム)の3つのベンチマークスイートで評価した。
その結果、SysLLMaticは、レイテンシ、スループットエネルギー効率、メモリ使用量、CPU使用量など、ソフトウェアシステムのパフォーマンスを向上できることがわかった。
論文 参考訳(メタデータ) (2025-06-02T01:57:21Z) - Towards more Contextual Agents: An extractor-Generator Optimization Framework [0.0]
LLM(Large Language Model)ベースのエージェントは、幅広い汎用アプリケーションにわたる複雑なタスクの解決に顕著な成功を収めている。
しかしながら、それらのパフォーマンスは、専門産業や研究領域のようなコンテキスト固有のシナリオで劣化することが多い。
この課題に対処するため,本研究では,LLMエージェントの文脈適応性を高めるための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:07:06Z) - Federated Multi-Level Optimization over Decentralized Networks [55.776919718214224]
エージェントが隣人としか通信できないネットワーク上での分散マルチレベル最適化の問題について検討する。
ネットワーク化されたエージェントが1つの時間スケールで異なるレベルの最適化問題を解くことができる新しいゴシップに基づく分散マルチレベル最適化アルゴリズムを提案する。
提案アルゴリズムは, ネットワークサイズと線形にスケーリングし, 各種アプリケーション上での最先端性能を示す。
論文 参考訳(メタデータ) (2023-10-10T00:21:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。