論文の概要: MARCO: A Multi-Agent System for Optimizing HPC Code Generation Using Large Language Models
- arxiv url: http://arxiv.org/abs/2505.03906v1
- Date: Tue, 06 May 2025 18:22:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:35.895136
- Title: MARCO: A Multi-Agent System for Optimizing HPC Code Generation Using Large Language Models
- Title(参考訳): MARCO:大規模言語モデルを用いたHPCコード生成の最適化のためのマルチエージェントシステム
- Authors: Asif Rahman, Veljko Cvetkovic, Kathleen Reece, Aidan Walters, Yasir Hassan, Aneesh Tummeti, Bryan Torres, Denise Cooney, Margaret Ellis, Dimitrios S. Nikolopoulos,
- Abstract要約: 大規模言語モデル(LLM)は、コード生成機能を通じてソフトウェア開発を変革してきたが、高性能コンピューティングにおけるその有効性は依然として限られている。
我々は,特殊なマルチエージェントアーキテクチャにより,HPC用のLLM生成コードを強化する新しいフレームワークであるMARCOを提案する。
MARCOはコード生成と性能評価に別々のエージェントを使用し、フィードバックループで接続され、最適化が徐々に洗練される。
- 参考スコア(独自算出の注目度): 2.0550952817668153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have transformed software development through code generation capabilities, yet their effectiveness for high-performance computing (HPC) remains limited. HPC code requires specialized optimizations for parallelism, memory efficiency, and architecture-specific considerations that general-purpose LLMs often overlook. We present MARCO (Multi-Agent Reactive Code Optimizer), a novel framework that enhances LLM-generated code for HPC through a specialized multi-agent architecture. MARCO employs separate agents for code generation and performance evaluation, connected by a feedback loop that progressively refines optimizations. A key innovation is MARCO's web-search component that retrieves real-time optimization techniques from recent conference proceedings and research publications, bridging the knowledge gap in pre-trained LLMs. Our extensive evaluation on the LeetCode 75 problem set demonstrates that MARCO achieves a 14.6% average runtime reduction compared to Claude 3.5 Sonnet alone, while the integration of the web-search component yields a 30.9% performance improvement over the base MARCO system. These results highlight the potential of multi-agent systems to address the specialized requirements of high-performance code generation, offering a cost-effective alternative to domain-specific model fine-tuning.
- Abstract(参考訳): 大規模言語モデル(LLM)はコード生成機能を通じてソフトウェア開発を変革してきたが、ハイパフォーマンスコンピューティング(HPC)の有効性は依然として限られている。
HPCコードは並列性、メモリ効率、および汎用LLMがしばしば見落としているアーキテクチャ固有の考慮のための特別な最適化を必要とする。
MARCO(Multi-Agent Reactive Code Optimizer)は、特殊なマルチエージェントアーキテクチャにより、HPC用のLLM生成コードを強化する新しいフレームワークである。
MARCOはコード生成と性能評価に別々のエージェントを使用し、フィードバックループで接続され、最適化が徐々に洗練される。
重要なイノベーションは、MARCOのWeb検索コンポーネントで、最近の会議手続きや研究出版物からリアルタイムの最適化技術を取り出し、事前訓練されたLLMの知識ギャップを埋める。
LeetCode 75 問題セットに対する我々の広範な評価は、MARCO が Claude 3.5 Sonnet 単独と比較して 14.6% のランタイム削減を実現していることを示している。
これらの結果は、高性能コード生成の特別な要件に対処するマルチエージェントシステムの可能性を浮き彫りにして、ドメイン固有のモデル微調整に代わる費用対効果を提供する。
関連論文リスト
- Collab: Controlled Decoding using Mixture of Agents for LLM Alignment [90.6117569025754]
人間のフィードバックからの強化学習は、大規模言語モデルを整合させる効果的な手法として現れてきた。
制御された復号化は、再訓練せずに推論時にモデルを整列するメカニズムを提供する。
本稿では,既存の既成のLCMポリシを活用するエージェントベースのデコーディング戦略の混合を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:34:25Z) - Do Large Language Models Understand Performance Optimization? [0.9320657506524149]
大規模言語モデル(LLM)は、コード補完、翻訳、最適化といったソフトウェア開発タスクのための強力なツールとして登場した。
本稿では,複数の重要なHPC計算モチーフを含むベンチマークスイートについて,最先端のLLMで最適化されたコードの性能を評価する。
論文 参考訳(メタデータ) (2025-03-17T23:30:23Z) - PerfCodeGen: Improving Performance of LLM Generated Code with Execution Feedback [78.89596149768458]
大規模言語モデル(LLM)は、ソフトウェア開発タスクを支援するために広く採用されている。
LLM生成コードの性能を向上させるトレーニングフリーフレームワークPerfCodeGenを提案する。
論文 参考訳(メタデータ) (2024-11-18T06:22:38Z) - Improving Parallel Program Performance with LLM Optimizers via Agent-System Interface [9.880183350366792]
並列プログラムのパフォーマンスを改善する上で重要な課題は、タスクをプロセッサやデータに効率的にメモリにマッピングすることだ。
生成最適化によるマッパー開発を自動化するフレームワークを提案する。
提案手法では,9つのベンチマークで1.34倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-10-21T04:08:37Z) - Dynamic Co-Optimization Compiler: Leveraging Multi-Agent Reinforcement Learning for Enhanced DNN Accelerator Performance [4.825037489691159]
本稿では,新しい動的共最適化コンパイラ(DCOC)を紹介する。
DCOCは、機械学習(ML)モデルをさまざまなハードウェアプラットフォームにマッピングする効率を高めるために、適応型マルチエージェント強化学習(MARL)フレームワークを使用している。
以上の結果から,DCOCはスループットを最大37.95%向上し,最適化時間を最大42.2%削減した。
論文 参考訳(メタデータ) (2024-07-11T05:22:04Z) - StepCoder: Improve Code Generation with Reinforcement Learning from
Compiler Feedback [58.20547418182074]
2つの主要コンポーネントからなるコード生成の新しいフレームワークであるStepCoderを紹介します。
CCCSは、長いシーケンスのコード生成タスクをCurriculum of Code Completion Subtaskに分割することで、探索課題に対処する。
FGOは、未実行のコードセグメントをマスクすることでのみモデルを最適化し、Fine-Grained Optimizationを提供する。
提案手法は,出力空間を探索し,対応するベンチマークにおいて最先端の手法より優れた性能を発揮する。
論文 参考訳(メタデータ) (2024-02-02T13:14:31Z) - LLM-Assisted Code Cleaning For Training Accurate Code Generators [53.087019724256606]
コードの品質を調査した結果,より構造化され,読みやすくなれば,コード生成性能が向上することがわかった。
私たちは、これらの原則を使って既存のプログラムを変換する、新しいデータクリーニングパイプラインを構築します。
提案手法を2つのアルゴリズムコード生成ベンチマークで評価した結果,微調整のCodeLLaMa-7Bでは,元のデータセットの微調整に比べて最大30%性能が向上していることがわかった。
論文 参考訳(メタデータ) (2023-11-25T02:45:50Z) - Multi-Agent Reinforcement Learning for Microprocessor Design Space
Exploration [71.95914457415624]
マイクロプロセッサアーキテクトは、高性能でエネルギー効率の追求において、ドメイン固有のカスタマイズにますます頼っている。
この問題に対処するために,Multi-Agent RL (MARL) を利用した別の定式化を提案する。
評価の結果,MARLの定式化は単エージェントRLのベースラインよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-11-29T17:10:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。